هفت نشانه برای شناسایی ویدیوهای دیپ فیک
نشریه گاردین در مطلبی به عناصر بصری اشاره میکند که با توجه به آنها میتوان جعل عمیق را تشخیص داد.
دور دهان یا چانه غیرعادی
در ویدیوهای جعل عمیق، اطراف دهان شخص میتواند بزرگترین نشانه باشد. ممکن است چینوچروکهای پوست و جزئیات اطراف دهان کمتر باشد یا چانه محو و تار دیده شود. هماهنگی ضعیف میان صدای فرد و حرکت دهان نیز میتواند نشانهای دیگر باشد.
عناصر گفتاری عجیب
اگر فرد در ویدیو اشتباه کلامی دارد احتمالا از یک ابزار تبدیل متن به صدا استفاده شده است، بدون اینکه بررسی شود که آیا با الگوهای گفتاری معمول مطابقت دارد. علاوه بر این، نشانههایی نیز در لحن وجود دارد. برای بررسی صحت ویدیو میشود صدا، رفتار و حالتها را با ویدیوهای واقعی ضبطشده از فرد مقایسه کرد تا تشخیص داد آیا هماهنگی وجود دارد یا خیر.
هماهنگی میان صورت و بدن
در ویدیوهای جعل عمیق ممکن است اندازه سر با بقیه بدن نامتناسب یا رنگ پوست گردن و صورت متفاوت باشد. بدن نامتحرک نیز نشانهای آشکار از جعل عمیق بهاصطلاح عروسکگردان است که بدن از گردن به پایین حرکت نمیکند.
بیانسجامی و ناپیوستگی در ویدیو
گاهی ممکن است رنگ لباس فرد در طول ویدیو تغییر کند. چشمانداز هوش مصنوعی مولد و در نتیجه، نشانههای جعل عمیق بهسرعت در حال تغییر است. اما در هر صورت، هنگام تماشای ویدیوها همواره باید آمیزهای از عقل سلیم و مقداری شک و تردید به کار گرفت، بهخصوص وقتی در ویدیو ادعاهای عجیب یا نامحتمل مطرح میشود.
انگشتها، دستها، اعضای اضافی
در تصاویر نامتحرکی که هوش مصنوعی تولید کرده است دنبال انگشتها، پاها، بازوهای اضافی و دستهایی باشید که شکل عجیبی دارند.
دستورهای تایپشده در ابزارهای تولید تصویر ممکن است بر افراد متمرکز باشندــ اغلب نام افراد مشهورــ و به تصویر خروجی منجر میشود که تاکید روی چهره است. در نتیجه، مصنوعی بودن تصویر اغلب در سایر جزئیات مانند دستها یا هماهنگی فیزیکی پسزمینه آشکار میشود.
حروف و اعداد درهمریخته
ابزارهای هوش مصنوعی برای تولید تصویر در بازتولید عدد و متن مشکل دارند. اعداد و متن معمولا نشانهای آشکار است زیرا هوش مصنوعی مولد درکی از نمادها ندارد، بنابراین متنها و اعداد معمولا درهمریخته یا ناخوانا تولید میکند. اگر در تصویر متن یا عددی وجود دارد، با بزرگ کردن آنها میشود تشخیص داد تصویر با استفاده از هوش مصنوعی تولید شده است یا خیر.
ویرایشهای ویدیویی غیریکدست
برخی تصاویر دستکاریشده بهقدری غیرحرفهای کنار هم قرار میگیرند که بهراحتی قابلتشخیص است. این نمونه از جعل که به «جعل عمیق ارزان» معروف است اغلب از نرمافزارها ساده ادیت ویدیو و سایر روشهای کمکیفیت استفاده میکند.
این مطلب از سایت ایتنا گردآوری شده است.
منبع: ایتنا