گول خوردن دیپفیکها!
گروهی از دانشمندان علوم رایانه هشدار دادهاند که آشکارسازهای جعل عمیق، فریب میخورند.
به گزارش گروه وبگردی خبرگزاری صدا و سیما، دانشمندان با آزمایش پیشرفتهترین آشکارسازهای فناوری جعل عمیق (deepfake) ثابت کردند که میتوان آنها را نیز فریب داد.
دانشگاهها، سازمانها و شرکتهای فناوری مانند مایکروسافت و فیسبوک با کار بر روی ابزارهایی که بتوانند جعل عمیق را تشخیص دهند، در تلاش هستند تا از استفاده آن جهت گسترش اخبار مخرب و اطلاعات غلط جلوگیری کنند.
دانشمندان علوم رایانه دانشگاه سندیگو هشدار دادهاند که آشکارسازهای جعل عمیق، هنوز به رغم این ابزارها قابل فریبدادن هستند.
این گروه در کنفرانس بینش رایانهای WACV ۲۰۲۱ که به صورت بر خط برگزار شد، با درج ورودیهایی در هر قطعه ویدیویی نشان داد که چگونه میتوان ابزارهای شناسایی جعل عمیق را فریب داد.
دانشمندان در مقاله خود توضیح دادند که این ورودیها تصاویر دستکاری شده هستند که میتوانند باعث اشتباه سیستمهای هوش مصنوعی شوند. بیشتر آشکارسازها با ردیابی چهره در فیلمها و ارسال دادههای برشی از چهره به یک شبکه عصبی، کار میکنند.
فیلمهای جعل عمیق قانعکننده هستند، زیرا با کپی (رونوشت) از چهره یک شخص واقعی دستکاری شدهاند، اما سیستم ردیاب یا آشکارساز میتواند با دیدن عناصری مانند پلک زدن که در نسخه جعل عمیق واقعی به نظر نمیرسند، نادرستی ویدیو را تشخیص دهد.
دانشمندان دریافتند که با اعمال ورودیهایی از چهره و قرار دادن آنها در هر قطعه از فیلم میتوان حتی پیشرفتهترین آشکارسازهای جعل عمیق را نیز فریب داد. به علاوه، روش آنها حتی برای فیلمهای فشرده نیز کارایی دارد؛ بنابر این، توسعهدهندگان چگونه میتوانند آشکارسازهایی ایجاد کنند که قابل فریب دادن نباشند؟ دانشمندان توصیه میکنند از آموزش متخاصم (دشمن) استفاده شود.
در این حالت، یک نمونه جعلی تطبیقی بهطور مرتب، نسخه جعلی ایجاد میکند که آشکارساز را آموزش میدهد تا در تشخیص تصاویر غیر معتبر، پیشرفت کند.
محققان در مقاله خود نوشتند: جهت استفاده از این آشکارسازهای کاربردی جعل عمیق، ما استدلال میکنیم که ارزیابی سیستم در برابر یک دشمن تطبیقی که از همهچیز آگاه است و قصد دارد این دفاعها را خنثی کند، ضروری است.