گول‌ خوردن دیپ‌فیک‌ها!

به گزارش گروه وب‌گردی خبرگزاری صدا و سیما، دانشمندان با آزمایش پیشرفته‌ترین آشکارساز‌های فناوری جعل عمیق (deepfake) ثابت کردند که می‌توان آن‌ها را نیز فریب داد.

 

گول‌ خوردن دیپ‌فیک‌ها!

 
دانشگاه‌ها، سازمان‌ها و شرکت‌های فناوری مانند مایکروسافت و فیس‌بوک با کار بر روی ابزار‌هایی که بتوانند جعل عمیق را تشخیص دهند، در تلاش هستند تا از استفاده آن جهت گسترش اخبار مخرب و اطلاعات غلط جلوگیری کنند.
 
دانشمندان علوم رایانه دانشگاه سن‌دیگو هشدار داده‌اند که آشکارساز‌های جعل عمیق، هنوز به رغم این ابزار‌ها قابل فریب‌دادن هستند.
 
این گروه در کنفرانس بینش رایانه‌ای WACV ۲۰۲۱ که به صورت بر خط برگزار شد، با درج ورودی‌هایی در هر قطعه ویدیویی نشان داد که چگونه می‌توان ابزار‌های شناسایی جعل عمیق را فریب داد.
 
دانشمندان در مقاله خود توضیح دادند که این ورودی‌ها تصاویر دستکاری شده‌ هستند که می‌توانند باعث اشتباه سیستم‌های هوش مصنوعی شوند. بیشتر آشکارساز‌ها با ردیابی چهره در فیلم‌ها و ارسال داده‌های برشی از چهره به یک شبکه عصبی، کار می‌کنند.
 
فیلم‌های جعل عمیق قانع‌کننده هستند، زیرا با کپی (رونوشت) از چهره یک شخص واقعی دستکاری شده‌اند، اما سیستم ردیاب یا آشکارساز می‌تواند با دیدن عناصری مانند پلک زدن که در نسخه جعل عمیق واقعی به نظر نمی‌رسند، نادرستی ویدیو را تشخیص دهد.
 
دانشمندان دریافتند که با اعمال ورودی‌هایی از چهره و قرار دادن آن‌ها در هر قطعه از فیلم می‌توان حتی پیشرفته‌ترین آشکارساز‌های جعل عمیق را نیز فریب داد. به علاوه، روش آنها حتی برای فیلم‌های فشرده نیز کارایی دارد؛ بنابر این، توسعه‌دهندگان چگونه می‌توانند آشکارساز‌هایی ایجاد کنند که قابل فریب دادن نباشند؟ دانشمندان توصیه می‌کنند از آموزش متخاصم (دشمن) استفاده شود.
 
در این حالت، یک نمونه جعلی تطبیقی ​​به‌طور مرتب، نسخه جعلی ایجاد می‌کند که آشکارساز را آموزش می‌دهد تا در تشخیص تصاویر غیر معتبر، پیشرفت کند.
 
محققان در مقاله خود نوشتند: جهت استفاده از این آشکارساز‌های کاربردی جعل عمیق، ما استدلال می‌کنیم که ارزیابی سیستم در برابر یک دشمن تطبیقی ​​که از همه‌چیز آگاه است و قصد دارد این دفاع‌ها را خنثی کند، ضروری است.