مشاور هوش مصنوعی سازمان ملل در مورد استفاده مخرب از دیپ فیک هشدار داد، او استدلال می کند که سیاست گذاران باید برای محافظت از مردم بیشتر تلاش کنند.
ساهوتا، کارشناس هوش مصنوعی مستقر در کالیفرنیا که به عنوان مشاور سازمان ملل متحد خدمت کرده گفت: یک دوقلوی دیجیتال اساسا یک نسخه از چیزی از دنیای واقعی است. دیپ فیکها تصویری آینهای از دوقلوهای دیجیتال هستند، به این معنی که بدون اجازه شخص و معمولا برای اهداف مخرب و برای فریب دادن کسی، یک ماکت دیجیتالی از وی ایجاد میشود.
پیشتر دیپ فیکهایی سیاسی در فضای مجازی منتشر و خبرساز شده بودند، مانند ویدئویی که نشان میداد ولودیمیر زلنسکی رئیسجمهور اوکراین به مردم کشورش میگوید تسلیم روسیه شوند یا کلیپی از ایلان ماسک که برای تبلیغ سرمایهگذاری و البته برای کلاهبرداری بود.
اما فقط افراد مشهور در معرض خطر دیپ فیک نیستند. مردم عادی هم میتوانند تحت تاثیر قرار گیرند.
ساهوتا گفت: راه تشخیص محتواهای دستکاری شده از طریق ویدئو و صدایی است که قطع میشوند. شما باید یک چشم هوشیار داشته باشید. اگر با یک ویدئو مواجه هستید، باید به دنبال چیزهای عجیب و غریب مانند زبان بدن، سایههای عجیب و غریب و این نوع چیزها باشید. در مورد صدا نیز باید بپرسید آیا فرد چیزهایی میگوید که به طور معمول میگوید؟
ساهوتا همچنین استدلال کرد: در حال حاضر سیاستگذاران در زمینه آموزش مردم در مورد خطرات فراوان جعل عمیق و نحوه تشخیص آنها به اندازه کافی تلاش نمیکنند.
او توصیه کرد: یک سیستم تایید محتوا پیادهسازی شود که از توکنهای دیجیتال برای احراز هویت محتواها و شناسایی جعلهای عمیق استفاده کند.
وی گفت: حتی افراد مشهور سعی میکنند راهی برای ایجاد یک تمبر قابل اعتماد، نوعی نشانه یا سیستم احراز هویت بیابند تا در صورت داشتن هر نوع تعامل غیر حضوری، راهی برای تایید وجود داشته باشد. این چیزی است که در سطح سازمان ملل شروع به اتفاق افتادن کرده است. مثلا اینکه چگونه مکالمات را احراز هویت یا صحت یک ویدئو را تایید کنیم؟