کارشناسان غربی میگویند: شبیهسازی صدا و تصویر، دیپ فیک، ساخت ویدیوهای جعلی با استفاده از هوش مصنوعی و افزایش امکان انتشار و بازنشر گسترده آنها، اکنون بیش از هر زمان دیگری انتخابات ریاست جمهوری ۲۰۲۴ آمریکا را در خطر قرار داده است.
به نظر میرسید که در این ویدئو والاس تیراندازیهای پلیس را کم اهمیت جلوه میدهد و میگوید که در زمان من یک پلیس میتواند ۱۸ غیرنظامی را در دوران حرفهای خود بکشد. ما باید از کاهش بودجه پلیس جلوگیری و شروع به بازپرداخت آنها کنیم.
مدتی بعد مشخص شد، والاس چنین حرفی را نزده است. اسن صدا جعلی و احتمالا با نرم افزار هوش مصنوعی شبیه سازی شده بود. حساب کاربری Chicago Lakefront News، که تاریخ ایجاد آن درست به چند روز پیش از انتشار این ویدئو میرسید، به سرعت پست را حذف کرد، اما پیش از آن هزاران نفر توئیت را دیدند و به طور گسترده بازنشر شده بود. برخی ظاهرا فریب خوردند و فکر کردند این ویدئو حقیقت است.
سرانجام والاس در دور دوم انتخابات شکست خورد و به نظر نمیرسد که این صدا تاثیر قابل توجهی بر نتیجه رقابت شهرداری داشته باشد. با این حال، شبیهسازی صدای او پیشنمایش ترسناکی از اطلاعات نادرستی است که کارشناسان میگویند به لطف پیشرفتهای سریع در هوش مصنوعی، باید انتظار داشته باشیم که در انتخابات ریاستجمهوری ۲۰۲۴ ایالات متحده با آن روبرو شویم.
هوش مصنوعی مولد و چتجیچیتی، تنها نمونهای از این فناوریها است. شرکتی به نام ElevenLabs نرمافزاری را منتشر کرده که میتواند صداهای یک شخص را تنها با آنالیزی چند ثانیهای شبیهسازی کند. با پیشرفت این فناوری ها، حالا هرکسی میتواند با استفاده از نرمافزارهایی مانند OpenAI’s DALL-E ۲، Stable Diffusion یا Midjourney، تصاویر واقعی تولید کند.
نرم افزاری توسط استارتآپ نیویورکی Runway ایجاد شده که کلیپهایی به طول چند ثانیه تولید میکند و یک جاعل ماهر با تکنیکهای دیپفیک میتواند ویدئوهای جعلی را به قدری خوب بسازد که بسیاری از مردم فریب بخورند.
البته پیش از این هم میشد اطلاعات نادرست را منتشر کرد، اما حالا توانایی انجام این کار سرعت بیشتری گرفته است. برخی تصور میکنند فناوری دیپفیک هنوز به اندازهای خوب نیست که بتواند نقش مهمی در انتخابات۲۰۲۴ ایفا کند.
اما شبیه سازی صدا از همین حالا هم نگران کننده است و این احتمال وجود دارد قطعات صوتی منتشر و ادعا شود که نامزد انتخاباتی در جلسهای خصوصی این حرفا را زده است. ممکن است این ادعا انکار شود، اما در میانه راه انتخابات، دیگر برای انکار دیر است.
ساندرا واچر، استاد فناوری و مقررات در مؤسسه اینترنت آکسفورد، میگوید: مطالعات به نتایج متناقضی درباره اینکه آیا روایتهای نادرست کسی را متقاعد میکنند یا فقط باورهای موجود را تقویت میکنند، رسیدهاند. اما در یک انتخابات، حتی چنین تاثیرات حاشیهای میتواند تعیین کننده باشد.
در مواجهه با تهدید اخبار جعلی تولید شده از سوی هوش مصنوعی، برخی معتقدند این فناوری ممکن است بهترین دفاع را ارائه دهد. در اسپانیا، شرکتی به نام Newtral که متخصص بررسی ادعاهای سیاستمداران است، در حال آزمایش با مدلهای زبانی بزرگ شبیه به آنهایی که در چتجیپیتی استفاده میشود، است.
روبن میگوئز پرز، مدیر ارشد فناوری نیوترال گفت: با اینکه این مدلها نمیتوانند حقایق را تایید کنند، اما میتوانند مردم را در کشف دروغها یاری دهند. این فناوری میتواند با بررسی و تطابق ادعا، احتمال نادرست بودن اطلاعات را ارزیابی کرده آنها را علامتگذاری کند. با جفت کردن مدلهای زبان بزرگ با سایر نرمافزارهای یادگیری ماشینی، میتوان احتمال اطلاعات نادرست بودن چیزی را براساس احساسات بیان شده در محتوا ارزیابی کند. میگوئز پرز میگوید با استفاده از این روشها، زمان لازم برای شناسایی اظهارات بین ۷۰ تا ۸۰ درصد کاهش مییابد.
غولهای فناوری مانند متا و گوگل روی هوش مصنوعی کار میکنند. در آستانه انتخابات ریاستجمهوری ۲۰۲۰ آمریکا، متا اعلام کرد: هشدارهایی را درباره بیش از ۱۸۰ میلیون محتوایی که توسط بررسیکنندگان حقایق شخص ثالث حذف شدهاند، نمایش داده است.
با این حال، اما حجم اطلاعات نادرست منتقل شده، بسیار زیاد است. متا میگوید: سیستمهایش از زمان انتخابات ۲۰۲۰ بهتر شدهاند، ولی افرادی که اطلاعات نادرست را منتشر میکنند و پیشرفتهای هوش مصنوعی پیشرفت قابل توجهی داشتهاند.
گری مارکوس، استاد بازنشسته علوم شناختی دانشگاه نیویورک و کارشناس هوش مصنوعی میگوید: تنها با مقرراتگذاری میتوان در این شرایط تغییر ایجاد کرد. کنگره باید تولید و انتشار اخبار جعلی و اطلاعات نادرست را غیرقانونی اعلام کند؛ هرچند عدهای آن را خلاف متمم اول قانون اساسی آمریکا بدانند. زیرا تدوین کنندگان قانون اساسی هرگز تصور پدیدار شدن چنین فناوریهای مخربی را نمیکردند.
شرکت OpenAI، خالق چتجیپیتی، درباره این نوع واترمارک صحبت کرده، اما هنوز آن را اجرا نکرده و نرم افزار تشخیص محتوای هوش مصنوعی رایگان را منتشر کرده، اما فقط در حدود یک سوم موارد کار میکند.
انتهای پیام/