پخش زنده
امروز: -
بنابر گزارش گاردين، کارشناسان هشدار دادند که انتخابات سال آینده در انگليس و آمريكا ممکن است با موجی از اطلاعات نادرست مبتنی بر هوش مصنوعی رو به رو شود.
به گزارش خبرگزاری صداوسیما به نقل از گاردین، سام آلتمن، مدیرعامل اوپن اِی آی (OpenAI)، خالق چت جی پی تی (ChatGPT)، در جلسه استماع کنگره در واشنگتن گفت مدلهای آخرین نسل فناوری هوش مصنوعی میتوانند اطلاعات کاربران را دستکاری کنند.
توانایی کلی این مدلها برای دستکاری و متقاعد کردن، ارائه اطلاعات نادرست قابل توجه و جای نگرانی دارد.
مردم باید بدانند که آیا با یک هوش مصنوعی صحبت می کنند یا محتوایی که آنها به آن نگاه می کنند واقعی است. برای پیشبینی انسانها، به نظر من به ترکیبی از شرکتهایی نیاز داریم که کار درست را انجام میدهند.
ریشی سوناک، نخست وزیر انگليس، گفت که انگليس در محدود کردن خطرات هوش مصنوعی مدیریت خواهد کرد. نگرانیها در مورد این فناوری پس از پیشرفتهایی که در هوش مصنوعی مولد، که در آن ابزارهایی مانند ChatGPT وجود دارد که متن، تصاویر و حتی صدا را به صورت قانعکننده ای تولید میکنند، افزایش یافته است.
در جایی که امواج قبلی رباتهای تبلیغاتی به پیامهای از پیش نوشته شده ساده که بهطور انبوه ارسال میشد، یا ساختمانهای پر از «ترولهای پولی» برای انجام کار دستی درگیر شدن با انسانهای دیگر متکی بودند، ChatGPT و سایر فناوریها چشمانداز تداخل انتخاباتی تعاملی را در مقیاس بزرگ افزایش میدهند.
پروفسور مایکل وولدریج، مدیر بنیاد تحقیقات هوش مصنوعی در موسسه آلن تورینگ انگليس، گفت که اطلاعات نادرست مبتنی بر هوش مصنوعی نگرانی اصلی او در مورد این فناوری است.
"در حال حاضر نگرانی های من برای هوش مصنوعی، شماره یک در لیست است. ما در انگليس و آمريكا انتخابات پیش رو داریم و می دانیم که رسانه های اجتماعی مجرای فوق العاده قدرتمندی برای اطلاعات نادرست هستند. اما اکنون می دانیم که هوش مصنوعی مولد می تواند اطلاعات نادرست را در مقیاس صنعتی تولید کند.
وولدریج گفت رباتهای چت مانند ChatGPT میتوانند اطلاعات نادرست را تولید کنند که هدف آن، تغییر رای شرکت کننده ها باشد.
پس از انتشار تصاویر جعلی دونالد ترامپ در نیویورک در ماه مارس و بعد انتشار تصاویر چشم نواز توسط هوش مصنوعی از پاپ فرانسیس با ژاکت پف دار، باعث شد مردم دچار گیجی شوند و از این اطلاعات نادرست ابراز نگرانی کردند.
با پیشرفت روزافزون قابلیتهای هوش مصنوعی، نگرانیهایی وجود دارد که باور کردن هر چیزی که آنلاین با آن مواجه میشویم شرایط سختتر میشود.
برای مثال، شبیهسازی صدای جو بایدن، رئیسجمهور آمريكا در ماه ژانویه درمورد جنگ اوکراین در شبکه های اجتماعی به اشتراک گذاشته شد و بسیار سرو صدا به پا کرد.
ابزاری که توسط شرکت آمریکایی ElevenLabs ساخته شد، ماهیت ویروسی این کلیپ را روشن کرد و همچنین جملهای از بیل گیتس که ظاهراً گفته بود واکسن کووید-19 باعث ایدز می شود هم بسیار دردسرساز شد. از آن زمان اقدامات حفاظتی در برابر استفاده آزاردهنده از فناوری تشدید پیدا کرد.
Recorded Future، یک شرکت امنیت سایبری ایالات متحده، گفت که بازیگران سرکش را می توان یافت که خدمات شبیه سازی صدا را به صورت آنلاین می فروشند، از جمله توانایی آنها شبیه سازی صدای مدیران شرکت ها و شخصیت های عمومی است.
الکساندر لزلی، تحلیلگر Recorded Future، گفت که این فناوری تنها در آستانه انتخابات ریاست جمهوری آمريكا بهبود می یابد و به طور گسترده در دسترس قرار می گیرد و به صنعت فناوری و دولت ها فرصتی می دهد تا اکنون وارد عمل شوند.
لزلی گفت: «بدون آموزش و آگاهی گسترده، این میتواند به یک عامل تهدید واقعی در انتخابات تبدیل شود.
NewsGuard همچنین روز جمعه اعلام کرد که تعداد وبسایتهای خبری و اطلاعاتی تولید شده توسط هوش مصنوعی که از آنها مطلع بود، طی دو هفته بیش از دو برابر شده و به 125 رسیده است.
استیون بریل، مدیر عامل NewsGuard، گفت که او نگران است که بازیگران سرکش بتوانند از فناوری چت بات برای تولید انبوه انواع داستان های جعلی استفاده کنند. او گفت: خطر این است که کسی عمداً از آن استفاده کند تا این روایتهای نادرست را منتشر کند.