هوش مصنوعی چگونه میتواند انتخابات را تسخیر و دموکراسی را تضعیف کند؟
کانورسیشن در گزارشی به اینکه آیا سازمانها میتوانند از مدلهای زبان هوش مصنوعی مانند چتجیپیتی برای ترغیب رای دهندگان به رفتارهای خاص استفاده کنند یا خیر، پرداخته است.
![چگونه هوش مصنوعی می تواند انتخابات را تسخیر و دموکراسی را تضعیف کند؟ چگونه هوش مصنوعی می تواند انتخابات را تسخیر و دموکراسی را تضعیف کند؟](/files/fa/news/1402/3/15/9725420_532.jpg)
به گزارش
خبرگزاری صداوسیما به نقل از کانورسیشن، سناتور جاش هاولی در جلسه استماع سنای آمریکا از سام آلتمن، مدیر عامل اوپنای آی پرسید: آیا سازمانها میتوانند از مدلهای زبان هوش مصنوعی مانند چتجیپیتی برای ترغیب رای دهندگان به رفتارهای خاص استفاده کنند، آلتمن پاسخ داد که او واقعا نگران است که برخی از افراد ممکن است از مدلهای زبانی برای دستکاری، متقاعد کردن و درگیر شدن در تعاملات فردی با رای دهندگان استفاده کنند.
آلتمن توضیح بیشتری نداد، اما ممکن است چیزی شبیه به این سناریو را در ذهن داشته باشد. تصور کنید که به زودی، فناوران سیاسی ماشینی به نام کلاگر (Clogger) را توسعه دهند. یک پویش سیاسی در جعبه سیاه. کلاگر بی وقفه فقط یک هدف را دنبال میکند: به حداکثر رساندن شانس برتری يك نامزد در پویشی که خدمات کلاگر را خریداری میکند.
در حالی که شبکههای اجتماعی مانند فیس بوک، توئیتر و یوتیوب از اشکال هوش مصنوعی برای ترغیب کاربران به سپری کردن زمان بیشتری در سایت خود استفاده میکنند، هوش مصنوعی کلاگر هدف دیگری دارد: تغییر رفتار رای دادن مردم.
کلاگر چگونه کار میکند؟
دانشمندان علوم سیاسی معتقدند که چیزی مانند کلاگر میتواند از اتوماسیون برای افزایش چشمگیر مقیاس و به طور بالقوه اثربخشی تکنیکهای دستکاری رفتار و هدف گیری خرد که پویشهای سیاسی از اوایل دهه دو هزار استفاده کرده اند، استفاده کند.. همانطور که تبلیغ کنندگان از مرور و سابقه شبکههای اجتماعی شما برای هدف قرار دادن تبلیغات تجاری و سیاسی استفاده میکنند، کلاگر نیز به صدها میلیون رای دهنده به صورت جداگانه توجه میکند.
کلاگر این سه پیشرفت را نسبت به دستکاری رفتار الگوریتمی فعلی ارائه میدهد. اولا، مدل زبان آن پیامهایی را ایجاد میکند، متنها، شبکههای اجتماعی و ایمیل، شاید شامل تصاویر و ویدئوها متناسب با شخص کاربر. در حالی که تبلیغکنندگان به صورت راهبردی تعداد نسبتا کمی تبلیغات را قرار میدهند، مدلهای زبانی مانند چتجیپیتی میتوانند پیامهای منحصربهفرد بیشماری را برای شخص هر کاربر در طول پویش ایجاد کنند.
دوم، کلاگر از تکنیکی به نام یادگیری تقویتی برای ایجاد پی در پی پیامهایی استفاده میکند که احتمال تغییر رای فرد را افزایش میدهد. یادگیری تقویتی یک رویکرد یادگیری ماشینی، آزمون و خطا است که در آن رایانه اقداماتی را انجام میدهد و درباره اینکه کدام کار بهتر است بازخورد دریافت میکند تا یاد بگیرد چگونه به یک هدف دست یابد. ماشینهایی که میتوانند Go، شطرنج و بسیاری از بازیهای ویدئویی را بهتر از هر انسان دیگری انجام دهند، از یادگیری تقویتی استفاده کرده اند.
سوم، در طول یک پویش، پیامهای کلاگر میتوانند به منظور در نظر گرفتن پاسخهای کاربر به ارسالهای قبلی دستگاه و آنچه که در مورد تغییر نظر دیگران آموخته است، تکامل یابند. کلاگر میتواند در طول زمان مکالمات پویا را با کاربران ادامه دهد. پیامهای کلاگر شبیه تبلیغاتی است که ما را در وب سایتها و رسانههای اجتماعی مختلف دنبال میکنند.
ماهیت هوش مصنوعی
پیامهایی که کلاگر ارسال میکند ممکن است محتوای سیاسی داشته باشند یا نباشند. تنها هدف این سیستم به حداکثر رساندن سهم رای است و احتمالا راهبردهایی را برای دستیابی به این هدف طراحی میکند که هیچ مبارز انسانی به آن فکر نمیکرد.
امکان ارسال اطلاعات به رای دهندگان مخالف احتمالی در مورد علایق غیرسیاسی که در ورزش یا سرگرمی دارند برای دفن پیامهای سیاسی که دریافت میکنند، است. امکان دیگر ارسال پیامهای بیاختیاری است که همزمان با پیامهای مخالفان باشد و دیگری دستکاری گروههای دوستان شبکههای اجتماعی رایدهندگان است تا این حس را ایجاد کنند که حلقههای اجتماعی آنها از نامزد مربوطه حمایت میکنند.
کلاگر هیچ توجهی به حقیقت ندارد. در واقع، هیچ راهی برای شناخت درست یا نادرست بودن محتوای تولیدی آن وجود ندارد. هدف این سیستم تغییر رای کاربران است نه ارائه اطلاعات دقیق.
از آنجا که این سیستم یک نوع جعبه سیاه از هوش مصنوعی است، مردم راهی برای دانستن اینکه از چه راهبردهایی استفاده میکند، ندارند.
اگر کمپین ریاست جمهوری جمهوری خواهان، کلاگر را در سال ۲۰۲۴ معرفی کند، کمپین دموکراتها احتمالا مجبور میشود به همان شکل، شاید با دستگاهی مشابه، پاسخ دهند. اگر مدیران پویشهای انتخاباتی فکر میکردند که این ماشینها مؤثر هستند، رقابت ریاستجمهوری ممکن است به Clogger vs Dogger ختم شود و برنده مشتری ماشین موثرتر باشد.
دانشمندان علوم سیاسی و صاحب نظران میتوانند در مورد دلیل غالب شدن این سیستمهای هوش مصنوعی حرفهای زیادی برای گفتن داشته باشند، اما احتمالا هیچکس واقعا چیزی درباره آنها نمیداند. محتوایی که در روز انتخابات برنده شد، میتوانست از یک هوش مصنوعی باشد که صرفا بر پیروزی متمرکز شده بود، بدون ایدههای سیاسی خودش، به جای نامزدها یا احزاب.
در این مفهوم بسیار مهم، یک ماشین برنده انتخابات میشد تا یک شخص. انتخابات دیگر دموکراتیک نخواهد بود، حتی اگر همه فعالیتهای عادی دموکراسی یعنی سخنرانیها، تبلیغات، پیامها، رایگیری و شمارش آرا انجام شده باشد.
رئیسجمهور منتخب هوش مصنوعی میتواند یکی از دو راه را طی کند. او میتواند از ردای انتخابات برای پیگیری سیاستهای حزب جمهوری خواه یا دموکرات استفاده کند. اما از آنجایی که ممکن است ایدههای حزب ارتباط چندانی با این موضوع نداشته باشد که چرا مردم به روشی که رای دادند، اهمیتی نمیدهند اقدامات رئیسجمهور لزوما منعکسکننده اراده رایدهندگان نیست. رای دهندگان به جای انتخاب آزادانه رهبران سیاسی و سیاستهای خود، توسط هوش مصنوعی دستکاری میشدند.
مسیر دیگر این است که رئیس جمهور پیام ها، رفتارها و سیاستهایی را دنبال کند که ماشین پیش بینی میکند شانس انتخاب مجدد را به حداکثر میرساند. در این مسیر، رئیس جمهور هیچ سکو یا برنامه خاصی فراتر از حفظ قدرت نخواهد داشت. اقدامات رئیس جمهور که توسط کلاگر هدایت میشود، به احتمال زیاد به جای خدمت به منافع واقعی آنها یا حتی ایدئولوژی خود رئیس جمهور، رای دهندگان را دستکاری میکند.
اگر کاندیداها، پویشها و مشاوران همگی استفاده از چنین هوش مصنوعی سیاسی را نپذیرفتند، میتوان از دستکاری انتخاباتی هوش مصنوعی جلوگیری کرد. اگر جعبههای سیاه مؤثر از نظر سیاسی ساخته میشدند، وسوسه استفاده از آنها تقریبا غیرقابل مقاومت بود. در واقع، مشاوران سیاسی ممکن است استفاده از این ابزارها را آنگونه که مسئولیت حرفهای آنها لازم است برای کمک به نامزدهای خود برای پیروزی ببینند. هنگامی که یک نامزد از چنین ابزار مؤثری استفاده میکند، به سختی میتوان انتظار داشت که مخالفان با خلع سلاح یکجانبه مقاومت کنند.
حفاظت از حریم خصوصی پیشرفته کمک خواهد کرد. کلاگر برای هدف قرار دادن افراد، ایجاد پیامهایی که برای متقاعد کردن یا دستکاری آنها طراحی شده و آنها را در طول یک پویش ردیابی و هدفگیری مجدد میکند، به دسترسی به مقادیر زیادی از دادههای شخصی بستگی دارد. هر ذرهای از اطلاعاتی که شرکتها یا سیاست گذاران دستگاه را انکار میکنند، کارایی آن را کم میکند.
راه حل دیگر مربوط به کمیسیونهای انتخابات است. آنها میتوانند سعی کنند این ماشینها را ممنوع یا به شدت تنظیم کنند. بحث شدیدی در مورد اینکه آیا میتوان چنین گفتار «مثل» را، حتی اگر ماهیت سیاسی داشته باشد، تنظیم کرد یا خیر، وجود دارد. سنت افراطی آزادی بیان در آمریکا باعث میشود بسیاری از دانشگاهیان برجسته بگویند که نمیتواند.
اما دلیلی وجود ندارد که به طور خودکار حفاظت اصلاحیه اول را به محصولات این ماشینها گسترش دهیم. این کشور ممکن است به خوبی تصمیم بگیرد که به ماشینها حقوق بدهد، اما این باید تصمیمی مبتنی بر چالشهای امروزی باشد، نه این فرض نادرست که دیدگاههای جیمز مدیسون در سال ۱۷۸۹ برای اعمال هوش مصنوعی در نظر گرفته شده است.
تنظیم کنندههای اتحادیه اروپا در حال حرکت در این مسیر هستند. سیاستگذاران پیشنویس قانون هوش مصنوعی پارلمان اروپا را اصلاح کردند تا «سیستمهای هوش مصنوعی برای تاثیرگذاری بر رایدهندگان در پویش ها» را بهعنوان «پرخطر» و مشمول بررسیهای نظارتی تعیین کنند.
یکی از گامهای امنتر از نظر قانون اساسی، اگر کوچکتر باشد، که قبلا تا حدی توسط تنظیمکنندههای اینترنت اروپایی و در کالیفرنیا اتخاذ شده، ممنوع کردن رباتها از معرفی خود به عنوان مردم است. به عنوان مثال، مقررات ممکن است مستلزم آن باشد که پیامهای پویش زمانی با سلب مسئولیت همراه باشند، زمانی که محتوای آنها توسط ماشینها به جای انسان تولید شده باشد.
سیستمی مانند کلاگر نشان میدهد که مسیر ناتوانی جمعی انسان ممکن است نیازی به هوش عمومی مصنوعی مافوق بشری نداشته باشد. ممکن است فقط به مبارزان و مشاوران بیش از حد نیاز داشته باشد که ابزارهای جدید قدرتمندی داشته باشند که میتوانند به طور موثر دکمههای میلیونها نفر را فشار دهند.