پخش زنده
امروز: -
این مسئولیت شرکتهای هوش مصنوعی است که اطمینان حاصل کنند محصولات آنها نقض حقوق بشر را تسهیل نمیکند.
به گزارش خبرگزاری صدا و سيما به نقل از میزان ؛ در روز ۳۰ می، مرکز ایمنی هوش مصنوعی هشداری عمومی درباره خطراتی که هوش مصنوعی برای بشریت ایجاد میکند، منتشر کرد.
گزارش الجزیره، حاکیست این بیانیه یک جملهای که از سوی بیش از ۳۵۰ دانشمند، مدیران تجاری و شخصیتهای عمومی امضا شده است، تاکید میکند: کاهش خطر هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همه گیر و جنگ هستهای یک اولویت جهانی باشد.
نکته نخست این که برخی از امضاکنندگان - از جمله مدیران عامل «گوگل دیپمایند و اوپنآی» - که در مورد پایان تمدن هشدار میدهند، شرکتهایی را نمایندگی میکنند که در وهله اول مسئول ایجاد این فناوری هستند؛ و دقیقا همین شرکتها هستند که این قدرت را دارند که اطمینان حاصل کنند هوش مصنوعی واقعا برای بشریت مفید است یا حداقل آسیبی به آن وارد نمیکند.
توصیههای جامعه حقوق بشر
این شرکتها باید به توصیههای جامعه حقوق بشر توجه کنند و فورا چارچوبی را اتخاذ کنند که به آنها کمک میکند تا اثرات منفی بالقوه محصولات خود را شناسایی، پیشگیری و کاهش دهند.
در حالی که دانشمندان مدتهاست در مورد خطرات هوش مصنوعی مولد هشدار دادهاند، اما تا زمان انتشار اخیر ابزارهای جدید هوش مصنوعی، بخش بزرگی از مردم متوجه پیامدهای منفی آن نشدند.
هوش مصنوعی مولد یک اصطلاح گسترده است که الگوریتمهای خلاقانهای را توصیف میکند که خود میتوانند محتوای جدیدی از جمله تصاویر، متن، صدا، ویدئو و حتی کدهای کامپیوتری تولید کنند؛ این الگوریتمها بر روی مجموعههای داده عظیم آموزش داده میشوند، و سپس از آن آموزش برای ایجاد خروجیهایی استفاده میکنند که اغلب از دادههای «واقعی» قابل تشخیص نیستند - تشخیص اینکه آیا محتوا از سوی یک شخص یا یک الگوریتم تولید شده است، اگر نگوییم غیرممکن، دشوار است.
ظهور ناگهانی ابزارهای جدید هوش مصنوعی مولد بی سابقه بوده است. چت ربات «ChatGPT» توسعه یافته از سوی «OpenAI» کمتر از دو ماه طول کشید تا به ۱۰۰ میلیون کاربر برسد؛ این به مراتب بیشتر از رشد اولیه پلتفرمهای محبوبی مانند تیکتاک است که ۹ ماه طول کشید تا به همان تعداد کاربر دسترسی پیدا کند.
در طول تاریخ، فناوری به پیشرفت حقوق بشر کمک کرده است، اما آسیبهایی نیز به بار آورده است، اغلب هم به روشهای غیرقابل پیش بینی؛ هنگامی که ابزارهای جستجوی اینترنتی، رسانههای اجتماعی و فناوری تلفن همراه برای نخستین بار توسعه یافتند و با افزایش پذیرش و دسترسی گسترده، پیشبینی بسیاری از راههای ناراحتکننده که این فناوریهای دگرگونکننده به محرکها و افزایشدهنده نقض حقوق بشر در سراسر جهان تبدیل شدند، تقریبا غیرممکن بود.
موارد نقض حقوق بشر
به عنوان مثال، نقش متا در پاکسازی قومی روهینگیا در میانمار در سال ۲۰۱۷، یا استفاده از نرم افزارهای جاسوسی تقریبا غیرقابل کشف برای تبدیل تلفنهای همراه به دستگاههای نظارتی ۲۴ ساعته که علیه روزنامه نگاران و مدافعان حقوق بشر استفاده میشود، هر دو پیامدهای معرفی اخلالگر هستند؛ فن آوریهایی که پیامدهای اجتماعی و سیاسی آنها مورد توجه جدی قرار نگرفته بود.
با درس گرفتن از این تحولات، جامعه حقوق بشر از شرکتهایی که محصولات هوش مصنوعی مولد را توسعه میدهند میخواهد که فوراً برای جلوگیری از هرگونه عواقب منفی برای حقوق بشر اقدام کنند؛ بنابراین رویکرد مبتنی بر حقوق بشر به هوش مصنوعی مولد چگونه ممکن است به نظر برسد؟
برای انجام مسئولیت خود در مورد احترام به حقوق بشر، آنها باید فوراً چارچوب دقیق بررسی حقوق بشر را که در اصول راهنمای سازمان ملل در مورد تجارت و حقوق بشر آمده است، اجرا کنند. این شامل بررسی لازم پیشگیرانه و مستمر برای شناسایی آسیبهای واقعی و بالقوه، شفافیت در مورد این آسیبها، و کاهش و اصلاح در صورت لزوم است.
شرکتهایی که این فناوریها را توسعه میدهند، باید فعالانه با دانشگاهیان، فعالان جامعه مدنی، و سازمانهای اجتماعی، بهویژه آنهایی که نمایندگان جوامع سنتی به حاشیه رانده شدهاند، وارد تعامل شوند.
تعامل فعال با جوامع به حاشیه رانده شده باید بخشی از طراحی محصول و فرآیندهای توسعه سیاست باشد تا تأثیر بالقوه این ابزارهای جدید بهتر درک شود. این کار را نمیتوان پس از اینکه شرکتها قبلا آسیب رسانده یا به آسیبها کمک کردهاند، انجام داد.