گروههای مدنی اروپا خواستار تشدید تنظیمگری درباره هوش مصنوعی شدند
گروههای مدنی در بیش از ۱۰ کشور اروپایی خواستار تحقیقات دولتی فوری در مورد خطرات هوش مصنوعی مولد شدند.
به گزارش
خبرگزاری صداوسیما به نقل از نشریه
فوربس، این درخواست با گزارش جدیدی از سازمان مصرفکننده نروژی «Forbrukerrådet» همراه شده که تاکید میکند قوانین بیشتری برای هوش مصنوعی باید تدوین شود.
«اورسولا پاچل» معاون سازمان مصرفکنندگان اروپا (BEUC) میگوید: ما از مقامات ایمنی، دادهها و حمایت از مصرفکنندگان میخواهیم تحقیقات خود را از هماکنون آغاز کنند و منتظر بروز آسیبهای این فناوری علیه کاربران اروپایی نمانند.
این قوانین برای همه محصولات و خدمات اعمال میشود و مقامات باید آنها را اجرا کنند؛ خواه مبتنی بر هوش مصنوعی باشند یا نباشند.
فراخوان تشدید تنظیمگری هوش مصنوعی مولد بر چندین چالش متمرکز است. این گزارش اشاره میکند که برخی از توسعهدهندگان هوش مصنوعی اجازه نظارت بر سیستمهای خود را نمیدهند که این امر فهم نحوه جمعآوری دادهها یا تصمیمگیریها را بسیار سخت میکند. همچنین خروجیهای ارائه شده اغلب نادرست و با تبعیض گستردهای مواجه است.
علاوه بر این میتوان از هوش مصنوعی مولد برای دستکاری یا گمراهکردن مصرفکنندگان با تقلید از الگوهای گفتار انسان و استفاده از زبان احساسی استفاده کرد.
از سوی دیگر نگرانیهایی در مورد حفظ حریم خصوصی و یکپارچگی شخصی هم وجود دارد. به عنوان مثال، تولید تصویر مبتنی بر هوش مصنوعی با استفاده از مجموعه دادههای گرفتهشده از موتورهای جستجو یا رسانههای اجتماعی بدون مبنای قانونی یا دانش افراد متخصص انجام میشود.
پاچل در ادامه میگوید: هوش مصنوعی مولد مانند «چت جی پی تی» انواع امکانات را برای مصرفکنندگان فراهم کرده است، اما نگرانیهای جدی در مورد اینکه این سیستمها ممکن است مردم را فریب دهند، دستکاری کنند و به آنها آسیب برسانند، وجود دارد.
همچنین میتوان از آنها برای انتشار اطلاعات نادرست، تشدید تعصب یا تقلب استفاده کرد.
هیئت حفاظت از داده اروپا قبلاً کارگروهی برای بررسی «چت جی پی تی» ایجاد کرده است. در همین حال، اتحادیه اروپا نیز به تازگی قانون هوش مصنوعی را با هدف مقابله با مسائلی مانند مواردی که در این گزارش برجسته شده، تصویب کرده است.
پاچل میگوید: این بسیار مهم است که اتحادیه اروپا این قانون را تا حد امکان برای محافظت از مصرفکنندگان وضع کند. همه سیستمهای هوش مصنوعی، از جمله هوش مصنوعی مولد نیاز به بررسی عمومی دارند و مقامات دولتی باید دوباره کنترل خود را بر آنها اعمال کنند.
به گفته معاون سازمان مصرفکنندگان اروپا، قانونگذاران باید تلاش کنند تا خروجی هر سیستم هوش مصنوعی مولد برای مصرفکنندگان ایمن، منصفانه و شفاف باشد.
در همین حال دفتر کمیسر اطلاعات انگلیس (ICO) این هفته درباره بررسیهای سختگیرانهتر در مورد اینکه آیا سازمانهایی که از هوش مصنوعی مولد استفاده میکنند با قوانین حفاظت از دادهها مطابقت دارند یا خیر، هشدار داد و از آنها خواست تا اقدامات بیشتری انجام دهند.
«استفان آلموند» مدیر اجرایی ریسک نظارتی دفتر کمیسر اطلاعات انگلیس هم گفت: ما بررسی خواهیم کرد که آیا کسبوکارها قبل از معرفی هوش مصنوعی مولد با خطرات حفظ حریم خصوصی مقابله کردهاند یا خیر.
وی در ادامه افزود: ما در مواردی که خطر آسیبرساندن به افراد از طریق استفاده ضعیف از دادههای آنها وجود داشته باشد، اقدام خواهم کرد.
آلموند تاکید کرد: هیچ بهانهای برای نادیده گرفتن خطرات مربوط به حقوق و آزادیهای مردم قبل از عرضه وجود ندارد و کسب و کارها باید نشان دهند که چگونه با خطرات مقابله کردهاند.
در همین حال، در آمریکا این فرایند پیشرفت کُندتری داشته است. در حال حاضر، هوش مصنوعی توسط آژانسهای متعددی از جمله کمیسیون بورس و اوراق بهادار و کمیسیون تجارت فدرال تنظیم میشود.
اکنون لایحهای در سنای آمریکا در دست بررسی است که نهادها یا سازمانهای دولتی را ملزم میکند تا کاربران را هنگام تعامل با هوش مصنوعی آگاه کنند.