هنوز قوانین در حوزه هوش مصنوعی مولد تنظیم نشده اند و تا زمان تصویب قوانین جدید در این حوزه، دولتها برای مدیریت تهدیدات از قوانین فعلی استفاده میکنند.
اتحادیه اروپا در پیشنویس قوانین جدید هوش مصنوعی پیشرو است که میتواند معیاری جهانی برای رسیدگی به نگرانیهای مربوط به حریم خصوصی و ایمنی باشد که با پیشرفتهای سریع در فناوری هوش مصنوعی مولد ایجاد شده است. اما چند سال طول میکشد تا این قانون اجرا شود.
ماسیمیلیانو سیمناگی، کارشناس حاکمیت داده گفت: در نبود مقررات، تنها کاری که دولتها میتوانند انجام دهند اعمال قوانین موجود است. اگر در مورد محافظت از دادههای شخصی باشد، آنها قوانین حفاظت از دادهها را اعمال میکنند، اگر تهدیدی برای ایمنی افراد باشد، مقرراتی وجود دارد که به طور خاص برای هوش مصنوعی تعریف نشده اند، اما همچنان قابل اجرا هستند.
در ماه آوریل، پس از اینکه تنظیم گر ایتالیایی گارانته این چتجیپیتی را خاموش کرد، ناظران ملی حریم خصوصی اروپا یک کارگروه را برای رسیدگی به مشکلات این سرویس تشکیل دادند و اوژنای آی، سازنده آن را به نقض قانون GDPR اتحادیه اروپا متهم کرد.
چتجیپیتی پس از موافقت شرکت آمریکایی با نصب ویژگیهای تایید سن و اجازه به کاربران اروپایی برای جلوگیری از استفاده از اطلاعات آنها برای آموزش مدل هوش مصنوعی، مجددا در ایتالیا در دسترس قرار گرفت.
یک منبع نزدیک به گارانته گفت: این آژانس بررسی گستردهتر سایر ابزارهای هوش مصنوعی مولد را آغاز خواهد کرد. مقامات حفاظت از دادهها در فرانسه و اسپانیا نیز در ماه آوریل تحقیقاتی را در مورد انطباق اوژنای آی با قوانین حفظ حریم خصوصی آغاز کردند.
مدلهای هوش مصنوعی مولد به دلیل اشتباهات یا توهمات که اطلاعات نادرست را با اطمینان عجیبی منتشر میکنند، به خوبی شناخته شدهاند. چنین اشتباهاتی میتواند عواقب جدی داشته باشد. اگر یک بانک یا اداره دولتی از هوش مصنوعی برای تسریع تصمیمگیری استفاده کند، افراد ممکن است بهطور ناعادلانه برای پرداخت وام یا مزایا رد شوند.
به گفته شش تنظیم کننده و کارشناس در آمریکا و اروپا، تنظیم کنندگان قصد دارند قوانین موجود را اعمال کنند که همه چیز را از حق نسخه برداری و حریم خصوصی دادهها گرفته تا دو موضوع کلیدی شامل میشود: دادههای وارد شده به مدلها و محتوایی که آنها تولید میکنند.
سورش ونکاتاسوبرامانیان، مشاور سابق فناوری در کاخ سفید گفت: آژانسها در این دو منطقه تشویق میشوند تا تفسیر مجدد دستورات خود را انجام دهند. او به تحقیقات کمیسیون تجارت فدرال آمریکا (FTC) در مورد الگوریتمهای اعمال تبعیض آمیز تحت اختیارات نظارتی موجود اشاره کرد.
در اتحادیه اروپا، طرحهای پیشنهادی برای قانون هوش مصنوعی این اتحادیه، شرکتهایی مانند اوپنای آی را مجبور میکند تا هرگونه مطالب دارای حق چاپ مانند کتاب یا عکس را که برای آموزش مدلهایشان استفاده میشود، افشا کنند و آنها را در برابر چالشهای قانونی آسیبپذیر کند.
به گفته سرگئی لاگودینسکی، یکی از چندین سیاستمدار دخیل در تهیه پیش نویس پیشنهادهای اتحادیه اروپا، اثبات نقض حق چاپ کار سادهای نخواهد بود.
به گفته برتراند پیلهس، رهبر فناوری این شرکت، تنظیم کننده داده فرانسوی CNIL شروع به تفکر خلاقانه در مورد چگونگی اعمال قوانین موجود در هوش مصنوعی کرده است. به عنوان مثال، در فرانسه دعاوی تبعیض معمولا توسط Defenceur des Droits (مدافع حقوق) رسیدگی میشود. او گفت: با این حال، فقدان تخصص آن در زمینه هوش مصنوعی، CNIL را بر آن داشت تا در این موضوع کار کند.
او به رویترز گفت: ما در حال بررسی طیف کامل اثرات هستیم، اگرچه تمرکز ما بر حفاظت از دادهها و حریم خصوصی است.
این سازمان در حال بررسی استفاده از مقررات GDPR است که از افراد در برابر تصمیم گیری خودکار محافظت میکند.
پیلهس گفت: در این مرحله، نمیتوانم بگویم که از نظر قانونی کافی است یا خیر. ایجاد یک نظر زمان میبرد و این خطر وجود دارد که تنظیم کنندههای مختلف دیدگاههای متفاوتی داشته باشند.
در بریتانیا، اداره رفتار مالی یکی از چندین تنظیم کننده ایالتی است که وظیفه تدوین دستورالعملهای جدیدی روی هوش مصنوعی را بر عهده دارد. یکی از سخنگویان گفت: این موسسه در حال رایزنی با موسسه آلن تورینگ در لندن، در کنار سایر موسسات حقوقی و دانشگاهی، برای بهبود درک خود از این فناوری است.
در حالی که تنظیمکنندهها خود را با سرعت پیشرفتهای فناوری وفق میدهند، برخی از خودیهای صنعت خواستار تعامل بیشتر با رهبران شرکتها شدهاند.
هری بورویک، مشاور کل در لومینانس، استارت آپی که از هوش مصنوعی برای پردازش اسناد قانونی استفاده میکند، گفت: گفتگو بین تنظیم کنندهها و شرکتها تاکنون محدود بوده است. این موضوع از نظر آینده خوب نیست. به نظر میرسد که تنظیمکنندهها یا کند هستند یا تمایلی به اجرای رویکردهایی که تعادل مناسب بین حمایت از مصرفکننده و رشد کسبوکار را ممکن میسازد، ندارند.