کمیته ای از قانونگذاران در پارلمان اروپا روز پنجشنبه قانون هوش مصنوعی اتحادیه اروپا را تصویب کردند.
قانون هوش مصنوعی الزاماتی را برای توسعه دهندگانی مانند ChatGPT مشخص می کند، از جمله مقررات این طرح اطمینان از اینکه داده های آموزشی قانون حق چاپ را نقض نمی کند.
شرکتهای خصوصی واگذار شدهاند تا فناوری هوش مصنوعی را با سرعتی سرسامآور توسعه دهند و سیستمهایی مانند ChatGPT OpenAI با پشتیبانی مایکروسافت و Bard Google را به وجود آورند.
این تایید شدن در رقابت بین مقامات برای دستیابی به کنترل هوش مصنوعی است که با سرعت سرسام آوری در حال پیشرفت است. این قانون که به عنوان قانون هوش مصنوعی اروپا شناخته می شود، اولین قانون سیستم های هوش مصنوعی در غرب است. چین قبلاً قوانینی را برای مدیریت نحوه توسعه شرکتهای هوش مصنوعی مانند ChatGPT طراحی کرده است.
این قوانین الزامات ارائه دهندگان به اصطلاح "مدل های بنیادی" مانند ChatGPT را مشخص می کند، که با توجه به پیشرفت آنها و ترس از جابجایی کارگران ماهر، به یک نگرانی اصلی برای تنظیم کننده ها تبدیل شده است.
قانون هوش مصنوعی کاربردهای این فناوری را در چهار سطح طبقه بندی می کند: ریسک غیرقابل قبول، ریسک بالا، ریسک محدود و حداقل یا بدون خطر.
برنامه های کاربردی ریسک غیرقابل قبول به طور پیش فرض ممنوع هستند و نمی توانند در بلوک مستقر شوند.
که عبارتند از:
۱.تکنیکهای زیرآگهی یا فریبنده یا دستکاری شده که برای تحریف رفتار استفاده میکنند
۲.سیستمهای که از آسیبپذیریهای افراد یا گروههای خاص بهرهبرداری میکنند
۳.سیستم های طبقه بندی بیومتریک بر اساس ویژگی های حساس
سیستمهای هوش مصنوعی برای امتیازدهی اجتماعی یا ارزیابی قابلیت اعتماد استفاده میشوند
۴.سیستم های هوش مصنوعی برای ارزیابی ریسک که جرایم جنایی یا اداری را پیش بینی می کند استفاده می شود
۵.سیستمهای هوش مصنوعی پایگاههای اطلاعاتی تشخیص چهره را از طریق خراشیدن بدون هدف گسترش میدهند
۶.سیستم های هوش مصنوعی استنباط احساسات در اجرای قانون، مدیریت مرز، محل کار، و آموزش
توسعه دهندگان مدل های پایه باید قبل از عمومی کردن مدل های خود، بررسی های ایمنی، اقدامات حاکمیتی داده ها و کاهش ریسک را اعمال کنند.
آنها همچنین ملزم خواهند بود اطمینان حاصل کنند که داده های آموزشی مورد استفاده برای اطلاع رسانی سیستم هایشان، قانون حق چاپ را نقض نمی کند.
جیحون پهلوان، مشاور Linklaters می گوید: "ارائه دهندگان چنین مدل های هوش مصنوعی ملزم به انجام اقداماتی برای ارزیابی و کاهش خطرات مربوط به حقوق اساسی، سلامت و ایمنی و محیط زیست، دموکراسی و حاکمیت قانون هستند."
مهم است که تأکید کنیم، در حالی که این قانون توسط قانونگذاران در پارلمان اروپا تصویب شده است، اما برای تبدیل شدن به قانون فاصله دارد.
گوگل روز چهارشنبه مجموعهای از بهروزرسانیهای جدید هوش مصنوعی، از جمله یک مدل زبان پیشرفته به نام PaLM 2 را اعلام کرد که به گفته این شرکت در برخی از وظایف از دیگر سیستمهای پیشرو بهتر عمل میکند.
چت رباتهای جدید هوش مصنوعی مانند ChatGPT بسیاری از فنآوران و دانشگاهیان را با تواناییشان در ایجاد پاسخهای انسانی به درخواستهای کاربر که توسط مدلهای زبان بزرگ آموزشدیده بر روی حجم عظیمی از دادهها طراحی شدهاند، مجذوب خود کردهاند.
اما فناوری هوش مصنوعی سالهاست که وجود دارد و در برنامهها و سیستمهای بیشتری از آنچه فکر میکنید ادغام شده است.
این قوانین نگرانی هایی را در صنعت فناوری ایجاد کرده است.
نمایندگان پارلمان اروپا انواع اصلاحیه هایی را ارائه کرده اند که ماهیت قانون هوش مصنوعی را تغییر می دهد، آنها فکر می کنند که دسته های بسیار گسترده ای از هوش مصنوعی ذاتا خطرناک هستند.
سارا چاندر، مشاور ارشد سیاستگذاری در حقوق دیجیتال اروپایی گفت : قوانین مدلهای بنیادی مانند ChatGPT را ملزم میکنند که تحت آزمایش، مستندسازی و الزامات شفافیت قرار گیرند.
چاندر به CNBC گفت: در حالی که این الزامات شفافیت نگرانیهای زیرساختی و اقتصادی را با توسعه این سیستمهای عظیم هوش مصنوعی ریشه کن نمیکند، اما شرکتهای فناوری را ملزم میکند تا مقادیر قدرت محاسباتی مورد نیاز برای توسعه آنها را افشا کنند.