پخش زنده
امروز: -
رهبران اپنایآی خواستار تنظیم مقررات و ایجاد نهادی مانند آژانس انرژی اتمی شدند.
به گزارش خبرگزاری صداوسیما، به نقل از واشنگتن پست، در بیانیهای که این هفته در وبسایت شرکت اپنایآی منتشر شد، بنیانگذاران گرگ براکمن، رئیس اداری و ایلیا سوتسکِور، دانشمند ارشد و سم آلتمن مدیر اجرایی، از یک تنظیم کننده بین المللی خواستند تا در مورد چگونگی بازرسی سیستم ها، نیاز به ممیزی، تست انطباق با استانداردهای ایمنی شروع به کار کند و محدودیت هایی را برای درجات استقرار و سطوح امنیتی به منظور کاهش خطر وجودی چنین سیستم هایی ایجاد کند.
آنها نوشتند: «می توان تصور کرد که در ۱۰ سال آینده، سیستمهای هوش مصنوعی در بیشتر حوزهها از سطح مهارتهای متخصص فراتر رفته و به اندازه یکی از بزرگترین شرکتهای امروزی فعالیتهای سازندهای را انجام خواهند داد. از نظر جنبههای مثبت و منفی، ابرهوشمند قویتر از سایر فناوریهایی است که بشر در گذشته مجبور به مبارزه با آنها بوده است. ما میتوانیم آیندهای مرفهتر داشته باشیم؛ اما برای رسیدن به آن باید خطرات را مدیریت کنیم و با توجه به احتمال خطر وجودی، نمیتوانیم تنها واکنش نشان دهیم.»
این سه نفر در کوتاهمدت، خواستار درجاتی از هماهنگی میان شرکتهایی هستند که بر روی تحقیقات پیشرفته هوش مصنوعی کار میکنند، تا اطمینان حاصل شود که توسعه مدلهای قویتر به راحتی با جامعه ادغام میشود و در عین حال ایمنی را در اولویت قرار میدهد. به عنوان مثال این هماهنگی میتواند از طریق یک پروژه تحت رهبری دولت یا از طریق یک توافق جمعی برای محدود کردن رشد در قابلیت هوش مصنوعی انجام شود.
محققان دهها سال است که درباره خطرات بالقوه ابرهوشمند شدن هشدار میدهند، اما با افزایش سرعت توسعه هوش مصنوعی، این خطرات عینیتر شدهاند. مرکز ایمنی هوش مصنوعی (CAIS) مستقر در ایالات متحده، که برای کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی کار میکند، هشت دسته خطر فاجعه بار و وجودی ناشی از توسعه هوش مصنوعی را توصیف کرده است.
در حالی که برخی نگران این هستند که یک هوش مصنوعی قدرتمند به طور تصادفی یا عمدی بشریت را نابود کند، مرکز ایمنی هوش مصنوعی آسیبهای مخرب دیگری را توصیف میکند. جهانی که در آن سیستمهای هوش مصنوعی به طور داوطلبانه نیروی کار بیشتری را به دست میآورند منجر به از دست دادن توانایی خودگردانی و وابستگی کامل بشر به ماشینها میشود و گروه کوچکی از افراد که سیستمهای قدرتمند را کنترل میکنند، میتوانند هوش مصنوعی را به یک نیروی متمرکز تبدیل کنند.
رهبران اپنایآی میگویند که این خطرات به این معنی است که مردم در سراسر جهان باید به طور دموکراتیک در مورد محدودیتها و پیش فرضهای سیستمهای هوش مصنوعی تصمیم بگیرند؛ اما اذعان دارند که ما هنوز نمیدانیم چگونه چنین مکانیزمی را طراحی کنیم. با این حال، آنها میگویند توسعه مداوم سیستمهای قدرتمند ارزش ریسک را دارد.
مدلهای هوش مصنوعی مولد به دلیل اشتباهات یا سوگیری ها، اطلاعات نادرست را با اطمینان عجیبی منتشر میکنند. چنین اشتباهاتی میتواند عواقب جدی داشته باشد. اتحادیه اروپا در حال نوشتن پیشنویس قوانین جدید هوش مصنوعی پیشرو است؛ اما چند سال طول میکشد تا این قانون اجرا شود بنابراین رگولاتورها قصد دارند قوانین موجود را در این مورد اعمال کنند. این قوانین همه چیز از حق نسخه برداری و حریم خصوصی دادهها گرفته تا دو موضوع کلیدی دادههای وارد شده به مدلها و محتوای تولید شده را شامل میشوند.