پخش زنده
امروز: -
به گفته مدیران صنعت هوش مصنوعی، مشکلات این فناوری برابر با جنگ هستهای است و کاهش آن باید یک «اولویت جهانی» باشد.
به گزارش خبرگزاری صداوسیما به نقل از انگجت، با معرفی چتجیپیتی، بارد و دیگر مدلهای زبانی بزرگ (LLM)، هشدارهایی از سوی افراد درگیر مانند ایلان ماسک در مورد خطرات ناشی از هوش مصنوعی (AI) شنیدهایم. اکنون، گروهی از مدیران برجسته این صنعت بیانیهای یک جملهای صادر کردهاند که به طور موثر این ترسها را تایید میکند.
در این بیانیه آمده: کاهش خطرات ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همه گیر و جنگ هستهای یک اولویت جهانی باشد.
این بیانیه به مرکز ایمنی هوش مصنوعی ارسال شد، سازمانی که ماموریت آن کاهش خطرات در مقیاس اجتماعی ناشی از هوش مصنوعی است. امضاکنندگان این بیانیه از صنعت هوش مصنوعی هستند، از جمله سم آلتمن، مدیر اجرایی اوپنای آی و دمیس حسابیس، رئیس گوگل دیپ مایند. جفری هینتون و یوشوا بنجیو، محققین برنده جایزه تورینگ که بسیاری آنها را پدرخوانده هوش مصنوعی مدرن میدانند هم از امضا کنندگان هستند.
در ماه مارس، ماسک، استیو وزنیاک و بیش از هزار نفر دیگر خواستار توقف شش ماهه هوش مصنوعی شدند تا به صنعت و عموم مردم اجازه دهد به طور موثر با این فناوری آشنا شوند. در آن نامه آمده: ماههای اخیر شاهد بودیم که آزمایشگاههای هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس حتی سازندگان آنها نمیتوانند آنها را درک، پیشبینی یا به طور قابل اعتماد کنترل کنند، قفل کردهاند.
اگرچه هوش مصنوعی همانطور که برخی میترسیدند خودآگاه نیست، اما در حال حاضر خطرات سواستفاده و آسیب را از طریق دیپ فیک، اطلاعات نادرست خودکار و موارد دیگر ایجاد میکند. مدلهای زبانی بزرگ همچنین میتوانند نحوه تولید محتوا، هنر و ادبیات را تغییر دهند و به طور بالقوه بر مشاغل متعدد تاثیر بگذارند.
جو بایدن، رئیسجمهور آمریکا اخیرا اعلام کرد که باید مشخص شود آیا هوش مصنوعی خطرناک است یا خیر، و افزود: به نظر من، شرکتهای فناوری این مسئولیت را دارند که قبل از عمومی کردن محصولاتشان از ایمن بودن آنها مطمئن شوند و هوش مصنوعی میتواند به مقابله با آن کمک کند. برخی از چالشهای بسیار دشوار مانند بیماریها و تغییرات آب و هوایی، اما باید به خطرات بالقوه برای جامعه، اقتصاد و امنیت ملی ما نیز بپردازد. آلتمن در جلسه اخیر کاخ سفید خواستار تنظیم هوش مصنوعی به دلیل خطرات احتمالی شد.
با وجود نظرات زیادی که در اطراف وجود دارد، بیانیه کوتاه جدید به معنای نشان دادن نگرانی مشترک در مورد خطرات هوش مصنوعی است، حتی اگر طرفین در مورد این خطرات توافق نداشته باشند.
در مقدمه این بیانیه آمده: کارشناسان، روزنامه نگاران، سیاست گذاران و مردم به طور فزایندهای در حال بحث در مورد طیف گستردهای از خطرات مهم و فوری ناشی از هوش مصنوعی هستند. با این وجود، ابراز نگرانی در مورد برخی از شدیدترین خطرات هوش مصنوعی پیشرفته میتواند دشوار باشد. این بیانیه مختصر با هدف غلبه بر این مانع و باز کردن بحث است. همچنین به منظور ایجاد دانش مشترک از تعداد فزاینده متخصصان و مردم است. چهرههایی که برخی از جدیترین خطرات هوش مصنوعی پیشرفته را نیز جدی میگیرند.