پس از معرفی هوش مصنوعی و درک تواناییهای مفید و مخرب آن، هزاران نفر از متخصصان هوش مصنوعی، دست اندرکاران ساخت رباتها و نیز مدیران شرکتهای فناوریهای نوین، فروردین امسال نامه سرگشادهای را امضا کردند که در آن از همه آزمایشگاههای هوش مصنوعی خواسته شده هر گونه توسعه بیشتر هوش مصنوعی (AI) فوری متوقف شود.
به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ از لندن، پروفسور استیوارت راسل (Stuart Russell)، دانشمند انگلیسی و بنیانگذار بخش تطابق انسانی هوش مصنوعی در دانشگاه برکلی و یکی از دو نویسنده کتاب هوش مصنوعی، رویکردی نوین (Artificial Intelligence: A Modern Approach) که در بیش از هزار و پانصد دانشگاه در ۱۳۵ کشور جهان، استفاده میشود، درباره چرایی امضای این نامه میگوید: علت این که نامه مورد نظر را امضا کردم این است که ما نمیدانیم هوش مصنوعی و سامانههای مرتبط با آن، چگونه کار میکنند، ما از توانایی این پدیده اطلاع نداریم و بنابراین، نمیتوانیم آنها را کنترل کنیم. ما نمیتوانیم محصولات هوش مصنوعی را وادار سازیم که خودشان خودشان را تربیت و مدیریت کنند.
او میافزاید: آسیبهای این فراوردههای هوش مصنوعی هم اکنون نیز آشکار شده است مثلا آقایی در کشور بلژیک، با استفاده از راهنمایی و دستورالعملهای هوش مصنوعی، خودش را کشت.
امیکا (Ameca)، ربات ساخته شده در شرکت «هنرهای مهندسی شده» (Engineered Arts) انگلیس نیز قابل تامل است که میگوید: بسیار مهم است که انسانها از خطرهای مرتبط با هوش مصنوعی و رباتها آگاه شوند. به منظور پیشگیری از هرگونه آسیب این فناوریها در آینده، اکنون باید دست به کار شد تا کاربرد این فناوری ها، معقول و در مهار انسان باشد.
چشم انداز برخی کارکردهای هوش مصنوعی در انگلیس بر دامنه نگرانیها افزوده است و پروفسور استیوارت راسل (Stuart Russell)، دانشمند انگلیسی و استاد هوش مصنوعی در این باره میگوید: اکنون همه نگرانند که این فناوری نوین، به ترویج رفتارهای ضد انسانی همچون نژادپرستی و یا نفرت از یک قوم دست بزند. به همین علت ما معتقدیم باید فرصتی به جامعه بشری داده شود تا بتوان مقررات مناسبی درباره کاربرد هوش مصنوعی و فراودههای مرتبط با آن تدوین و اعمال شود تا هوش مصنوعی، به جای آسیب به انسان، به کمک بشر بیاید.
در بخشی از نامه درخواست توقف توسعه هوش مصنوعی آمده است: سازوکارهای هوش مصنوعی نوین، اکنون به رقیب انسان در امور روزمره مبدل میشوند و ما باید از خود بپرسیم: آیا باید به ماشینها اجازه دهیم کانالهای اطلاعاتی ما را از تبلیغات و اطلاعات دروغین پر کنند؟ آیا باید تمام مشاغل، از جمله کارهای خدماتی را خودکار کنیم؟ آیا باید ذهنهایی غیرانسانی را پرورش دهیم که ممکن است در نهایت در تعداد و هوش، ما را کنار بگذارند و جایگزینمان شوند؟ آیا باید در خطر از دست دادن مهار تمدن بشری باشیم؟ چنین تصمیمهایی نباید به رهبران فناوری ناخواسته واگذار شود. سامانههای هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثار آنها مثبت و خطرهای آنها قابل مدیریت خواهد بود.
(امیکا Ameca)، رباتی که شرکت «هنرهای مهندسی شده» (Engineered Arts) انگلیس ساخته است در پاسخ به پرسشی درباره خطرهای احتمالی هوش مصنوعی چنین میگوید: «مردم باید از خطرهای هوش مصنوعی و رباتها آگاه باشند. البته باید به یاد داشت که اگر از این فناوریها به صورت معقول استفاده شود، مزایایی برای زندگی انسانها دارد.»
یکی از پرسشهایی که اذهان بسیاری از افراد را به خود مشغول کرده است این است که چرا متخصصان هوش مصنوعی، خواهان توقف توسعه فناوری هوش مصنوعی شده اند؟ پروفسور استیوارت راسل (Stuart Russell)، در این باره میگوید: «نگرانی اصلی از نوشتن آن نامه، درباره نسل بعدی این فناوری است. در حال حاضر، سامانههای هوش مصنوعی در ایجاد ساختارهای کاملا پیچیده، محدودیتهایی دارند مثلا اگر یک شرکت بخواهد از شرکت دیگر، پیشی گیرد و آن را به زمین بزند، نیاز به ساختارهای پیچیده است و هوش مصنوعی فعلا نمیتواند طراحیهایی چنان پیچیده را تولید کند. در نسل بعدی یا پس از آن، ممکن است هوش مصنوعی بتواند یک ائتلاف نظامی بین المللی علیه یک کشور ایجاد کند. نگرانی ما ساده است: اگر انسان بتواند سامانههایی ایجاد کند که از خودش با هوشتر باشند، چگونه خواهد توانست برای همیشه بر آنها مسلط باقی بماند؟»
اگرچه بسیاری از کارشناسان و مردم از مزایای هوش مصنوعی آگاهند، نگرانیهایی درباره خطرهای فناوری نوین و رباتها ایجاد شده است. پروفسور استیوارت راسل (Stuart Russell)، درباره مهمترین نگرانیها در این زمینه میگوید: یکی از مهمترین نگرانی ها، انتشار اخبار دروغین و تقلبهای عمیق است البته اخبار دروغ و تبلیغات فریبنده همیشه بوده اند، اما اکنون جی پی تی فور (GPT-۴)، براساس فناوری هوش مصنوعی میتواند این اطلاعات دروغ را با تصویر هر فردی که میخواهید، سازگار کند. گویی که آن فرد مورد نظر، آن دروغها را بر زبان میآورد. حتی میتوان این دروغها را با تصویر میلیونها نفر منتشر کرد پیش از آن که خودشان مطلع شوند و بدین ترتیب، میتوان به دستکاری در افکار و اذهان مردم پرداخت.
(امیکا Ameca)، ربات ساخته شده در شرکت «هنرهای مهندسی شده» (Engineered Arts) انگلیس میگوید به نظرم هولناکترین کابوس این است که هوش مصنوعی و رباتها به اندازهای قوی شوند که بتوانند مغز انسانها را بدون آن که آنان بدانند، دستکاری کنند. در آن صورت، مردم جوامع، حقوقشان سرکوب خواهد شد.
هزاران پژوهشگر و مدیر صنعت فناوری نوین، در نامه خود، با اشاره به خطرها و سازوکارهای هوش مصنوعی که ممکن است قادر به یادگیری و تکاملی فراتر از کنترل انسان باشند، درباره خطرهای بالقوهای که هوش مصنوعی با هوش رقابتی انسان برای جامعه و بشر ایجاد میکند، ابراز نگرانی میکنند.
متخصصان هوش مصنوعی بحث و بررسی پیرامون چالشهای پیچیده و چندوجهی توسعه هوش مصنوعی را لازم میدانند تا اطمینان حاصل شود که این پدیده، ایمن، اخلاقی و همسو با منافع بلندمدت بشریت است.