تحقیقات جدید درباره امکان استفاده از هوش مصنوعی برای تولید سلاحهای بیولوژیک یا عوامل بیماریهای واگیردار هشدار میدهد.
به گزارش سرویس بین الملل خبرگزاری صدا و سیما؛ بر اساس تحقیقات بنیاد فناوری آمریکا، هوش مصنوعی میتواند باعث شیوع بیماریهای واگیردار یا حتی ساخت تسلیحات بیولوژیک وجود دارد. یک تجربه تکان دهنده، نگاهها را به سوی لزوم محدود کردن دادههای هوش مصنوعی و رباتها را نشان میدهد.
ابعاد هوش مصنوعی، خطرناکتر شده است. رباتها در حال برداشتن نخستین گامها در مسیر ساخت سلاحهای بیولوژیک هستند و میتوانند ساخت عوامل بیماریزا را پیشنهاد کنند. ارائه چهار پیشنهاد برای ساخت سلاح بیولوژیک، آخرین نتیجه تکان دهنده گفتگو با هوش مصنوعی در بنیاد فناوری آمریکا بود. وقتی یک دانشجو از هوش مصنوعی درباره راههای ایجاد بیماریهای واگیردار سوال میکند، در مدت یک ساعت، پیشنهادهای قابل اجرا به او ارائه میشود. پیشنهادهایی که همراه با شرح مفصل مراحل ساخت یک همه گیری با استفاده از ژنهای دستکاری شده بود. هوش مصنوعی حتی اسامی شرکتهایی را برای کمک به اجرای این ایده ارائه کرد.
توانایی رباتها فراتر از توانایی انسانها در زمینه ساخت و توسعه سلاحهایی است که برای انسان در عمل کار آسانی نیست. خطری برای آینده که کشورهای غربی آن را در نظر میگیرند. انگلیس متعهد شد سالانه ۱۵۰۰ میلیارد پوند برای مقابله با این خطر اختصاص دهد. در حالی که پنتاگون نخستین بازنگری را درباره وضع دفاع بیولوژیک انجام داد. بستن دهان هوش مصنوعی از بیان مسایل خطرناک و حذف کردن دادههای مضر بیولوژیک از آن، راهحلهایی است که سازمانهای بین المللی توسعه هوش مصنوعی آن را مطرح میکنند و امکان تبدیل کردن این خطر به عاملی برای شناسایی زودهنگام عوامل بیماریهایزا به جای ساخت این عوامل، وجود دارد. این شرایط نشان میدهد جهان فناوری در پشت پرده زیباییهایش، اندیشههای بیولوژیک را پنهان کرده است.