پخش زنده
امروز: -
یک پزشک هوش مصنوعی گفته که این فناوری میتواند در پزشکی سوگیری ایجاد کرده و میان افراد سفید پوست و سیاه پوست تبعیض قائل شود.
به گزارش خبرگزاری صداوسیما به نقل از نشریه آمریکایی د هیل، در ۱۶ می، کارگروه فرعی سنای آمریکا در خصوص حریم خصوصی، فناوری و قانون جلسهای را برای بحث در مورد تنظیم الگوریتمهای هوش مصنوعی (AI) برگزار کرد. رئیس کارگروه، سناتور ریچارد بلومنتال گفت که هوش مصنوعی برای رسیدگی به وعدهها و دامهای عظیم خود به قوانین و تدابیری فوری نیاز دارد. در طول جلسه استماع، سام آلتمن، مدیر عامل اونای آی اظهار داشت: اگر این درست استفاده نشود، ممکن است اشتباهاتی به وجود بیاورد.
با پیشرفتهتر شدن قابلیتهای الگوریتمهای هوش مصنوعی، برخی در سیلیکون، ولی و فراتر از آن درباره تهدید فرضی هوش مصنوعی «فوق بشری» هشدار میدهند که میتواند تمدن بشری را نابود کند.
یک پزشک هوش مصنوعی عقیده خودش درباره خطرات هوش مصنوعی را در مقالهای آورده است. او مینویسد که کارش را بر درک اینکه چگونه الگوریتمهای هوش مصنوعی میتوانند سوگیریها را در سیستم پزشکی تداوم بخشند، متمرکز کرده است. او نشان داده که چگونه الگوریتمهای هوش مصنوعی توسعهیافته قبلی برای شناسایی سرطانهای پوست در تصاویر سرطان پوست روی پوستهای قهوهای و سیاه عملکرد بدتری دارند که میتواند منجر به تشخیص اشتباه در بیماران رنگین پوست شود. این الگوریتمهای پوست هنوز در عمل بالینی نیستند، اما بسیاری از شرکتها در حال کار روی تضمین مجوز نظارتی برای هوش مصنوعی در برنامههای درماتولوژی هستند. او میگوید: بسیاری از شرکتها در هنگام ساختن الگوریتمهای خود، رنگهای پوست متنوع را نشان نمیدهند، علیرغم تحقیقاتی که نشان میدهد چگونه این امر میتواند منجر به عملکرد مغرضانه شود.
خارج از پوست، الگوریتمهای پزشکی که قبلا به کار گرفته شدهاند، پتانسیل ایجاد آسیب قابل توجهی را دارند. مقالهای در سال ۲۰۱۹ که در Science منتشر شد، پیش بینیهای یک الگوریتم اختصاصی را که قبلا روی میلیونها بیمار به کار گرفته شده بود، تجزیه و تحلیل کرد. این الگوریتم به منظور کمک به پیشبینی بیمارانی بود که نیازهای پیچیدهای دارند و باید حمایت بیشتری دریافت کنند. اما این مطالعه نشان داد که برای هر امتیاز خطر، بیماران سیاه پوست در واقع بسیار بیمارتر از بیماران سفیدپوست بودند. این الگوریتم مغرضانه بود و هنگامی که دنبال شد، منجر به تخصیص منابع کمتری به بیماران سیاهپوست شد که باید واجد شرایط مراقبتهای اضافی بودند.
خطرات سوگیری هوش مصنوعی فراتر از پزشکی است. در عدالت کیفری، الگوریتمهایی برای پیشبینی اینکه افرادی که قبلا مرتکب جرم شدهاند، بیشتر در معرض خطر ارتکاب مجدد جرم در دو سال آینده هستند، استفاده شده است. در حالی که عملکرد درونی این الگوریتم ناشناخته است، مطالعات نشان دادهاند که این الگوریتم دارای تعصبات نژادی است: متهمان سیاه پوستی که جرایم را تکرار نکردند، پیشبینیهای نادرستی با نرخ دو برابر متهمان سفیدپوست داشتند. فناوریهای تشخیص چهره مبتنی بر هوش مصنوعی روی افراد رنگینپوست عملکرد بدتری دارند، اما در حال حاضر نیز استفاده میشوند و منجر به دستگیری و زندان برای افراد بیگناه شدهاند. برای مایکل الیور، یکی از مردانی که به اشتباه به دلیل تشخیص چهره مبتنی بر هوش مصنوعی دستگیر شد، این اتهام نادرست باعث شد کارش را از دست بدهد و زندگی اش را مختل کند.
برخی میگویند که خود انسانها رفتار مغرضانه دارند و الگوریتمها میتوانند تصمیمگیری عینی بیشتری ارائه دهند. اما زمانی که این الگوریتمها روی دادههای جانبدارانه آموزش داده میشوند، همان خروجیهای مغرضانه را مانند تصمیمگیرندگان انسانی در بهترین سناریو تداوم میدهند و در بدترین حالت میتوانند سوگیریها را بیشتر تقویت کنند. بله، جامعه در حال حاضر مغرضانه است.
این پزشک در پایان مینویسد: از آنجایی که هوش مصنوعی همچنان در قسمتهای بیشتری از جامعه نفوذ میکند، این فناوری نیست که باید نگران آن باشیم، این ما و مدلها هستیم که ناعادلانهترین جنبههای جامعه را منعکس و تثبیت میکنیم. ما به قوانین و مقرراتی نیاز داریم که توسعه و آزمایش مدل عمدی و مدبرانه را ارتقا دهد و تضمین کند که فناوری به جای دنیای ناعادلانهتر، به دنیایی بهتر منتهی میشود. در حالی که کارگروه فرعی سنا به بررسی مقررات هوش مصنوعی ادامه میدهد، امیدوارم آنها متوجه شوند که خطرات هوش مصنوعی در حال حاضر وجود دارد.