قانونمند شدن هوش مصنوعی در مراقبتهای بهداشتی
ظهور هوش مصنوعی مولد، یک متخصص اخلاق هوش مصنوعی را بر آن داشته تا چارچوبی را برای کاهش خطرات استفاده از فناوری در حال توسعه در فضای مراقبتهای بهداشتی پیشنهاد کند.
به گزارش
سرویس وبگردی خبرگزاری صدا و سیما ، هوش مصنوعی مولد شامل الگوریتمهایی مانند ChatGPT یا DALL-E است که میتواند برای ایجاد محتوای جدید از جمله متن، تصاویر، صدا، ویدیو و کد رایانه ای، استفاده شود. مدلهای زبان بزرگ (LLM) یک جزء کلیدی از هوش مصنوعی مولد هستند که بر روی مقادیر زیادی متن بدون برچسب با استفاده از یادگیری خود یا نیمه نظارت شده آموزش داده میشوند.
همچنین توانایی هوش مصنوعی مولد به طور تصاعدی گسترش یافته و در مراقبتهای بهداشتی، از آن برای پیشبینی نتایج بیماری با یادگیری از مجموعه دادههای بزرگ بیمار استفاده میشود که آزمون مجوز پزشکی ایالات متحده را گذرانده و بدون یادگیری قبلی به نمره ۶۰ درصد رسیده است.
پتانسیل هوش مصنوعی برای ورود به فضای مراقبتهای بهداشتی و جایگزینی پزشکان، پرستاران و سایر متخصصان سلامت، استفان هارر (Stefan Harrer) اخلاق شناس هوش مصنوعی را بر آن داشت تا چارچوبی را برای استفاده از هوش مصنوعی مولد در پزشکی پیشنهاد کند.
هارر که مدیر ارشد نوآوری در مرکز تحقیقات تعاونی سلامت دیجیتال (DHCRC) و عضو ائتلاف هوش مصنوعی سلامت (CHAI) است، میگوید: مشکل استفاده از هوش مصنوعی توانایی آن برای تولید محتوای متقاعدکننده نادرست و نامناسب است.
هارر که در ملبورن استرالیا مستقر است، گفت: ماهیت بازیابی دانش کارآمد، پرسیدن سؤالات درست و هنر تفکر انتقادی بر توانایی فرد برای بررسی پاسخها با ارزیابی اعتبار آنها در برابر مدلهای جهان استوار است.
هارر معتقد است که هوش مصنوعی مولد پتانسیل تغییر مراقبتهای بهداشتی را دارد. برای این منظور، او معرفی یک چارچوب قانونی مبتنی بر اخلاقی از ۱۰ اصل را پیشنهاد میکند که به گفته او، خطرات هوش مصنوعی مولد در مراقبتهای بهداشتی را کاهش میدهد. این اصول عبارتند از:
هوش مصنوعی را به عنوان یک ابزار کمکی طراحی کنید که تواناییهای تصمیم گیرندگان انسانی را افزایش داده، اما جایگزین آنها نمیشود.
هوش مصنوعی طوری طراحی شود تا معیارهایی در مورد عملکرد، استفاده و تأثیر ایجاد کند که توضیح دهد چه زمانی و چگونه هوش مصنوعی برای کمک به تصمیم گیری و بررسی سوگیریهای احتمالی استفاده میشود.
هوش مصنوعی باید بر اساس سیستمهای ارزشی گروههای کاربر هدف بوده و به آن پایبند باشد.
هدف و استفاده از هوش مصنوعی را از ابتدای کار مفهومی یا توسعه اعلام شود.
تمام منابع داده مورد استفاده برای آموزش هوش مصنوعی فاش شود.
محتوای تولید شده توسط هوش مصنوعی باید به وضوح و شفاف برچسب گذاری شود.
به طور منظم نظارت بر هوش مصنوعی در برابر استانداردهای حریم خصوصی، ایمنی و عملکرد وجود داشته باشد.
نتایج بررسی شده را مستند کرده و به اشتراک گذاشته شود تا عملکرد هوش مصنوعی بهبود یابد.
هنگام به کارگیری توسعه دهندگان انسانی، اطمینان حاصل شود که کار منصفانه و استانداردهای کار ایمن اعمال میشود.
یک سابقه قانونی که به وضوح مشخص میکند چه زمانی ممکن است از دادهها برای آموزش هوش مصنوعی استفاده شود و چارچوبهای حق چاپ، مسئولیت و پاسخگویی حاکم بر دادههای آموزشی و محتوای تولید شده.
به گزارش سیناپرس، در اروپا، قانون هوش مصنوعی قرار است ماه آینده در پارلمان اروپا به رای گذاشته شود. اگر این قانون تصویب شود، نظارت بیومتریک، تشخیص احساسات و برخی از سیستمهای هوش مصنوعی مورد استفاده در پلیس ممنوع خواهد بود.
چارچوب نسبتاً کلی هارر را میتوان در بسیاری از محیطهای کاری با خطر جایگزینی هوش مصنوعی برای انسانها اعمال کرد و به نظر میرسد این اقدام در زمانی رخ داده که مردم از جهان میخواهند که درباره این موضوع کمی درنگ کند.
شرح کامل این مقاله در مجله eBioMedicine منتشر شده است.