طبق نتایج مطالعهای که پنجشنبه گذشته منتشر شد، چت جیپیتی رژیمهای غذایی برای درمان سرطان توصیه کرده که بعضی درست و بعضی نادرست هستند.
این مطالعه نشان داد با اینکه تمام پاسخهای چت جیپیتی، حداقل حاوی یک درمان ذکرشده در شبکه جامع ملی سرطان بودند، اما تقریباً ۳۴ درصد پاسخها، توصیههای درمانی نادرستی را ارائه میدادند.
علاوه بر این، تقریباً ۱۲ درصد پاسخهای چت جیپیتی شامل «اطلاعات تخیلی» بودند؛ یعنی توصیههای نادرستی دربرداشتند و هیچ یک از اطلاعات ذکرشده را به درمانهای پذیرفتهشدهٔ سرطان پیوند نزده بودند.
پژوهشگری با نام دنیل بیترمن، سرطانشناس برنامه «کاربرد هوش مصنوعی در سیستم پزشکی» در بخش بهداشت عمومی بیمارستان بریگام به بلومبرگ گفت: معمولاً چت جیپیتی با اطمینان زیادی صحبت میکند؛ همین موضوع باعث میشود تلفیق اطلاعات درست و نادرست، خطرناک به نظر برسد.
به نقل از نیویورک پست، نتایج این مطالعه به نگرانی عموم مردم نیز اشاره میکنند. نگرانی که منتقدانی از جمله ایلان ماسک در مورد آن هشدار داده و گفته بودند اگر خطمشیهای مناسبی تنظیم نشوند، ابزارهای پیشرفته هوش مصنوعی به سرعت اطلاعات نادرستی منتشر خواهند کرد.
محققان این پژوهش، از چت جیپیتی استفاده کردند تا «توصیههای درمانی برای سرطان سینه، پروستات و ریه» دریافت کنند.
پژوهشگران گفتند: مدلهای یادگیری زبان میتوانند آزمون مجوز پزشکی ایالات متحده را با موفقیت پشت سر بگذارند، دانش بالینی را رمزگذاری کنند و بهتر از پزشکان عمومی بیماریها را تشخیص دهند؛ اما نمیتوانند در مورد سرطان، توصیههای دقیقی به درمان بیمار ارائه دهند.
شرکت اوپن ای آن مکررا گفته است که چتبات GPT-4 که اکنون در دسترس عموم قرار گرفته، ممکن است اشتباه کند. این شرکت در ماه مارس با انتشار پستی گفت که این چتبات کاملاً قابل اعتماد نیست و اعتراف کرد که «در واقعیتها ابهام ایجاد کرده و اشتباه میکند».
این شرکت گفت: هنگام استفاده از خروجیهای مدل زبانی و بهویژه در موارد پرمخاطب، باید با پروتکل دقیقی رفتار کرد (مانند بررسی توسط انسان، ارائه اطلاعات اضافی یا اجتناب از استفاده در شرایط پرخطر) که با نیازهای خاص یک کاربرد مطابقت داشته باشد.
محققان افزودند: توسعهدهندگان باید مسئولیت بپذیرند و فناوریهایی را توسعه دهند که آسیب نمیرسانند و بیماران و پزشکان هم باید از محدودیتهای فناوریها آگاه باشند.
چت چیپیتی به خاطر محبوبیتش در سال جاری بسیار موردبررسی قرار گرفته است. در اوایل ماه جاری میلادی، محققان بریتانیایی به این نتیجه رسیدند که چت جیپیتی سوگیری قابلتوجهی به دیدگاههای سیاسی لیبرال دارد.
این پاسخهای نادرست به چت جیپیتی محدود نمیشود. چتبات گوگل با نام «بارد» هم در پاسخ به درخواستهای کاربر، اطلاعات نادرستی تولید کرده است. به گزارش The Post، برخی از کارشناسان میگویند رباتهای چت جیپیتی و سایر محصولات هوش مصنوعی میتوانند در انتخابات ریاست جمهوری سال ۲۰۲۴ اختلال ایجاد کنند.