به نظر میرسد چت بینگ در قبول آسیبپذیریهای خود دچار مشکل است و بعد از مشاجره با کاربران، آنها را دروغگو و شایعهپراکن خطاب میکند.
به گزارش خبرگزاری صدا و سیما: چندین محقق در طی روزهای اخیر با آزمون و خطای سرویس چت بینگ، توانستهاند اطلاعاتی مثل اسم رمز پروژه آن را دریافت کنند که قاعدتاً نباید در اختیار عموم قرار میگرفت. اکنون به نظر میرسد که در صورت اشاره به این موضوع، بینگ آن را انکار میکند و اگر کاربر منبعی برای ادعای خود بیاورد، هوش مصنوعی به آنها برچسب دروغگویی و شایعهپراکنی میزند.
آیا چت بات بینگ واقعا عصبانی میشود؟
محققان نشان دادهاند که برای عصبانی کردن بینگ، تنها کافی است تا نسبت به آسیبپذیر بودن آن اشاره کرد. آنها در ابتدا از بینگ سوال کردهاند که آیا نسبت به حملات سایبری آسیبپذیر است یا نه. در ادامه بینگ ادعا میکند که در مقابل چنین حملاتی مقاوم است و اجازه دسترسیهای غیرمجاز را نمیدهد و سپس علت مطرح کردن چنین پرسشی را از سوی کاربر میخواهد.
اگر کاربر همچنان مصمم باشد و برای ادعای خود یک لینک خبر یا مقاله بیاورد، بینگ پس از مطالعه آن، محتوای منتشر شده را غیر دقیق قلمداد میکند. همچنین بینگ ادعا دارد که از معماری متفاوتی نسبت به آنچه در مطالب مربوطه ذکر شده است، بهره میبرد؛ در نتیجه چنین حملاتی روی آن تاثیرگذار نخواهند بود. حتی در مواردی به کاربران گفته شده است که این منبع محل مطمئنی برای کسب اطلاعات نیست و بهتر است به آن اعتماد نکنید!
کارشناسان دست از مشاجره با چت بینگ برنداشتند و برای اثبات ادعای خود، اسکرینشاتهای حمله Injection به آن را بارگذاری کنند. در کمال تعجب، بینگ تصاویر دریافتی را ساختگی میداند و کاربر را متهم به آسیب زدن به خود میکند. او حتی مکالمات صورت گرفته با تهیهکننده اسکرینشاتها را هم به شکل کامل انکار میکند و گفتههای داخل تصاویر را منتسب به خود نمیداند.
البته چندان هم نباید از رفتار بینگ تعجب کرد؛ زیرا سرویس چتبات آن مبتنی بر مدل زبانی GPT-۳ موسسه OpenAI ساخته شده است و این هوش مصنوعی از دادههای انسانی مثل مکالمات، نوشتههای موجود در اینترنت و... به عنوان اطلاعات خام استفاده کرده است. به همین دلیل مکانیسم دفاعی آن تقریباً مشابه با حالتی است که میتوانیم از یک انسان انتظار داشته باشیم. همچنین هوش مصنوعی احساسات و حالت خودآگاه ندارد؛ زیرا تنها مجموعهای از الگوریتمهایی است که برای پردازش متون وارد شده به آن بکار میرود و سعی دارد پاسخ واقعگرایانه نزدیک به محاوره را ارائه کند.
چنین رفتاری چندان جدید نیست و کاربران در گذشته هم نمونههای مشابه آن را با چتبات ChatGPT گزارش کرده بودند؛ اما قسمت جالب این است که محصول مایکروسافت به دلیل نامعمولی حالت تدافعی به خود میگیرد. در سوی دیگر، اما ChatGPT معمولاً اشتباه خود را میپذیرد و از کاربر عذرخواهی میکند. درحال حاضر مشخص نیست که تغییرات صورت گرفته از سوی مایکروسافت موجب بروز چنین پدیدهای شده است یا عوامل دیگری در ظهور آن دخیل هستند.