چترباتهای هوش مصنوعی میتوانند خطرات سایبری داشته باشند
مقامات انگلیسی درباره ادغام چتباتهای مبتنی بر هوش مصنوعی در کسبوکار سازمانهای مختلف هشدار دادند.
به گزارش
خبرگزاری صداوسیما به نقل از
رویترز، به گفته مقامات انگلیسی تحقیقات نشان داده که میتوان این ابزارها را برای انجام کارهای خطرناک فریب داد.
مرکز امنیت سایبری ملی انگلیس (NCSC) در یک پست وبلاگی اعلام کرد که کارشناسان هنوز نتوانسته اند مشکلات امنیتی مرتبط با الگوریتمهایی را شناسایی کنند که میتوانند تعاملات انسانی ایجاد کنند و به مدلهای زبانی بزرگ (LLM) مشهورند.
استفاده از ابزارهای مبتنی بر هوش مصنوعی نه تنها به رشد کاربرد چتباتها منجر شده بلکه برخی معتقدند علاوه بر آنکه جایگزین جستجوی اینترنتی میشود، بخش سرویسهای مشتریان و تماسها برای فروش را نیز از آنِ خود میکند.
طبق گزارش مرکز امنیت سایبری ملی انگلیس، این ابزارها میتوانند خطراتی را به همراه داشته باشند، به ویژه اگر مدلهای زبانی بزرگ به سایر عناصر فرآیندهای تجاری سازمان متصل شوند.
محققان بارها راههایی یافتهاند که با ارسال دستورهای ممنوع به چتباتها یا گمراه کردن آنها و دور زدن اقدامات محافظتی، این ابزارها را از کار میاندازند.
به عنوان مثال، یک رباتچت مبتنی بر هوش مصنوعی که توسط یک بانک استفاده شده، ممکن است فریب داده شود تا یک تراکنش غیرمجاز انجام دهد.
NCSC در یکی از پستهای وبلاگی خود با اشاره به ارائه ازمایشی نسخههای نرمافزاری اعلام کرد: سازمانهای خدماتی که از LLM استفاده میکنند باید مانند زمانی که یک محصول یا کدی را در وضعیت بتا ارائه میکنند، مراقب باشند.
ممکن است سازمانها اجازه ندهند آن محصول آزمایشی از سوی مشتری تراکنشی انجام دهد و به طور کلی آن را معتبر ندانند. همین اقدامات احتیاطی باید در مدلهای زبانی بزرگ نیز انجام شود.
پیامدهای امنیتی هوش مصنوعی نیز همچنان در کانون توجه قرار دارد و مقامات سراسر جهان میگویند که شاهد استقبال هکرها از این فناوری بوده اند.