مقررات هوش مصنوعی با تناقضات بسیاری مواجهاند
یک نشریه آمریکایی از تناقضهای موجود در مقررات مربوط به فناوری نوین هوش مصنوعی و لزوم بهروزرسانی مداوم آنها نوشت.
به گزارش
خبرگزاری صداوسیما، نشریه «هیل» در مقالهای با عنوان «پارادوکس ذاتی مقررات هوش مصنوعی» نوشت: روزی نیست که ما درباره مقررات جدید هوش مصنوعی (AI) چیزی نیاموزیم و این تعجبآور نیست، زیرا هوش مصنوعی بهعنوان قدرتمندترین فناوری قرن بیستویکم معرفی میشود.
اما به این دلیل که هیچ تعریف توافق شدهای از هوش مصنوعی وجود ندارد و چشمانداز آن دائما در حال رشد است، بسیاری از مقررات جدید این فناوری در تناقض غوطهور هستند.
در میان چنین تناقضهای نظارتی، تمایل به مقرراتگذاری برای یک فعالیت که با استفاده از هوش مصنوعی انجام میشود، تنها در زمانی وجود دارد که از دیدگاه کاربر نهایی، آن فعالیت انجام نشده باشد.
به عنوان مثال جعل هویت و تقلید از افراد مشهور و سیاستمداران، از زمانهای قدیم وجود داشته و معمولا اقدام قابل قبولی در نظر گرفته میشود.
با این حال، ممکن است به سمت محیطی حرکت کنیم که در آن، تقلیدکننده انسان و جعل هویتِ انجامشده توسط هوش مصنوعی که یکسان به نظر میرسند و دقیقاً همان کارها را انجام میدهند، برای اهداف نظارتی، کاملاً متفاوت طبقهبندی میشوند.
«لینا خان» رئیس کمیسیون تجارت فدرال آمریکا (FTC) در تلاش است تا به چنین تناقضهایی در مقررات نوظهور هوش مصنوعی این کمیسیون رسیدگی کند.
به گفته او، در این مرحله میتوانیم مدل هوش مصنوعی «زبان بزرگ» یا LLGAI را ببینیم، زیرا رایانهها از اینترنت برای جمعآوری میلیونها داده استفاده و سپس دستورالعملها، متون، تصاویر، ویدئوها و فایلهای صوتی پیچیده تولید میکنند. این فناوری میتواند حوزههای مختلفی مانند پزشکی را دچار آسیب کند و این خطر باعث آسیب به مردم است.
تشخیص جعل هویت مخرب و در عین حال بینقص LLGAI مثلاً یک مقام دولتی که دیگران را فریب میدهد، دشوار نیست.
سناریوهای ترسناک، اما واقعبینانه هوش مصنوعی به طور قابل توجهی، دولتها را به سمت ایجاد مقررات برای مصرف کننده قبل از وقوع فاجعه سوق داده است.
اما یک مشکل نادیده گرفتهشده در اینجا وجود دارد؛ از آنجا که ما در مرحله اولیه، مصرفکننده LLGAI هستیم، هر مقرراتی که اکنون ایجاد میشود بر اساس چیزهای کمی است که امروز میدانیم و با چنین فناوری در حال تحولی، آنچه در سال ۲۰۲۴ کاملاً منطقی است، ممکن است تا سال ۲۰۲۹ نامربوط یا معکوس باشد.
این اولین باری نیست که فناوریها خطرات زیادی ایجاد میکنند.
بین سالهای ۱۹۱۵ و ۱۹۳۰، اتومبیلهای بنزینی در آمریکا از حدود ۲ میلیون مصرفکننده به یک وسیله حملونقل رایج با حدود ۲۳ میلیون کاربر تبدیل شدند.
بسیاری از دولتها، مقررات مربوط به خودرو را در دهه ۱۹۱۰ وضع کردند. این مقررات از روزی که توسعه یافتند منطقی بودند، اما نتایج نشان میدهد که تنظیم یک فناوری انقلابی و سریع در دوران ابتدایی آن چقدر دشوار است.
در سال ۱۹۱۵، یک مسئله نظارتی عمده، تعامل خودرو با اسبها و کالسکهها بود. تنظیمگرها در سال ۱۹۱۵ میتوانستند درباره پارکینگها، پمپبنزینها و خطوط عابر چه بگویند؟
لازم نیست به یک قرن پیش برگردیم تا درک کنیم که تنظیم کردن فناوریهای مصرفی نوظهور در دوران ابتدایی آنها چقدر دشوار است.
در دهه ۱۹۹۰، فناوری اینترنت برای عموم مردم فراهم شد. به سرعت مشخص شد که این فناوریِ نوظهور، امکان ارتباطات جهانی بین افراد یا گروهها را با استفاده از متن، تصویر، ویدئو، صدا و ... فراهم میکند.
قانونگذاران در آن زمان شروع به ایجاد قوانین و مقرراتی برای اینترنت کردند، اما تقریباً همه تصورات از آینده اینترنت اشتباه بود.
در واقع بسیاری از ما فکر میکردیم که اینترنت سال ۲۰۲۴ بسیار شبیه اینترنت سال ۱۹۹۵ است، فقط در مقیاس بزرگتر، در نتیجه، تعداد اندکی از قوانین اینترنت که در دهه ۱۹۹۰ ابداع شدند، امروز دقیقاً به همان شکل استفاده میشوند.
مهمترین درسی که باید از تلاشهای دهه ۱۹۱۰ برای تنظیم صنعت خودرو و تلاشهای دهه ۱۹۹۰ برای تنظیم صنعت اینترنت بیاموزیم، این است که قانونگذاران باید خِرد کافی داشته باشند تا بدانند مقررات امروزی میتواند سالها بعد بیمعنا یا حتی معکوس باشد.
راه حل این است که قانونگذاران هر چند سال یک بار، قوانین و مقررات هوش مصنوعی خود را تغییر داده و بر اساس شرایط فعلی آن را تکامل دهند.
مقررات هوش مصنوعی هم باید به طور مداوم بازبینی، بهروز و بازنویسی شوند.
طبیعتا انتظار نمیرود که قواعدی که در دوران ابتدایی هوش مصنوعی ایجاد شده، دائمی باشد.
دستکم یک نگاه گذرا به مدل هوش مصنوعی LLGAI نشان میدهد که هیچ چیز در مورد آن پایدار نیست.