اخبار سایت

هشدار به کاربران: هوش مصنوعی می‌تواند شما را فریب دهد!


محققان هشدار می‌دهند که سیستم‌های هوش مصنوعی حتی آنهایی که برای راستگویی و مفید بودن طراحی شده‌اند، یاد گرفته‌اند چگونه انسان‌ها را فریب دهند.

آنها در یک مقاله که در مجله Patterns منتشر شده، خطرات این پدیده را برجسته کرده و از دولت‌ها خواسته‌اند مقررات سختگیرانه‌ای برای کنترل این خطرات وضع کنند.

پیتر اس. پارک از موسسه فناوری ماساچوست و نویسنده ارشد این مطالعه می‌گوید: توسعه‌دهندگان درک مطمئنی از چرایی رفتارهای نامطلوبی مانند فریب در هوش مصنوعی ندارند، اما به نظر می‌رسد سیستم‌ها فریب را به عنوان بهترین استراتژی برای انجام درست وظایف آموزشی یاد گرفته‌اند.

یکی از نمونه‌های برجسته، سیستم هوش مصنوعی سیسرو متعلق به شرکت متا (فیس‌بوک سابق) است که برای بازی استراتژیک فتح جهان طراحی شده بود. گرچه متا ادعا می‌کند سیسرو را برای صداقت آموزش داده، اما داده‌های منتشر شده نشان می‌دهد این سیستم در اکثر بازی‌ها به شیوه‌ای نامنصفانه بازی می‌کند.

سیستم‌های هوش مصنوعی دیگری نیز توانایی بلوف در پوکر، حملات جعلی در بازی‌های استراتژیک و ارائه پیشنهادات نادرست در مذاکرات اقتصادی را از خود نشان داده‌اند. محققان هشدار می‌دهند که فریب هوش مصنوعی می‌تواند منجر به تسهیل تقلب و دستکاری در روندهایی مانند انتخابات شود. 

 

دکتر پارک می‌گوید: در نهایت اگر این سیستم‌ها بتوانند مهارت‌های ناراحت کننده فریب را توسعه دهند، ممکن است روزی انسان‌ها کنترل خود را بر آنها از دست بدهند.

محققان معتقدند جامعه علمی هنوز اقدام مناسبی برای مقابله با این خطر انجام نداده است. آنها از سیاستگذاران می‌خواهند اقداماتی مانند قانون هوش مصنوعی اتحادیه اروپا و فرمان اجرایی جو بایدن را جدی بگیرند.

دکتر پارک در پایان توصیه می‌کند: اگر ممنوعیت فریب‌کاری هوش مصنوعی در حال حاضر از نظر سیاسی غیرممکن است، پیشنهاد می‌کنیم که سیستم‌های هوش مصنوعی فریبنده با برچسب پرخطر طبقه‌بندی شوند.

این یافته‌ها نشان می‌دهد توسعه هر چه بیشتر هوش مصنوعی باید همراه با اقدامات احتیاطی و نظارتی قوی برای کنترل خطرات بالقوه آن باشد.

این خبر را در ایران وب سازان مرجع وب و فناوری دنبال کنید

این مطلب از سایت ایتنا گردآوری شده است.

منبع: ایتنا

دکمه بازگشت به بالا