هوش مصنوعی چه خطراتی برای ما خواهد داشت

آرِند هینتز، استادیار زیست‌شناسی یکپارچه و علوم کامپیوتر و مهندس از دانشگاه ایالتی میشیگان، به‌عنوان یک توسعه‌دهنده‌ی هوش مصنوعی به آسیب‌شناسی این ماشین‌ها می‌پردازد و به ترس‌هایی که در مورد آن‌ها وجود دارد، پاسخ می‌دهد:

مقاله‌های مرتبط:

به‌عنوان یک محقق حوزه‌ی هوش مصنوعی گاهی با این ایده روبه‌رو می‌شوم که اکثر مردم ازآنچه ممکن است هوش مصنوعی به آن تبدیل شود، هراس دارند. شاید این مسئله تعجب‌آور نباشد؛ این ترس به دلیل نگاهی است که تاریخ و صنعت سینما به ما داده‌اند؛ نگاهی که به ما ترس از سلطه‌ی سایبرنتیک را القا می‌کند و همان‌طور که در فیلم ماتریکس دیده‌اید به ما هشدار می‌دهد که نیروهایی خواهند آمد که ما را به‌عنوان باتری‌های انسانی در محفظه‌هایی زندانی می‌کنند. برای من که به‌عنوان توسعه‌دهنده‌ی هوش مصنوعی از مدل‌های کامپیوتری برای تکامل آن استفاده می‌کند فکر کردن به این موضوع که در آینده این موجودات بی‌گناه مجازی به هیولاهایی تبدیل خواهند شد، دشوار است. آیا ممکن است که من به‌عنوان ویرانگر دنیا شناخته شوم، همان‌طور که اوپِن‌هایمِر بعد از رهبری کردن ساخت اولین بمب اتمی، به سرزنش خود پرداخت؟

با این کار من معروف خواهم شد اما شاید حق با منتقدان باشد. شاید من نباید از این سوال دوری‌کنم که به‌عنوان یک متخصص هوش مصنوعی چه‌چیزی از هوش مصنوعی برای من هراس‌انگیز است؟

 ترس از اتفاقات پیش‌بینی نشده

ex-mechine

کامپیوتر اچ‌اِی‌اِل ۹۰۰۰ که آرتور سی.کلارک، نویسنده‌ی داستان علمی تخیلی، در رویای خود داشت و اِستَنلی کوبریک، کارگردان فیلم ۲۰۰۱: یک ادیسه‌ی فضایی، به زندگی ما آورد مثال خوبی است از سیستمی که به دلیل پیامدهای ناخواسته، شکست خورد.

در اکثر سیستم‌های پیچیده مانند کشتی تایتانیک، شاتل فضایی ناسا، نیروگاه هسته‌ای چرنوبیل مهندسان لایه‌های بسیاری از اجزای مختلف را با یکدیگر ترکیب می‌کنند. طراحان ممکن است به‌خوبی این موضوع را بدانند که هر جزء به‌تنهایی چگونه کار می‌کند اما گاهی از این موضوع که قطعات در ارتباط با یکدیگر چگونه کار می‌کنند، آگاهی کافی ندارند؛ نتیجه‌ی این آگاهی کم، سیستمی است که هرگز به‌طور کامل درک نمی‌شود و ممکن است درراه‌های پیش‌بینی‌نشده شکست بخورد؛ در هر فاجعه‌ای نظیر غرق شدن یک کشتی، انفجار دو شاتل فضایی و گسترش آلودگی‌های رادیواکتیو در اروپا و آسیا، اشتباهات کوچک باهم ترکیب می‌شوند و یک فاجعه را به وجود می‌آورند.

در تحقیقات هوش مصنوعی نیز ممکن است چنین اشتباهاتی رخ دهد. ما به آخرین دستاوردهای علوم شناختی و ادراکی نگاهی می‌اندازیم، آن‌ها را به الگوریتم تبدیل می‌کنیم و به سیستم‌های موجود اضافه می‌کنیم؛ در این راه ما مهندسان تلاش می‌کنیم که بدون آنکه در قدم اول هوش یا شناخت را درک کنیم، هوش مصنوعی را بسازیم.

سیستم‌هایی مانند واتسون آی‌بی‌ام و آلفای گوگل به شبکه‌های عصبی مصنوعی و حجم عظیمی از توان پردازشی، تجهیز شده‌اند و شاهکارهای چشمگیری را انجام داده‌اند؛ اما اگر این ماشین‌ها اشتباهی مرتکب شوند دیگر نمی‌توانند استاد بازی گو را شکست دهند یا در بازی جِپِردی شکست می‌خورند. عواقب این اشتباهات دنیا را تغییر نمی‌دهد؛ درواقع بدترین اتفاقی که ممکن است رخ دهد این است که فردی مقداری از پولی را که روی موفقیت هوش مصنوعی شرط‌بندی کرده است را از دست بدهد؛ اما چون طراحی هوش مصنوعی در حال پیچیده‌تر شدن است و پردازنده‌های کامپیوتر نیز سریع‌تر شده‌اند، مهارت این سیستم‌ها افزایش می‌یابد. این امر باعث می‌شود تا به این سیستم‌ها حتی اگر خطر پیامدهای ناخواسته افزایش یابد، مسئولیت‌های بیشتری به آن‌ها می‌دهیم؛ و ازآنجایی‌که انسان ممکن‌الخطاست به نظر می‌رسد که به‌وجود آوردن سیستمی کاملاً ایمن غیرممکن باشد.

ترس از سوء‌استفاده

handshake with robots

ازنظر من عواقب ناخواسته در گونه‌های مختلف هوش مصنوعی که با استفاده از روشی بانام نورو اوولوشن درحال‌توسعه‌ی آن‌ها هستم، زیاد نگران‌کننده نیست. من محیطی مجازی را خلق می‌کنم و موجودات دیجیتالی را با ذهنی که برای انجام وظایف پیچیده آموزش می‌بینند، تکامل می‌دهم. عملکرد این مخلوقات مورد ارزیابی قرار می‌گیرد و آن‌هایی که بهترین عملکرد را دارند برای تولید مجدد انتخاب می‌شوند و نسل بعدی هوش مصنوعی را می‌سازند؛ بعد از تولید چندین نسل این مخلوقات ماشینی تکامل پیدا می‌کنند و توانایی‌های ادراکی کسب می‌کنند.

همین‌الان ما در حال برداشتن قدم‌هایی کوچک برای تکامل این ماشین‌ها هستیم؛ تکاملی که باعث می‌شود هوش مصنوعی بتواند وظایف ناوبری ساده را انجام دهد، تصمیماتی ساده بگیرد یا چند بایتی را به خاطر بیاورد؛ اما به‌زودی ما ماشین‌هایی را تکامل خواهیم داد که می‌توانند وظایف پیچیده‌تری را اجرا کنند و فهم عمومی بسیار بهتری داشته باشند. درنهایت ما امیدواریم که بتوانیم ماشینی هم‌سطح باهوش انسانی ایجاد کنیم.

در طول این مسیر و در روند تکامل هوش مصنوعی، ما ارور‌ها و مشکلات را پیدا خواهیم کرد و آن‌ها را حذف می‌کنیم. در هر نسل، ماشین‌ها بهتر می‌توانند ارورهای ایجادشده در نسل قبلی را برطرف کنند؛ این کار باعث می‌شود که شانس پیداکردن پیامدهای ناخواسته در شبیه‌سازی‌ها افزایش یابد و بتوانیم قبل از آنکه این مشکلات وارد دنیای واقعی شوند، آن‌ها را حذف کنیم.

مورد دیگری که احتمال آن کمتر است، استفاده از این سیر تکاملی برای تاثیرگذاشتن بر اخلاق سیستم‌های هوش مصنوعی است. این فرایند همانند صفاتی اخلاقی در انسان‌ها است؛ صفاتی مانند امانت‌داری و نوع‌دوستی که درنتیجه‌ی سیرتکاملی انسان‌ها به وجود آمده‌اند و به‌عنوان فاکتورهایی برای ادامه‌ی زندگی آن‌ها در نظر گرفته می‌شوند.

ما می‌توانیم محیط‌های خود را به‌صورت مجازی برای ایجاد برتری تکاملی در ماشین‌ها به‌گونه‌ای تنظیم کنیم تا صفاتی مانند محبت، صداقت و یکدلی را به آن‌ها نشان دهیم؛ این ممکن است راهی باشد تا خدمتکارانی فرمانپذیرتر یا همراهانی قابل‌اعتماد توسعه دهیم و ربات‌های قاتل و بی‌رحم کمتری به وجود آوریم.

 باوجوداینکه نورو اوولوشن این امکان را دارد که احتمال به‌وجود آمدن پیامدهای ناخواسته را کاهش دهد اما نمی‌تواند مانع سوءاستفاده از هوش مصنوعی شود؛ بااین‌وجود این مسئله یک مشکل علمی نیست و مشکلی اخلاقی است؛ به‌عنوان یک دانشمند، من متعهد هستم تا به‌درستی یافته‌های حاصل از آزمایش‌هایم را گزارش دهم، چه این نتایج موردپسند من باشند، چه نباشند؛ دوست‌داشتن یا موافقت برای من موردتوجه نیست، مهم‌این است که بتوانیم یافته‌هایمان را بازگو کنم.

ترس از اولویت‌های اشتباه اجتماعی

artificial inteligence

دانشمند بودن من را از انسان بودن مبرا نمی‌کند و من باید در پاره‌ای از موارد با آرزوها و ترس‌هایم مجددا ارتباط برقرار کنم. به عنوان موجودی اخلاقی و سیاسی، من باید پیامدهای احتمالی کار خود و تاثیرات احتمالی آن بر جامعه را در نظر بگیرم. ما به عنوان جامعه‌ی محققان هنوز به یک ایده‌ی واضح در مورد هوش‌مصنوعی و آنچه که به آن تبدیل می‌شود نرسیده‌ایم؛ یکی از علت‌های این مساله این است که ما هنوز در مورد قابلیت‌های هوش‌مصنوعی اطلاعی نداریم؛ اما نیازداریم که در مورد نتایج مطلوب حاصل از هوش‌مصنوعی پیشرفته، تصمیم بگیریم.

یکی از مناطق بزرگی که تحت تاثیر هوش‌مصنوعی قرار دارد، منطقه‌ی فعالیت‌های انسانی است؛ ربات‌ها در حال حاضر کارهای فیزیکی مانند جوش‌کاری قسمت‌های مختلف خودروها را انجام می‌دهند. در آينده‌ای نزدیک ممکن است آن‌ها فعالیت‌های ادراکی و شناختی را که تا به امروز تنها به انسان‌ها اختصاص داشته است، انجام دهند؛ خودروهای خودران می‌توانند جایگزین راننده‌های تاکسی شوند؛ هواپیماهای خود پرواز می‌توانند جایگزین خلبان‌ها شوند. به‌جای کمک‌های گروه پزشکی در اورژانس، بیماران می‌توانند توسط یک سیستم متخصص مورد معاینه قرار گیرند و با دسترسی فوری به پایگاه اطلاعات پزشکی که تا به آن‌روز جمع‌آوری شده است، نوع بیماری آن‌ها تشخیص داده شود و جراحی‌های به وسیله‌ی رباتی خستگی‌ناپذیر و با دستانی کاملا بدون‌لرزش انجام شود.

مشاوره‌های حقوقی می‌تواند از پایگاه داده‌های حقوقی به دست آید؛ مشاوره‌های مالی و سرمایه‌گذاری نیز می‌تواند از سیستم پیش‌بینی بازار به دست آید. شاید روزی فرا رسد که تمام شغل‌های انسانی به‌وسیله‌ی ماشین‌ها انجام شوند؛ حتی کار توسعه‌ی هوش‌مصنوعی که من به آن مشغول هستم به وسیله‌ی تعداد زیادی از ماشین‌های خستگی‌ناپذیر در تحقیقات هوش‌مصنوعی، سریع‌تر انجام شود.

در جامعه‌ی امروزی ما، اتوماسیون انسان‌ها را از کار برکنار کرده است و صاحبان ماشین‌ها را پولدارتر و دیگر افراد را فقیرتر کرده است. این مشکل یک مسئله‌ی علمی نیست و باید از نقطه‌نظر سیاسی و اجتماعی و اقتصادی حل شود. تحقیقات و سیاست‌های یک توسعه‌دهنده نمی‌تواند این موارد را تغییر دهد اما با همکاری همه‌ی ما، می‌توانیم شرایطی را ایجاد کنیم که در آن هوش‌مصنوعی به‌جای ایجاد فاصله بین افراد پولدار و ضعیف، برای همه سودمند باشد.

ترس از سناریو‌های کابوس مانند

terminator

با مجسم کردن اچ‌اِی‌اِل ۹۰۰۰، ترمیناتور یا هر داستان تخیلی دیگری که هوش‌مصنوعی فرابشری دارند این سوال به‌وجود می‌آید که اگر هوش‌مصنوعی به پیشرفت خود ادامه دهد و با سطحی فراتر از هوش انسانی برسد، آیا این سیستم‌های فوق‌العاده هوشمند یا حداقل یکی از آن‌ها، به این نتیجه می‌رسد که دیگر به انسان‌ها نیازی نیست؟ ما انسان‌ها چگونه وجود خودمان را در نظر این هوش‌های فرابشری که کارهایی فراتر از توانایی‌های انسان انجام می‌دهند، توجیه می‌کنیم؟ آیا ما می‌توانیم مانع از انقراض خود به وسیله‌ی ماشین‌هایی که زمانی برای کمک به ما خلق شده‌اند، شویم؟ سوال کلیدی در این سناریو این است: چرا باید یک هوش فرابشری انسان‌ها را زنده نگه‌دارد؟

من ممکن است درباره‌ی خودم با این هوش‌فرابشری گفت‌وگو کنم و به او بگویم که فرد خوبی هستم که ممکن است کمک کرده باشد تا هوش‌مصنوعی به این مرحله برسد.  همچنین ممکن است که التماس کنم که هوش‌فرابشری من را به عنوان شخصی با محبت و دلسوز زنده نگه دارد. من می‌توانم درباره‌ی ارزشمند بودن تنوع با این هوش‌فرابشری گفت‌وگو کنم به او بگویم که وجود بشریت با وجود داشتن جهانی بسیار بزرگ، ممکن است اصلا اهمیتی نداشته باشد؛ اما من به نمایندگی از تمام بشریت صحبت نمی‌کنم و آوردن استدلالی قانع‌کننده برای ادامه‌ی حیات تمام انسان‌ها کار دشواری است.

وقتی که با نگاهی دقیق‌تر به خودمان می‌نگریم، اشتباهات بسیاری می‌بینم: ما انسان‌ها از هم متنفریم، با یکدیگر می‌جنگیم، دانش، غذا یا کمک‌های پزشکی را به طور عادلانه توزیع نمی‌کنیم و سیاره‌ی خود را آلوده می‌کنیم. موارد خوب بسیاری نیز در دنیا وجود دارد اما تمام بدی‌های ما باعث ضعف در گفتمان و درخواست ادامه‌ی حیات از هوش‌فرابشری می‌شود.

خوشبختانه، در حال حاضر احتیاجی نداریم که وجود خودمان را برای این ماشین‌ها توجیه کنیم. ما مدت زمانی بین ۵۰ تا ۲۵۰ سال وقت داریم که البته این فرصت زمانی به سرعت توسعه‌ی هوش‌مصنوعی نیز بستگی دارد و در این مدت می‌توانیم به عنوان گونه‌ای از حیات ما می‌توانیم گرد هم بیایم و به این سوال که چرا هوش‌فرابشری نباید ما را از صحنه‌ی حیات پاک کند، جوابی قانع‌کننده پیدا کنیم.

هر کدام از ما چه به صورت انفرادی و چه در قالب جامعه، باید خود را برای این سناریوهای کابوس مانند آماده کنیم و با استفاده از زمانی که برایمان باقی‌مانده است دلیلی برای ادامه‌ی حیاتمان پیدا کنیم؛ اما راه دیگر این است که به این باور برسیم که این اتفاق هرگز نخواهد افتاد تا دیگر نگران این مسئله نباشیم.

اما بدون درنظر گرفتن تهدیدات فیزیکی‌ که هوش‌فرابشری ممکن است داشته باشد، این ماشین‌ها می‌توانند تهدیدهای سیاسی و اقتصادی‌ای برای ما باشند. اگر ما راهی برای توزیع ثروت بین تمام انسان‌ها پیدا نکنیم، نظامی سرمایه‌داری پدید می‌آوریم که در آن هوش‌مصنوعی تنها در خدمت کسانی هستند که تمام ابزارهای تولید را دارند.

منبع: زومیت