هوش مصنوعی اجازه نمیدهد حیات بیگانه را کشف کنیم!
به گزارش ایتنا از ایسنا، مقالهای که اخیرا توسط «مایکل گرت»(Michael Garrett) استاد اخترفیزیک «دانشگاه منچستر»(University of Manchester) نوشته شده، نشان میدهد هوش مصنوعی ممکن است توضیحی برای این پرسش باشد که چرا ما هنوز با تمدنهای پیشرفته فناوری در نقاط دیگر جهان روبهرو نشدهایم.
فرضیههای زیادی برای توضیح دادن این پرسش وجود دارند که چرا ستارهشناسان هیچ نشانهای را مبنی بر وجود حیات بیگانه در مجموعه وسیعی از دادههای نجومی جمعآوریشده در ۶۰ سال گذشته کشف نکردهاند. از جمله این فرضیهها میتوان به «پارادوکس فرمی»(Fermi Paradox)، «فرضیه باغ وحش»(Zoo Hypothesis) و «نظریه جنگل تاریک»(Dark Forest Theory) اشاره کرد.
گرت استدلال میکند که هوش مصنوعی میتواند یک فیلتر قوی باشد. استدلال گرت این است که روبهرو شدن هر تمدنی با یک مانع جهانی یا چالش غیر قابل عبور، مانع از ظهور حیات هوشمند میشود.
به گفته گرت، هوش مصنوعی میتواند مسئول فقدان تمدنهای فناورانه پیشرفته باشد زیرا این فیلتر پیش از آن ظاهر میشود که یک تمدن بتواند به سفر چندسیارهای دست یابد. نکته ناامیدکنندهتر این که استدلال گرت نشان میدهد طول عمر معمول هر تمدن فنی کمتر از ۲۰۰ سال است.
با وجود این، همه ماجرا با غم و اندوه همراه نیست زیرا هوش مصنوعی مزایایی هم دارد.
مزایا و خطرات ابرهوش مصنوعی
هوش مصنوعی در مقایسه با سایر فناوریهای بالقوه مخرب، در مقیاسهای زمانی بیسابقهای توسعه یافته است. این فناوری در بافت زندگی روزمره ما ادغام میشود و اساسا نحوه تعامل ما را با فناوری تغییر میدهد.
ظاهرا هیچ حوزهای، از مراقبتهای بهداشتی گرفته تا تجارت و آموزش، پلیس و امنیت ملی دستنخورده باقی نمانده است. گرت نوشت: فکر کردن به حوزهای که هنوز با ظهور هوش مصنوعی روبهرو نشده باشد، دشوار است.
هوش مصنوعی مانند هر فناوری دیگری، با وجود همه خوبیهای بالقوهای که ممکن است داشته باشد، پتانسیل بسیار بالایی را برای آسیب رساندن دارد. گرت اظهار داشت: جای تعجب نیست که انقلاب هوش مصنوعی، نگرانیهای جدی را در مورد مسائل اجتماعی مانند جایگزینی نیروی کار، سوگیری در الگوریتمها، تبعیض، شفافیت، تحولات اجتماعی، پاسخگویی، حفظ حریم خصوصی و تصمیمگیری اخلاقی ایجاد کرده است.
اگرچه این نگرانیهای اخلاقی و اجتماعی مستلزم بررسی جدی هستند اما گرت استدلال میکند که ممکن است آنها عوامل موثر در سقوط تمدن نباشند. در سال ۲۰۱۴، «استیون هاوکینگ»(Stephen Hawking) فقید به طور آشکار هشدار داد که اگر هوش مصنوعی بتواند توانایی تکامل مستقل را به دست بیاورد، خود را دوباره با سرعت فزایندهای طراحی کند و به ابرهوش مصنوعی تبدیل شود، به نوع بشر پایان خواهد داد. گرت خاطرنشان کرد: جامعه بشری به سرعت به یک قلمرو ناشناخته رانده شده است.
علاوه بر ترس در مورد سلاحسازی ابرهوش مصنوعی، گرت استدلال کرد که سرعت فرآیندهای تصمیمگیری هوش مصنوعی میتواند تضادها را تشدید کند تا از اهداف اصلی بسیار فراتر برود. وقتی این سیستمهای هوش مصنوعی دیگر برای وجود داشتن نیازی به حمایت تمدنهای بیولوژیکی نداشته باشند، چه اتفاقی رخ خواهد داد؟
گرت نوشت: پس از رسیدن به تکینگی فناورانه، سیستمهای ابرهوش مصنوعی به سرعت از هوش بیولوژیکی پیشی میگیرند و با سرعتی تکامل مییابند که کاملا از مکانیسمهای نظارت سنتی عبور می کنند و به بروز پیامدهای پیشبینینشده و ناخواستهای منجر میشوند که بعید است با علایق بیولوژیکی یا اخلاقیات همسو باشند.
وی افزود: عملی بودن حفظ موجودات زیستی با نیازهای گسترده آنها به منابعی مانند انرژی و فضا ممکن است بر کارآیی محاسباتی متمرکز نباشد و موجب شود که هوش مصنوعی به آنها مانند یک مزاحم نگاه کند.
این در واقع یک ایده نگرانکننده است و نابودگران هوش مصنوعی به این سمت متمایل میشوند اما در حال حاضر بدترین سناریو را نشان میدهد.
نقش حیاتی تنظیمات
حقیقت این است که ما قلمرو ناشناخته هوش مصنوعی را میپیماییم و مسیر نهایی نامشخص است. هوش مصنوعی که در حال حاضر در زندگی روزمره با آن روبهرو هستیم، هنوز در چارچوب محدودیتهای ایجادشده توسط انسان عمل میکند و لازم است بدانیم که ما هنوز عاملیت و توانایی شکل دادن به مسیر آن را داریم.
گرت باور دارد که راه حل موثر برای ایجاد یک شبکه ایمنی احتمالی در برابر خطرات یک ابرهوش مصنوعی فوق هوشمند، سفر چندسیارهای است تا انسان به یک گونه بیولوژیکی چندسیارهای تبدیل شود و بتواند از تجربیات خود در سیارات گوناگون استفاده کند، راهبردهای بقای خود را متنوع سازد و از شکست جلوگیری به عمل آورد.
با توجه به سرعت پیشی گرفتن هوش مصنوعی از سفر فضایی، این راه حل محتمل یا واقعبینانه به نظر نمیرسد. گرت نوشت: این به طور طبیعی ما را به سوی موضوع پیچیده تنظیم و کنترل هوش مصنوعی هدایت میکند. بدون مقررات عملی، دلایل زیادی برای این باور وجود دارد که هوش مصنوعی یک تهدید بزرگ برای مسیر آینده نه تنها تمدن فنی ما بلکه همه تمدنهای فنی باشد.
وی افزود: اگرچه ذینفعان صنعت، سیاستگذاران، کارشناسان و دولتها پیشتر هشدار دادهاند که ایجاد مقررات لازم است اما ایجاد یک چارچوب نظارتی که در سطح جهانی قابل قبول باشد، چالشبرانگیز خواهد بود.
با وجود این، وضع مقررات برای هوش مصنوعی غیر ممکن نیست. پیامدهای تصمیمگیری مستقل هوش مصنوعی اخیرا به شکلگیری درخواستهایی برای توقف توسعه هوش مصنوعی تا زمانی منجر شدهاند که یک شکل مسئولانه از کنترل و مقررات معرفی شود.
با توجه به اولویتهای متفاوت فرهنگی، اقتصادی و اجتماعی ملل گوناگون، مشکلاتی در تدوین یک مجموعه جهانی از مقررات وجود خواهد داشت. علاوه بر این، پیشرفت سریع هوش مصنوعی احتمالا از چارچوب نظارتی توافقشده پیشی میگیرد و این نگرانی را ایجاد میکند که چارچوبها همیشه از پیشرفتهای جدید و پیشبینینشده در این زمینه عقبتر باشند.
با نگاه کردن به آینده ممکن است بتوانیم دیدگاه بهتری را نسبت به چالشهای کنونی خود به دست آوریم. گرت نوشت: با بررسی احتمالات درباره تمدنهای بیگانه، این آزمایش فکری به ما کمک میکند تا به پایداری بلندمدت تمدن خود بیندیشیم، خطرات بالقوهای را که با آنها روبهرو هستیم بشناسیم و درباره چگونگی غلبه کردن بر چالشهای آینده فکر کنیم.
این پژوهش در مجله «Acta Astronautica» به چاپ رسید.
این مطلب از سایت ایتنا گردآوری شده است.
منبع: ایتنا