«ChatGpt» نظریههای مشهورترین زبانشناس جهان را به چالش میکشد!
«ChatGpt» پرسشهایی را در مورد چگونگی دستیابی انسان به زبان مطرح میکند که بحثی را در مورد نظریههای «نوآم چامسکی»، مشهورترین زبانشناس جهان برانگیختهاند.
به گزارش ایسنا و به نقل از اکونومیست، هنگامی که یک ابررایانه شطرنجباز موسوم به «دیپ بلو»(Deep Blue)، «گری کاسپاروف»(Garry Kasparov) قهرمان جهان را در سال ۱۹۹۷ شکست داد، ترس از پیروزی ماشینها بر بشریت، بسیاری از مردم را فراگرفت. در این سالها، هوش مصنوعی کارهای شگفتانگیزی را انجام داده است اما هیچ کدام نتوانستهاند تصورات عمومی را به همان شکل جذب کنند. در هر حال، لحظه شگفتانگیز دیپ بلو اکنون بازگشته است زیرا رایانهها چیزی را به کار میگیرند که انسانها آن را توانایی تعیینکننده خود میدانند. این توانایی، زبان است.
اگرچه مدلهای بزرگ زبانی که معروفترین آنها «ChatGpt» است، چیزی مشابه نوشتار بیعیب و نقص انسان تولید میکنند اما در مورد اینکه ماشینها واقعا چه میکنند، بحثی پیرامون نظریههای «نوآم چامسکی»(Noam Chomsky) مشهورترین زبانشناس جهان درگرفته است.
اگرچه ایدههای پروفسور چامسکی از زمانی که در دهه ۱۹۵۰ به شهرت رسید، به طور قابل توجهی تغییر کردهاند اما چندین عنصر نسبتا ثابت ماندهاند. او و پیروانش استدلال میکنند که زبان انسان از نظر نوع(نه فقط میزان بیان) با سایر انواع ارتباطات متفاوت است. همه زبانهای انسانی بیشتر به یکدیگر شباهت دارند تا مثلا به رمزهای رایانه. پروفسور چامسکی مکررا گفته است که یک مریخی هنگام بازدید از سیاره ما به این نتیجه میرسد که همه انسانهای روی زمین به یک زبان و با تنوع سطحی صحبت میکنند.
شاید مهمترین نظریه چامسکی این باشد که کودکان با وجود فقدان محرک، زبان مادری خود را با سرعت و سهولت شگفتانگیزی یاد میگیرند. تنها توضیح برای این موضوع شاید این باشد که نوعی استعداد برای یادگیری زبان در مغز انسان ایجاد شده است.
اندیشههای چامسکی بر «حوزه زبانی نحو» غالب بودهاند، اما بسیاری از زبانشناسان مخالف چامسکی هستند و برخی اکنون سعی دارند از ظرفیت مدلهای بزرگ زبانی برای حمله مجدد به نظریههای چامسکی استفاده کنند.
دستور زبان، ساختاری سلسله مراتبی و تو در تو دارد که شامل واحدهایی درون واحدهای دیگر است. کلمات، عباراتی را تشکیل میدهند که تشکیلدهنده جملهها هستند. نظریه چامسکی، یک عملیات ذهنی به نام «ادغام» را مطرح میکند که واحدهای کوچکتر را به هم میچسباند تا واحدهای بزرگتری را تشکیل دهد که میتوان آنها را ادامه داد. در یکی از مقالاتی که اخیرا در نیویورک تایمز به چاپ رسید، چامسکی و دو نفر از نویسندگان مقاله گفتند: ما میدانیم که رایانهها مانند انسانها از زبان استفاده نمیکنند و به طور ضمنی این شناخت را در بر میگیرند. مدلهای بزرگ زبانی در واقع فقط واژه بعدی را در میان یک رشته از واژهها پیشبینی میکنند.
با وجود این، درک اینکه مردم به چه چیزی فکر میکنند، به چند دلیل دشوار است. جزئیات برنامهنویسی و آموزش دادههای تجاری به چیزی مانند ChatGpt، یک کار اختصاصی است.
زبانشناسان راههای هوشمندانهای را برای آزمایش کردن دانش زیربنایی مدلهای بزرگ زبانی پیدا کردهاند که در واقع آنها را با آزمونهای کاوشگری فریب میدهند. در واقع به نظر میرسد که مدلهای بزرگ زبانی، ساختارهای دستوری تو در تو و سلسله مراتبی را یاد میگیرند؛ حتی اگر آنها فقط در معرض ورودی خطی یعنی رشتههایی از متن باشند. آنها میتوانند به مدیریت واژههای جدید بپردازند و بخشهایی از گفتار را درک کنند. کافی است به ChatGpt بگویید که «dax» یک فعل به معنای خوردن یک برش پیتزا با تا کردن آن است و سیستم آن را به راحتی اجرا میکند. در جمله «پس از یک روز طولانی در محل کار، من دوست دارم در حین تماشای برنامه تلویزیونی مورد علاقهام استراحت کنم و یک برش پیتزا را با تا کردن آن بخورم»( After a long day at work, I like to relax and dax on a slice of pizza while watching my favourite tv show.)، عنصر تقلیدی را میتوان در «dax on» مشاهده کرد که ChatGpt احتمالا آن را از الگوهایی مانند «chew on» یا «munch on» به دست آورده است.
در مورد فقدان محرک چطور؟ به هر حال، مدل زبانی بزرگ «Gpt-۳» که زیربنای ChatGpt تا پیش از انتشار اخیر «Gpt-۴» در نظر گرفته میشود، با حدود ۱۰۰۰ برابر دادههایی که یک انسان ۱۰ ساله در معرض آن قرار میگیرد، آموزش میبیند. این موضوع، چنین امکانی را به جا میگذارد که کودکان به دستور زبان تمایل ذاتی دارند و همین امر آنها را بسیار ماهرتر از هر مدل زبانی بزرگی میکند.
در مقالهای که در مجله «Linguistic Inquiry» به چاپ خواهد رسید، پژوهشگران ادعا میکنند یک مدل زبانی بزرگ را روی متنی آموزش دادهاند که یک کودک انسان در معرض آن قرار میگیرد و دریافتهاند که مدل زبانی میتواند حتی از بخشهای نادر دستور زبان استفاده کند. سایر پژوهشگران تلاش کردهاند یک مدل زبانی بزرگ را روی پایگاه دادهای از زبانی آموزش دهند که فقط توسط کودک هدایت میشود و یک کپی از صحبتهای افرادی است که با کودکان صحبت میکنند. در اینجا، مدل زبانی بزرگ به مراتب بدتر است. همان طور که پروفسور چامسکی میگوید، شاید مغز واقعا برای زبان ساخته شده است.
قضاوت کردن سخت است. هر دو طرف بحث در حال بررسی مدلهای زبانی بزرگ هستند تا ادعای خود را تقویت کنند. خود بنیانگذار مکتب زبانشناسی، تنها یک پاسخ بیپرده را ارائه کرده است. برای این که نظریههای او از این چالش جان سالم به در ببرند، باید دفاع قویتری داشته باشد.
انتهای پیام
این خبر را در ایران وب سازان مرجع وب و فناوری دنبال کنید
منبع:ایسنا