اخبار سایت

OpenAI امکان دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود را فراهم می‌کند


سم آلتمن در توییتی فاش کرد که OpenAI، به عنوان بخشی از تلاش‌های ایمنی خود، به مؤسسه ایمنی هوش مصنوعی ایالات‌متحده دسترسی زودهنگام به مدل بعدی خود را خواهد داد. ظاهراً این شرکت با این کنسرسیوم «برای پیشبرد علم ارزیابی‌های هوش مصنوعی» به همکاری مشغول بوده است. مؤسسه ملی استانداردها و فناوری (NIST) در اوایل سال جاری به طور رسمی مؤسسه ایمنی هوش مصنوعی را تأسیس کرده است، اگرچه معاون رئیس جمهور، کامالا هریس، آن را در سال 2023 در اجلاس ایمنی هوش مصنوعی بریتانیا اعلام کرد.
 
به گزارش ایتنا و به نقل از انگجت، بر مبنای توصیف NIST از این کنسرسیوم، هدف آن «توسعه دستورالعمل‌ها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای سنجش و تعیین خط‌مشی هوش مصنوعی، و ایجاد پایه‌ای برای ایمنی هوش مصنوعی در سراسر جهان است».
 
این شرکت، به همراه DeepMind، سال گذشته به طور مشابهی متعهد شدند مدل‌های هوش مصنوعی را با دولت بریتانیا به اشتراک بگذارند. آنگونه که وبسایت تک‌کرانچ خاطرنشان کرده است، نگرانی‌های فزاینده‌ای وجود داشته است که OpenAI در مسیر ساخت مدل‌های هوش مصنوعی قوی‌تر اولویت کمتری برای ایمنی لحاظ کرده است.

 

 
در ماه مه امسال، OpenAI تایید کرد که تیم Superalignment را که ایجاد کرده بود منحل کرده است تا اطمینان حاصل کند که در مسیر پیشبرد فعالیت‌هایش در زمینه هوش مصنوعی مولد، بشریت همچنان ایمن می‌ماند.

قبل از آن، یکی از بنیانگذاران و دانشمند ارشد OpenAI به نام ایلیا سوتسکور، که یکی از رهبران این تیم بود، این شرکت را ترک کرد. یان لیکه، که او نیز یکی از رهبران این تیم بود، هم استعفا داد. او در یک سری توییت گفت که مدتی است با مدیریت OpenAI درباره اولویت‌های اصلی این شرکت مخالف بوده و «ارائه محصولات پرجاذبه بر فرهنگ ایمنی و فرآیندها اولویت یافته است». OpenAI در اواخر ماه مه یک گروه ایمنی جدید را ایجاد کرد، اما این گروه توسط اعضای هیئت مدیره از جمله آلتمن رهبری می‌شود، که موجب بروز نگرانی‌هایی را در مورد خودبازرسی شده است.

این خبر را در ایران وب سازان مرجع وب و فناوری دنبال کنید

این مطلب از سایت ایتنا گردآوری شده است.

منبع: ایتنا

دکمه بازگشت به بالا