OpenAI امکان دسترسی زودهنگام به مدل هوش مصنوعی بعدی خود را فراهم میکند
به گزارش ایتنا و به نقل از انگجت، بر مبنای توصیف NIST از این کنسرسیوم، هدف آن «توسعه دستورالعملها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای سنجش و تعیین خطمشی هوش مصنوعی، و ایجاد پایهای برای ایمنی هوش مصنوعی در سراسر جهان است».
این شرکت، به همراه DeepMind، سال گذشته به طور مشابهی متعهد شدند مدلهای هوش مصنوعی را با دولت بریتانیا به اشتراک بگذارند. آنگونه که وبسایت تککرانچ خاطرنشان کرده است، نگرانیهای فزایندهای وجود داشته است که OpenAI در مسیر ساخت مدلهای هوش مصنوعی قویتر اولویت کمتری برای ایمنی لحاظ کرده است.
در ماه مه امسال، OpenAI تایید کرد که تیم Superalignment را که ایجاد کرده بود منحل کرده است تا اطمینان حاصل کند که در مسیر پیشبرد فعالیتهایش در زمینه هوش مصنوعی مولد، بشریت همچنان ایمن میماند.
قبل از آن، یکی از بنیانگذاران و دانشمند ارشد OpenAI به نام ایلیا سوتسکور، که یکی از رهبران این تیم بود، این شرکت را ترک کرد. یان لیکه، که او نیز یکی از رهبران این تیم بود، هم استعفا داد. او در یک سری توییت گفت که مدتی است با مدیریت OpenAI درباره اولویتهای اصلی این شرکت مخالف بوده و «ارائه محصولات پرجاذبه بر فرهنگ ایمنی و فرآیندها اولویت یافته است». OpenAI در اواخر ماه مه یک گروه ایمنی جدید را ایجاد کرد، اما این گروه توسط اعضای هیئت مدیره از جمله آلتمن رهبری میشود، که موجب بروز نگرانیهایی را در مورد خودبازرسی شده است.
این مطلب از سایت ایتنا گردآوری شده است.
منبع: ایتنا