اخبار سایت

چت جی‌پی‌تی اکنون می‌تواند تصویر و کتاب مصور تولید کند



اوپن ای‌آی (OpenAI) هوش مصنوعی مولد تصویر این شرکت را با چت‌ جی‌پی‌تی، ربات چت بسیار پرطرفدارش، تلفیق کرده است.

به گزارش ایتنا و به نقل از ایندیپندنت، اوپن ای‌آی تحت پشتیبانی مایکروسافت روز چهارشنبه از جدیدترین نسخه دال‌ـ‌ئی (DALL-E)، موسوم به دال‌ـ‌ئی ۳، رونمایی کرد، که به کاربران امکان می‌دهد تصاویری تولید کنند که در مقایسه با سیستم‌های قبلی «ظرافت و جزئیاتش به میزان قابل‌ملاحظه‌ای بیشتر» است.

پژوهشگران اوپن ای‌آی با تلفیق قابلیت‌های دو ابزار هوش مصنوعی مولد مجزای این شرکت، ادعا می‌کنند که اکنون کاربران می‌توانند با هوش مصنوعی «ایده‌پردازی» کنند.

سم آلتمن، رئیس اوپن ای‌آی، مثال می‌زند که چطور از این عملکرد دوگانه می‌شود استفاده کرد، و می‌گوید این ابزار می‌تواند با چند فرمان متنی ساده، یک قصه شب کودکانه را بنویسد و تصویرگری کند.

سیستم‌های فعلی تبدیل متن به تصویر، مانند میدجرنی (Midjourney) یا دال‌ـ‌ئی ۲ اوپن ای‌آی، به‌دلیل ناتوانی در درک درخواست‌های خاص، فرمان‌های کاربران را اغلب اشتباه تفسیر می‌کنند.

این موضوع به ظهور مهندسان پرسش، که به خبرگان پرسش نیز معروف‌اند، منجر شده است، که سیستم را آموزش می‌‌دهند تا نتایج ابزارهای هوش مصنوعی مولد مانند چت جی‌پی‌تی و دال‌ـ‌ئی را بهینه‌سازی کنند. 

اوپن ای‌آی گفت: «مدل جدید تبدیل متن به تصویر ما، دال‌ـ‌ئی ۳، می‌تواند درخواست‌های متنوع را به تصاویری با نهایت جزئیات و دقت ترجمه کند.»

 




«دال‌ـ‌ئی ۳ به‌صورت بومی روی چت جی‌پی‌تی ساخته شده است، که به شما امکان می‌دهد از چت جی‌پی‌تی به‌عنوان شریک ایده‌پردازی و اصلاحگر فرمان‌ها استفاده کنید. فقط از چت جی‌پی‌تی آنچه مایلید ببینید را در هر قالبی، از یک جمله ساده گرفته تا پاراگرافی دقیق، بخواهید.»

جدیدترین نسخه دال‌ـ‌ئی فقط در دسترس کاربرانی خواهد بود که حق اشتراک می‌پردازند و در اکتبر، این به‌روزرسانی را با چت جی‌پی‌تی پلاس و چت جی‌پی‌تی اینترپرایز دریافت می‌کنند.

اوپن ای‌آی همچنین قابلیت‌های امنیتی بهسازی‌شده را به مولد تصویر هوش مصنوعی‌اش افزوده است، که به ادعای این شرکت، مانع خلق تصاویر مستهجن یا نفرت‌پراکن می‌شود.

این تمهیدهای حفاظتی نادیده گرفتن واژه‌های خاص و رد درخواست ترسیم چهره‌های سرشناس را شامل می‌شود.

پیش‌تر در ماه جاری، مصطفی سلیمان، از افراد پیشگام در حوزه هوش مصنوعی، هشدار داد که از هوش مصنوعی می‌شود سوءاستفاده کرد و احتمال دارد ویروس‌هایی ترکیبی تولید شود که قادرند همه‌گیری‌های جهانی به راه بیندازند.

او در پادکست «روزنوشت یک مدیرعامل» (The Diary of a CEO) گفت: «سیاه‌ترین سناریو این است که افراد با عوامل بیماری‌زا آزمایش خواهند کرد، عوامل بیماری‌زای ترکیبی مهندسی‌شده که ممکن است در نهایت به‌صورت تصادفی یا عمدی مسری‌تر یا مهلک‌تر شوند.»

«این‌جا است که به محدودسازی نیاز داریم. باید دسترسی به این ابزارها و اطلاعات روش انجام آن نوع آزمایش را محدود کنیم.»

این خبر را در ایران وب سازان مرجع وب و فناوری دنبال کنید

این مطلب از سایت ایتنا گردآوری شده است.

منبع: ایتنا

دکمه بازگشت به بالا