اخبار سایت

تلاش متا و اوپن‌ای‌آی برای جلوگیری از جا زدن تصاویر جعلی هوش مصنوعی به عنوان واقعی


این دو شرکت برچسب‌های – پنهان یا به شکلی دیگر- را اضافه می‌کنند که باید به افراد امکان بدهد منبع تصویر یا سایر محتواها را ردیابی کند.

اوپن ای‌آی ویژگی‌های جدید را به چت جی‌پی‌تی و دال-ای۳ (DALL-E3) [نسخه پیشرفته اوپن ای‌آی از هوش مصنوعی] می‌افزاید که برچسبی را در فراداده تصویر قرار می‌دهد که مشخص می‌کند با هوش مصنوعی ایجاد شده است. در این ویژگی از استاندارد سی۲پی‌ای (C2PA) استفاده خواهد شد و هدفش این است که بتوان اطلاعات بیشتری درمورد نحوه ساخت تصاویر روی آن‌ها قرار داد و شرکت‌های دوربین و سایرینی که ابزارهایی برای تولید تصویر می‌سازند نیز آن را پذیرفته‌اند.

اما اوپن ‌ای‌آی اشاره کرد که این برچسب «چه به‌صورت تصادفی یا عمدی به‌سادگی حذف می‌شود» و بنابراین ضمانتی وجود ندارد. مثلا بیشتر سایت‌های رسانه‌های اجتماعی آن ابرداده را حذف می‌کنند و می‌توان با عکس گرفتن از صفحه آن را به‌سادگی پاک کرد.

ابزارهای متا قرار است محتوای موجود در فیس‌بوک، اینستاگرام و تردز را که هوش مصنوعی تولید کرده شناسایی کرده و آن‌ها را برچسب‌گذاری کنند.  

این شرکت بزرگ رسانه‌های اجتماعی گفت که اکنون درحال ایجاد این قابلیت است و طی «ماه‌های پیش رو» و پیش از تعدادی از انتخابات‌های بزرگ جهانی در سال جاری آن را در سراسر بسترهای خود عرضه خواهد کرد.

 

متا هم‌اکنون روی تصاویری که با استفاده از هوش مصنوعی تولید شده برچسبی قرار می‌دهد، اما گفت قابلیت جدیدش امکان قرار دادن برچسب روی تصاویری را که هوش مصنوعی گوگل، اوپن ای‌آی، مایکروسافت، ادوب، میدجرنی و شاتراستاک تولید کرده فراهم می‌کند، این به‌منزله بخشی از تلاش در سطح تمام صنایع برای استفاده از «بهترین روش» و قرار دادن «نشانگرهای نامرئی» روی تصاویر و فراداده‌های آن برای کمک به شناسایی آن‌ها به‌عنوان تصاویر تولیدشده با هوش مصنوعی خواهد بود.

سر نیک کلگ، معاون سابق نخست‌وزیر بریتانیا که اکنون رئیس امور بین‌الملل متا است، توانایی احتمالی افراد شرور برای بهره‌برداری از تصاویر تولیدشده با استفاده از هوش مصنوعی به منظور انتشار اطلاعات نادرست را دلیلی مهم برای معرفی این ویژگی از طرف متا تایید کرد.

او گفت: «این کار اهمیتی ویژه دارد از این رو که احتمالا این فضا در سال‌های آینده روزبه‌روز به فضایی متخاصم تبدیل می‌شود.»  

«افراد و سازمان‌هایی که به‌عمد می‌خواهند افراد را با محتوای تولید هوش مصنوعی بفریبند، دنبال روش‌هایی برای دور زدن تدابیر امنیتی‌اند که برای شناسایی آن به کار گرفته شده است.»  

«در سراسر صنعت و به‌طور کل جامعه‌مان باید همواره به دنبال راه‌هایی باشیم تا یک گام پیش‌تر بمانیم.»

«در این فاصله، مهم است که افراد هنگام تعیین اینکه محتوایی با هوش مصنوعی تولیدشده یا نه چند چیز را درنظر بگیرند، مثلا بررسی کنند که آیا حساب منتشرکننده این محتوا معتبر است یا به دنبال جزئیاتی باشند که ممکن است غیرعادی به نظر برسد یا اینطور نشان بدهد.»

این خبر را در ایران وب سازان مرجع وب و فناوری دنبال کنید

این مطلب از سایت ایتنا گردآوری شده است.

منبع: ایتنا

دکمه بازگشت به بالا