گاف امنیتی کارمندان سامسونگ – ایسنا
سه کارمند سامسونگ در زمان استفاده از ربات چت هوش مصنوعی چتجیپیتی، ناخواسته اطلاعات محرمانه این شرکت را افشا کردند.
به گزارش ایسنا، چتجیپیتی ممکن است در ظاهر ابزاری به نظر برسد که میتواند برای مجموعهای از وظایف کاری مفید باشد. اما قبل از این که از این ربات چت بخواهید یادداشتهای مهم را خلاصه سازی کند یا کار شما را از نظر خطا بررسی کند، بهتر است به یاد داشته باشید که هر مطلبی که با چتجیپیتی به اشتراک میگذارید، میتواند برای آموزش سیستم استفاده شود و شاید حتی در پاسخهایش به سایر کاربران ظاهر شود. این موضوعی است که احتمالا تعدادی از کارمندان سامسونگ باید قبل از این که اطلاعات محرمانه خود را با این ابزار هوش مصنوعی به اشتراک بگذارند، اطلاع میداشتند.
طبق گزارش اکونومیک کوریا، اندکی پس از این که واحد نیمه رسانای سامسونگ به مهندسان اجازه داد از چتجیپیتی استفاده کنند، کارکنان حداقل در سه مورد، اطلاعات محرمانه را در اختیار این ابزار قرار دادند. یکی از کارمندان ظاهرا از چتجیپیتی خواست کد منبع پایگاه داده حساس را برای خطا چک کند، کارمند دیگری بهینه سازی کد را درخواست کرد و سومی، یک جلسه ضبط شده را به چتجیپیتی ارسال کرد و از این ابزار خواست جزئیات این جلسه را تولید کند.
گزارشها نشان میدهد سامسونگ پس از اطلاع از اشتباههای امنیتی، با محدود کردن میزان استفاده کارمندان از چتجیپیتی، میزان خطاهای آینده را محدود کند. همچنین گفته میشود که این شرکت سرگرم تحقیق از سه کارمند مورد بحث و ساخت ربات چت خود برای جلوگیری از وقوع خطاهای امنیتی مشابه است.
بر اساس گزارش وب سایت انگجت، در سیاست داده چتجیپیتی تاکید شده است که از درخواستهای کاربران برای آموزش مدلهای خود استفاده میکند مگر این که کاربران به صراحت با چنین چیزی مخالفت کنند. شرکت OpenAI که سازنده چتجیپیتی است، از کاربران خواسته است اطلاعات محرمانه خود را در مکالمات با چتجیپیتی به اشتراک نگذارند، زیرا قادر نیست درخواستهای خاصی را از تاریخچه شما حذف کند. تنها راه خلاصی از اطلاعات قابل شناسایی شخصی در چتجیپیتی، حذف حساب کاربری است که این فرآیند ممکن است حداکثر چهار هفته طول بکشد.
انتهای پیام
این خبر را در ایران وب سازان مرجع وب و فناوری دنبال کنید
منبع:ایسنا