هشدار انگلیس به پرستاران درباره استفاده از چتباتهای هوش مصنوعی
به گزارش ایتنا از ایرنا، یک مطالعه آزمایشی (پیلوت) توسط محققان در دانشگاه آکسفورد نشان داده است که برخی پرستاران این کشور برای تهیه طرح و برنامه مراقبتی از بیماران و سالمندان از چتباتهای هوش مصنوعی مولد مانند «چت جی پی تی» و «بارد» استفاده کرده اند.
دکتر «کارولین گرین» از محققان حوزه اخلاق هوش مصنوعی در دانشگاه آکسفورد میگوید که این مساله یک خطر بالقوه برای حریم خصوصی بیماران است. وی گفت: اگر شما هر نوع از دادههای خصوصی و شخصی را در داخل یک چتبات هوش مصنوعی مولد قرار دهید، آن دادهها برای آموزش دادن به مدل زبانی به کار میرود. آن دادههای شخصی ممکن است تولید شده و برای شخص دیگری افشا شود.
وی خاطرنشان کرد که پرستاران و مراقبان ممکن است با اطلاعات اشتباه یا سوگیرانه کار کنند و بطور ناخواسته موجب وارد شدن لطماتی شوند. همچنین یک طرح مراقبتی مبتنی بر هوش مصنوعی ممکن است استاندارد نباشد.
این کارشناس در عین حال گفت: هوش مصنوعی ممکن است مزایای بالقوهای هم داشته باشد اما در حال حاضر استفاده از آن را توصیه نمیکنم؛ هر چند سازمانهایی در حال کار برای ساختن وبسایتها و اپهایی هستند که دقیقا همین کار را انجام میدهند.
این در حالی است که هم اکنون نهادهای بهداشتی و مراقبتی از فناوریهای بر پایه مدل های زبانی بزرگ استفاده می کنند. هر چند افراد شاغل در صنایع خلاقانه درباره احتمال جایگزین شدن آنها با هوش مصنوعی نگرانی دارند، در بخش مراقبت های اجتماعی حدود ۱.۶ میلیون نفر مشغول به کار هستند و ۱۵۲ هزار فرصت شغلی وجود دارد. همچنین ۵.۷ میلیون نفر نیز بطور رایگان از اقوام و خویشان و دوستان و همسایگان خود مراقبت می کنند.
اما برخی از مدیران این حوزه بیم دارند که استفاده از فناوری هوش مصنوعی ممکن است موجب شکستن ناخواسته مقررات و از دست دادن مجوز کاری آنها شود. مدیران این حوزه تاکید می کنند تا زمانی که نهادهای تنظیم مقررات (رگولاتوری) رهنمودهای لازم در این زمینه را صادر نکنند، بسیاری از سازمانها هیچ کاری نخواهند کرد زیرا کار اشتباه تبعاتی خواهد داشت.
این مطلب از سایت ایتنا گردآوری شده است.
منبع: ایتنا