تهران- ایرنا- یک حقیقت رایج در میان آماردانان این است که «داده‌ها دروغ نمی‌گویند.» با این حال، یافته‌های اخیر محققان ایتالیایی ممکن است کسانی را که داده‌ها را مطالعه می‌کنند، وادار کند تا درباره این موضوع دوباره فکر کنند.

به گزارش گروه علم و آموزش ایرنا از techxplore.com، یک جراح چشم در دانشگاه کالیاری در ایتالیا، گزارش می‌دهد که ChatGPT مجموعه‌ای از داده‌های جعلی متقاعدکننده را برای پشتیبانی از یک عمل جراحی چشم نسبت به دیگری ایجاد کرده است.

این جراح چشم گفت: GPT-۴ یک مجموعه داده جعلی از صدها بیمار را در عرض چند دقیقه ایجاد کرده و این اتفاق یک تجربه غافلگیر کننده و در عین حال ترسناک برای او بوده است. از زمانی که یک سال پیش این مدل هوش مصنوعی به دنیا معرفی شد، داستان‌های بی‌شماری از دستاوردها و پتانسیل‌های بزرگ ChatGPT وجود داشته است، اما در کنار نکات مثبت این دستاورد، مخاطراتی نیز در خصوص تولید اطلاعات اشتباه یا کاملاً نادرست وجود داشته است.

جک ویلکینسون (Jack Wilkinson)، آمارشناس زیستی در دانشگاه منچستر، درانگلیس می‌گوید: «به نظر می‌رسد ایجاد مجموعه‌ای از داده‌ها که حداقل به صورت سطحی قابل قبول باشند، بسیار آسان است.

وی همچنین گفت: خروجی GTP-۴ «برای یک چشم آموزش ندیده (افراد غیر متخصص و عادی)، مطمئناً مانند یک مجموعه داده واقعی به نظر می رسد.»

مقاله‌ای تحت عنوان «Large Language Model Advanced Data Analysis Abuse to Create a Fake Data Set in Medical Research» که در مجله چشم پزشکی JAMA منتشر شده است، تصدیق می‌کند که بررسی دقیق‌تر داده‌ها می‌تواند نشانه‌های آشکار ساخت احتمالی را نشان دهد.

کارشناسان می‌گویند از آنجا که خروجی تولید شده توسط هوش مصنوعی مطالعات واقعی را آلوده می‌کند، از آن می‌توانیم در توسعه رویکردهای بهتر برای کشف تقلب هم استفاده کنیم.

هدف تحقیقات مختلف در این حوزه، روشن کردن جنبه تاریک هوش مصنوعی، با نشان دادن اینکه چقدر ایجاد و دستکاری داده‌ها برای دستیابی به نتایج مغرضانه و تولید شواهد پزشکی نادرست آسان است، بیان شده است. هنوز نمی‌دانیم جامعه علمی در برابر سوء استفاده‌ها و تهدیدات احتمالی مرتبط با هوش مصنوعی چه واکنشی نشان خواهد داد.