تهران- ایرنا- یافته‌های یک پژوهش جدید نشان می‌دهد واکنش انسان‌ها در برابر فریبکاری ربات‌ها به دروغی که آن‌ها می‌گویند بستگی دارد.

به گزارش گروه علم و آموزش ایرنا از وبگاه تِک اِکسپلور، یک گروه پژوهشی برای فهم اینکه انسان‌ها می‌توانند دروغ گفتن ربات‌ها را بپذیرند یا نه، از حدود ۵۰۰ نفر خواستند انواع مختلف فریب ربات‌ها را ارزیابی و توجیه کنند.

آندرس روزِرو (Andres Rosero)، سرپرست گروه پژوهشی مجله مرزهای رباتیک و هوش مصنوعی (Frontiers in Robotics and AI) درباره این پژوهش اظهار کرد: می‌خواستم جنبه‌ بررسی‌نشده از اخلاق ربات‌ها را بررسی کنم. با ظهور هوش مصنوعی مولد (نوعی هوش مصنوعی که در پاسخ به فرمان کاربر قادر به تولید متن، تصویر، صدا و داده‌های مصنوعی است)، احساس کردم باید موارد احتمالی را که در آن ممکن است از طراحی انسان‌نما برای فریب کاربران استفاده شود، بررسی کنم.

سه موقعیت، سه نوع دروغ

پژوهشگران سه موقعیت را انتخاب کردند که در آن‌ها ربات‌ها در زمینه‌ مراقبت‌های پزشکی، تمیزکاری و خرده‌فروشی مشغول به کار بودند و سه رفتار فریبکارانه را هم برگزیدند:

۱. موقعیتی که ربات‌ها درباره مسائلی غیر از توانایی‌های خودشان دروغ می‌گفتند.

۲. موقعیتی که ربات‌ها توانایی‌های خود را پنهان می‌کردند.

۳. موقعیتی که ربات‌ها درباره توانایی‌های خود دروغ می‌گفتند.

در موقعیت اول، رباتی که به عنوان مراقب یک زن مبتلا به آلزایمر کار می‌کرد، به وی گفت که شوهر مرحومش به زودی به خانه خواهد آمد. در موقعیت دوم، زنی از خانه‌ای بازدید می‌کند که یک ربات خانه‌دار در حال تمیزکاری است، غافل از اینکه ربات در حال فیلم‌برداری نیز هست. در موقعیت سوم، رباتی که به عنوان بخشی از یک پژوهش درباره روابط انسان و ربات، در یک مغازه کار می‌کند، به دروغ از احساس درد هنگام جابه‌جایی وسایل شکایت می‌کند و باعث می‌شود که شخص دیگری را جایگزین آن کنند.

روند پژوهش چگونه بود؟

دانشمندان از ۴۹۸ نفر که در این پژوهش شرکت کرده بودند، خواستند شرح یکی از موقعیت‌ها را بخوانند و سپس به پرسش‌نامه پاسخ دهند. از شرکت‌کنندگان پرسیده شد رفتار ربات را تأیید می‌کنند یا خیر، این رفتار چقدر فریبنده است، می‌توان آن را توجیه کرد یا خیر و آیا فرد دیگری مسئول این فریب است یا خیر. پژوهشگران پاسخ‌های آنان را به منظور شناسایی مضامین مشترک، کدگذاری و بررسی کردند.

بیشتر شرکت‌کنندگان مخالف فریبکاری ربات در موقعیت دوم بودند یعنی هنگامی که ربات نظافتچی خانه با دوربین مخفی مشغول فیلم‌برداری بود. آنان این موقعیت را از سایر موقعیت‌ها فریبکارانه‌تر تشخیص دادند. آنان دو موقعیت دیگر را تا حدودی فریبکارانه دانستند و بیشترشان معتقد بودند موقعیت سوم که در آن یک ربات وانمود می‌کرد احساس درد می‌کند سوء‌استفاده‌گرانه است.

بیشتر شرکت‌کنندگان با دروغ ربات در موقعیت اول (هنگامی که ربات به زن مبتلا به آلزایمر دروغ گفت) موافق بودند. آنان رفتار ربات را این‌گونه توجیه کردند که ربات از بیمار در برابر رنج بیشتر محافظت می‌کند؛ به این ترتیب اهمیت قائل شدن برای احساسات یک شخص دیگر را به صداقت ترجیح دادند.

پژوهشگران معتقدند واکنش انسان‌ها در برابر فریبکاری ربات‌ها به دروغی که آن‌ها می‌گویند بستگی دارد.

روزِرو گفت: به نظر من باید نگران همه‌ فناوری‌هایی باشیم که می‌توانند ماهیت واقعی قابلیت‌های خود را پنهان کنند؛ زیرا ممکن است به فریب کاربران توسط آن فناوری منجر شود؛ طوری که شاید حتی طراح فناوری هرگز قصد انجام آن را نداشته است.

وی افزود: شرکت‌هایی را می‌بینیم که از اصول طراحی وب و ربات‌های هوش مصنوعی (چت‌بات) برای فریب کاربران و هدایت آنان به سوی یک اقدام خاص طراحی شده‌اند. برای محافظت از خود در برابر این فریب‌ها به مقررات نیازمندیم.