به گزارش گروه علم و آموزش ایرنا از تارنمای اخبار علمی ساینس دیلی، در حالی هوش مصنوعی به طور روزافزون واقع بینانه می شود، اعتماد ما به کسانی که با آنها ارتباط برقرار می کنیم ممکن است به مخاطره بیفتد.
در یک سناریو، یک کلاهبردار بالقوه که فکر می کند با یک پیرمرد تماس گرفته، درواقع به یک سامانه رایانه ای متصل می شود که از طریق حلقه های از پیش ضبط شده با او ارتباط برقرار می کند. فرد کلاهبردار زمان زیادی را صرف تلاش برای کلاهبرداری می کند و صبورانه به داستان های گیج کننده و تکراری پیرمرد گوش می دهد.
اسکار لیندوال، استاد ارتباطات دانشگاه گوتنبرگ در سوئد مشاهده کرد که اغلب زمان زیادی طول می کشد تا مردم متوجه شوند با یک سامانه فنی در حال تعامل هستند.
او با همکاری جوناس ایوارسون استاد انفورماتیک، مقالهای با عنوان ذهنهای بدگمان: مشکل اعتماد و عناصر مکالمهای به نگارش درآورد و در آن نحوه تفسیر افراد را از موقعیتهایی که یکی از طرفین ممکن است هوش مصنوعی باشند، بررسی کرد.
این مقاله پیامدهای منفی ایجاد سوء ظن نسبت به دیگران را ، مانند آسیبی که می تواند به روابط وارد کند، مورد توجه قرار داده است.
ایوارسون نمونه ای از یک رابطه عاشقانه را ارائه داد که در آن مسئله اعتماد به وجود می آید و به حسادت و افزایش تمایل به جستجوی شواهد فریبکاری می انجامد. نویسندگان این مقاله ادعا می کنند که ناتوانی در اعتماد کامل به نیات و هویت یک طرف گفتگو ممکن است به سوء ظن شدید بینجامد؛ حتی اگر دلیلی برای آن وجود نداشته باشد.
مطالعه آنها نشان داد که در جریان تعامل بین دو انسان، برخی رفتارها به عنوان نشانه های اینکه در واقع یکی از آنها ربات است، تعبیر می شود.
محققان پیشنهاد میکنند که چشمانداز یک طرح فراگیر باعث توسعه هوش مصنوعی با ویژگیهای فزاینده شبیه انسان میشود. در حالی که این موضوع ممکن است در برخی زمینه ها جذاب باشد، اما می تواند مشکل ساز هم باشد، به ویژه زمانی که معلوم نیست با چه کسی در ارتباط هستید.
ایوارسون این سوال را مطرح میکند که آیا هوش مصنوعی باید صداهایی شبیه به انسان داشته باشد، زیرا صدا حس صمیمیت ایجاد میکند و افراد براساس صدا برداشت خود را دارند.
در مورد فرد کلاهبردار بالقوه که با پیرمرد تماس گرفته بود، این کلاهبرداری بعد از مدت طولانی افشا می شود. لیندوال و ایوارسون این موضوع را به باورپذیری صدای انسان و این فرض که رفتار گیجکننده به دلیل سن فرد است، نسبت میدهند. هنگامی که یک هوش مصنوعی دارای صدا است، ویژگی هایی مانند جنسیت، سن و زمینه اقتصادی-اجتماعی را از آن استنباط می کنیم که تشخیص اینکه در حال تعامل با یک رایانه هستیم، دشوارتر می شود.
محققان پیشنهاد ابداع هوش مصنوعی با صداهای خوب و شیوا را می دهند که به وضوح ترکیبی و مصنوعی هستند و شفافیت را افزایش می دهند.
ارتباط با دیگران نه تنها شامل فریب، بلکه ایجاد رابطه و معناسازی مشترک است. تردید در مورد اینکه فرد با یک انسان صحبت می کند یا با رایانه، بر این جنبه از ارتباط تأثیر می گذارد. در حالی که این امر ممکن است در برخی شرایط، مانند درمان شناختی- رفتاری، مهم نباشد، بر سایر اشکال درمانی که به ارتباط انسانی بیشتری نیاز دارد، ممکن است تأثیر منفی بگذارند.
جوناس ایوارسون و اسکار لیندوال داده های موجود در شبکه اجتماعی یوتیوب را تجزیه و تحلیل کردند. آنها سه نوع گفتگو و واکنش و نظرات مخاطبان را مورد مطالعه قرار دادند. در نوع اول، یک ربات برای نوبت مو با یک فرد تماس می گیرد که برای فرد ناشناخته است. در نوع دوم، شخص به همین منظور با شخص دیگری تماس می گیرد. در نوع سوم، بازاریابان از راه دور به یک سامانه رایانه ای با گفتار از پیش ضبط شده، منتقل می شوند.
نظر شما