استفاده از «چت‌جی‌پی‌تی» به عنوان درمانگر؛ آیا ایده خوبی است؟

تهران- ایرنا- تعداد فزاینده‌ای از مردم جهان از چت‌جی‌پی‌تی (ChatGPT) و دیگر ربات‌های مجهز به هوش مصنوعی (AI) به‌عنوان یک درمانگر استفاده می‌کنند که باعث شده است تا ایمنی این روش جدید مورد توجه کارشناسان قرار گیرد.

به گزارش روز سه شنبه ایرنا از بخش اسپانیایی‌زبان تارنمای نیوزویک، اگر چه هوش مصنوعی می‌تواند برای بازیابی اطلاعات و انجام پیش‌بینی‌ها مفید باشد، اما کاربرد آن در امر دشوار و حساس درمان، موضوعی است که احتمالاً تصورش را هم نمی‌کردیم.

چت‌جی‌پی‌تی، ۲۰۰ میلیون کاربر فعال ماهانه در سراسر جهان دارد و ۷۷ میلیون و ۲۰۰ نفر از این جمعیت، تنها در آمریکا از ابزار اوپن ای‌آی (OpenAI) استفاده می‌کنند. در آمریکای لاتین، برزیل با بیش از ۷۰ میلیون بازدیدکننده از چت‌جی‌پی‌تی بین ژانویه تا مارس ۲۰۲۳ (اوایل دی تا اوایل فروردین) پیشتاز است و کلمبیا و مکزیک با آمار حدود ۶۰ میلیون نفری در جایگاه‌های بعدی قرار دارند.

نیاز به مراقبت جامع، فراتر از چت‌جی‌پی‌تی به عنوان یک درمانگر

بر اساس این گزارش، جهان در حال حاضر با یک بحران بهداشت روانی مواجه است که نشانه بارز آن، افزایش قابل توجه استرس، اضطراب و افسردگی است. بر اساس گزارش سازمان جهانی بهداشت، از هر هشت نفر یک نفر در جهان (معادل ۹۷۰ میلیون نفر) از یک نوع اختلال روانی رنج می‌برد. شایع‌ترین آن‌ها اختلالات اضطرابی و افسردگی است که در سال ۲۰۲۰ به دلیل همه گیری کووید-۱۹ به طور قابل توجهی افزایش یافت. تخمین‌های اولیه نشان می‌دهد که تنها در یک سال، ۲۶ و ۲۸ درصد افزایش در اضطراب و اختلالات افسردگی اساسی ثبت شد.

اگرچه گزینه‌های پیشگیری و درمان موثر وجود دارد، اکثر افرادی که از اختلالات روانی رنج می‌برند به مراقبت و روش‌های درمانی موثر دسترسی ندارند. علاوه بر این، بسیاری از افراد از تبعیض و نقض حقوق بشر رنج می‌برند.

این افزایش مسائل مربوط به سلامت روان، نیاز به مراقبت جامع و دسترسی بیشتر را برجسته می‌کند اما هزینه بالای درمان سنتی در مقایسه با دسترسی رو به رشد به ابزارهای هوش مصنوعی، افراد بیشتری را به سمت استفاده از پلتفرم‌هایی مانند چت‌جی‌پی‌تی سوق می‌دهد تا از حمایت عاطفی برخوردار شوند.

درمانگر چت‌جی‌پی‌تی در مقابل هزینه‌های درمان واقعی

بر اساس این گزارش، در سال گذشته میلادی (۲۰۲۳)، هزینه متوسط ‌یک جلسه درمانی در آمریکا از ۱۰۰ تا ۲۰۰ دلار متغیر بود که برای بسیاری، به ویژه جوانان و نوجوانان هزینه بسیار بالایی بود. در مکزیک، قیمت یک جلسه به طور متوسط ‌از ۳۰۰ تا ۱۵۰۰ پزو متغیر است. این در حالی است که ابزارهای هوش مصنوعی معمولاً رایگان یا کم‌هزینه هستند، ۲۴ ساعته در دسترس بوده و یک جایگزین جذاب ارائه می‌دهند.

باوجود این جذابیت، متخصصان سلامت روان نسبت به این روند رو به رشد ابراز نگرانی کرده‌اند. ریچل گلدبرگ (Rachel Goldberg) روان درمانگر و بنیانگذار درمان راشل گلدبرگ در استودیو سیتی، کالیفرنیا به نیوزویک گفت: استفاده از هوش مصنوعی به عنوان جایگزینی برای درمان واقعی قابل مقایسه نیست.

وی افزود: در حالی که هوش مصنوعی می‌تواند حس کنجکاوی را برانگیزد و دیدگاه‌های جدیدی ارائه دهد اما محدودیت‌های قابل توجهی دارد. یکی از مهم‌ترین جنبه‌های درمان موفق، ارتباط بین درمانگر و بیمار است. تحقیقات نشان می‌دهد که این ارتباط انسانی مبنایی برای چگونگی عملکرد درمان برای کمک به رشد فرد است.

گلدبرگ هشدار داد که ارتباطات برای مراجعان ضروری است تا به اندازه کافی احساس امنیت کنند، تا بتوانند خود را کشف کنند و از طریق جلسات درمانی خود به رشد شخصی دست یابند.

وی خاطرنشان کرد: این نوع رشد نمی‌تواند توسط هوش مصنوعی حاصل شود، زیرا توانایی ایجاد ارتباطات واقعی انسانی را ندارد.

حمایت عاطفی

به نوشته نیوزویک، در حالی که هوش مصنوعی می‌تواند در ارائه دسترسی سریع به استراتژی‌های مقابله مفید باشد، دامنه آن محدود است. بدون ارتباط انسانی، بیشتر مردم احتمالاً علاقه خود را به تعامل بیشتر با او از دست خواهند داد.

گلدبرگ گفت: مراقبت و خدمت درمانی ناسازگار و نامناسب از سوی یک درمانگر می‌تواند مضر باشد و به احساس طرد شدن یا بی اعتمادی منجر شود و در مقابل، در حالی که هوش مصنوعی به شدت فاقد تماس شخصی است، خطر آسیب عاطفی مضاعف را که توجه ناسازگار انسان ایجاد می کند، ندارد.

به گفته این روان درمانگر، تفاوت هوش مصنوعی و درمان واقعی مانند مقایسه سیب با پرتقال است. مقایسه یک کتاب کار درمانی با هوش مصنوعی عادلانه‌تر خواهد بود زیرا در حال حاضر هوش مصنوعی فاقد توانایی ابراز همدلی و ارزیابی یک فرد به روشی معنادار است.

ست آیزنبرگ (Seth Eisenberg) رئیس و مدیر عامل بنیاد کاربردی عملی مهارت‌های ارتباط صمیمانه (PAIRS) و توسعه‌دهنده اپلیکیشن Pairs Yodi است که ابزارهای درمان شناختی رفتاری (CBT) را از طریق یک پلتفرم مبتنی بر هوش مصنوعی ارائه می‌کند. وی گفت: من این افتخار را داشتم که شاهد این باشم که چگونه فناوری چت‌جی‌پی‌تی می‌تواند به سلامت روان در مقیاس جهانی به عنوان یک درمانگر کمک کند. با توجه به اینکه بیش از ۲۰۰ هزار نفر از ۱۷۵ کشور و منطقه مختلف برنامه Yodi را بارگذاری کرده‌اند، واضح است که تقاضای قابل توجهی برای ابزارهای حمایت عاطفی در دسترس و فوری وجود دارد.

این کارآفرین سلامت روان، چندین مزیت و معایب استفاده از هوش مصنوعی را به عنوان ابزاری برای کسب حمایت عاطفی برجسته کرد. وی، دسترسی جهانی و در دسترس بودن فوری، ابزارها و تکنیک های ساختاریافته، ناشناس بودن و تعامل بدون قضاوت و پشتیبانی مقرون به صرفه را به عنوان مزایا برشمرد و گفت: برای افرادی که به دلیل موانع جغرافیایی یا مالی به درمان سنتی دسترسی ندارند، پلتفرم‌های هوش مصنوعی می‌توانند جایگزین ارزشمندی باشند.

فقدان تعامل انسانی

با این حال، آیزنبرگ همچنین اذعان کرد که هوش مصنوعی نمی‌تواند پیوند عاطفی عمیق و همدلی ناشی از تعامل با یک درمانگر انسانی آموزش‌دیده را ایجاد کند.

وی تاکید کرد: رابطه درمانی یک عنصر اساسی در درمان موثر است و اینجاست که هوش مصنوعی شکست می‌خورد. ابزارهای هوش مصنوعی برای ارائه پشتیبانی و راهنمایی اولیه عالی هستند، اما برای مقابله با بحران‌های جدی سلامت روان یا مسائل عاطفی پیچیده مجهز نیستند.

وی خاطرنشان کرد: مداخله‌های شخصی و درک عمیق‌تر ارائه شده توسط یک درمانگر آموزش‌دیده از قابلیت‌های فناوری هوش مصنوعی فعلی فراتر می‌رود.

به نوشته نیوزویک، هوش مصنوعی مولد که از مدل‌های زبانی بزرگ برای تولید متن استفاده می‌کند، می‌تواند پاسخ‌هایی را بر اساس زمینه ارائه‌شده تولید کند که گاهی اوقات کافی نیست و در نتیجه اطلاعات نادرست یا کاملا ساختگی ایجاد می‌شود. به طور خاص، یک ربات هوش مصنوعی نمی‌تواند زبان بدن یا حالت‌های چهره کاربر خود را شناسایی و قضاوت کند و نمی‌تواند به طور دقیق احساس یا ارائه خود را ارزیابی کند. نمونه‌ای از محدودیت‌های هوش مصنوعی در این زمینه در سال ۲۰۲۳ ظاهر شد، زمانی که یک مرد بلژیکی پس از تعامل با یک ربات هوش مصنوعی در اپلیکیشنی به نام Chai به طرز ناراحت‌کننده‌ای خودکشی کرد.

درمانگر چت‌جی‌پی‌تی در دسترس است، اما راه حل نیست

در حالی که ابزارهای هوش مصنوعی مزایای قابل توجهی را از نظر دسترسی و پشتیبانی ساختار یافته ارائه می‌دهند، اما نمی‌توانند جایگزین مراقبت شخصی و ارتباط عاطفی عمیقی شوند که یک درمانگر دارای مجوز ارائه می‌کند.

گلدبرگ و آیزنبرگ هر دو بر سر این مساله توافق نظر دارند که هوش مصنوعی می‌تواند به عنوان ابزار ارزشمندی برای دستیابی به سلامت روانی بهتر عمل کند، اما دسترسی افراد به طیف کامل حمایتی که ممکن است به آن نیاز داشته باشند، به ویژه برای مشکلات عاطفی پیچیده‌تر ضروری است.

به این ترتیب، شاید ایجاد تعادل بین استفاده از پیشرفت‌های تکنولوژیکی و حفظ عناصر غیرقابل جایگزین انسانی، کلیدی برای آینده هوش مصنوعی در حمایت از سلامت روان باشد.

اخبار مرتبط

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha