تهران- ایرنا- ظهور سامانه‌های پیشرفته هوش مصنوعی می‌تواند روش تحقیق در علوم اجتماعی را دستخوش تغییر و تحول کند؛ این فناوری در کنار جنبه‌های مثبت و سازنده، برخی خطرات از جمله گسترس اطلاعات نادرست را نیز ممکن است به همراه داشته باشد.

به گزارش گروه علم و آموزش ایرنا از پایگاه خبری «کانورسیشن»، علوم اجتماعی برای رسیدن به فهم بهتر از افراد، گروه ها، فرهنگ ها و پویایی‌های آنها، بطور تاریخی به روش‌های تحقیق سنتی متکی بوده‌ است. این در حالی است که اکنون مدل‌های زبانی بزرگ بطور فزاینده‌ قادر به تقلید از پاسخ‌های انسانی می‌شوند و این فرصت‌هایی برای آزمودن فرضیه‌ها در مقیاسی بزرگتر و با سرعتی بسیار بیشتر را فراهم می‌کند. این ظرفیت در عین حال، پرسش‌هایی را در خصوص چگونگی کاربرد هوش مصنوعی برای تحقیقات علوم اجتماعی به منظور تضمین شفافیت و تکرارپذیری ایجاد می‌کند.

استفاده از هوش مصنوعی در تحقیقات

هوش مصنوعی به چندین شکل ممکن می‌تواند در تحقیقات حوزه علوم اجتماعی مورد استفاده قرار گیرد. سامانه‌های هوش مصنوعی بر خلاف افراد پژوهشگر می‌توانند بدون توقف کار کرده و ارزیابی‌های فوری از جامعه جهانی با شتاب بالا را فراهم سازند. هوش مصنوعی می‌تواند به عنوان یک دستیار پژوهشی عمل کند به این ترتیب که حجم بالایی از گفت‌وگوهای انسانی را از اینترنت مورد پردازش قرار داده و دیدگاه هایی در مورد روندهای اجتماعی و رفتارهای انسانی ارائه کند.

یک امکان دیگر این است که می‌توان از هوش مصنوعی به عنوان یک «عمل‌کننده» یا «بازیگر» در آزمایش های اجتماعی استفاده کرد. یک جامعه‌شناس می‌تواند از مدل‌های بزرگ زبانی برای شبیه‌سازی تعاملات اجتماعی بین افراد استفاده کند تا این مساله را مورد تحقیق قرار دهد که برخی خصوصیات خاص مانند آموخته‌های سیاسی، زمینه‌های قومیتی یا جنسیتی چگونه بر تعاملات آینده تاثیر خواهند گذاشت.

یکی از جنبه‌های جالب‌تر اینکه مدل‌های زبانی بزرگ می‌توانند به عنوان جانشینی برای افراد مشارکت‌کننده در مراحل اولیه جمع‌آوری داده عمل کنند. به عنوان مثال، یک دانشمند علوم اجتماعی می‌تواند از هوش مصنوعی برای آزمودن ایده‌هایی برای مداخلات به منظور بهبود تصمیم‌سازی استفاده کند. دانشمندان در ابتدا از هوش مصنوعی می‌خواهند که یک گروه جمعیتی هدف را شبیه‌سازی کند. سپس دانشمندان از هوش مصنوعی سوال خواهند کرد که یک مشارکت کننده از این گروه در یک سناریوی تصمیم‌سازی چگونه واکنش نشان خواهد داد و پس از آن از دیدگاه‌های حاصل از این شبیه‌سازی برای آزمودن امیدوارکننده‌ترین مداخلات استفاده خواهند کرد.

موانع پیش رو

هر چند ظرفیت بالقوه بالایی برای ایجاد تغییرات بنیادین در تحقیقات حوزه علوم اجتماعی وجود دارد اما همچنین موانعی هم بر سر این راه هست؛ روایت‌ها درباره تهدیدات ناشی از هوش مصنوعی می‌تواند یک مانع ایجاد کند. برخی از کارشناسان هشدار می‌دهند که هوش مصنوعی این پتانسیل را دارد که یک آینده ضدآرمان‌شهری (dystopian) ایجاد کند. چنین هشدارهایی ممکن است پایه و اساس درستی نداشته باشند یا حداقل زودهنگام باشند. بطور تاریخی، کارشناسان در مورد پیش‌بینی تغییرات اجتماعی، سابقه ضعیفی دارند.

هوش مصنوعی امروزی یک دانشمند نیست بلکه یک مدل ظریف ریاضیاتی است که برای تشخیص الگوهایی در داده‌ها و ارائه پیش‌بینی آموزش دیده است. با وجود شکل و شمایل انسانی پاسخ‌های ارائه شده از سوی مدل‌هایی مانند «چت‌جی‌پی‌تی»، این مدل‌های بزرگ زبانی جانشینی برای انسان نیستند. این مدل‌ها با حجم بالایی از تولیدات فرهنگی آموزش می‌بینند و در بهترین حالت نشان‌دهنده عقل جمعی انسان‌ها هستند و یک عامل هوشمند به شمار نمی‌روند. خطرات فوری ناشی از هوش مصنوعی ارتباط چندانی با شورش هوشمندانه علیه انسان ندارد بلکه درباره مسائل مهم دیگری است که ممکن است نادیده گرفته شوند.

تعصب و سوگیری یک نگرانی مهم است

یکی از نگرانی‌های اصلی در مورد کیفیت و گستره داده‌هایی است که برای آموزش مدل‌های هوش مصنوعی از جمله مدل‌های بزرگ زبانی استفاده می‌شوند. چنانچه هوش مصنوعی عمدتا با داده‌هایی از یک جامعه خاص مثلا افراد انگلیسی زبان از آمریکای شمالی، آموزش داده شوند، نتایج کار بطور ذاتی سوگیری به سمت دیدگاه‌های آن جامعه خواهد داشت. از این رو لازم است که اصل برابری و انصاف در داده‌های مورد استفاده برای آموزش مدل‌های هوش مصنوعی رعایت شود.

اهمیت سواد هوش مصنوعی

تهدید اطلاعات نادرست یکی دیگر از چالش‌های موجود است. سامانه‌های هوش مصنوعی برخی اوقات حقایق وهم‌آلود تولید می‌کنند؛ حرف‌ها و جملاتی که ظاهرا معتبر به نظر می‌رسند اما نادرست هستند. از آنجا که هوش مصنوعی مولد فاقد آگاهی است، چنین اوهامی را بدون هرگونه علامتی از تردید ابراز می‌کند. از سوی دیگر، افراد ممکن است اطلاعات به ظاهر مطمئن را به اطلاعات کمتر قطعی اما درست‌تر ترجیح دهند و این پویایی می‌تواند ناخواسته به گسترش اطلاعات غلط دامن بزند و موجب گمراهی پژوهشگران و جامعه شود.

از این رو مقوله «سواد هوش مصنوعی» (همانند سواد رسانه‌ای) حائز اهمیت است و دانشمندان حوزه علوم اجتماعی باید کاربران را در خصوص چگونگی استفاده از ابزارهای هوش مصنوعی و ارزیابی انتقادی خروجی‌های سامانه‌های هوش مصنوعی آموزش بدهند.

در پایان باید خاطرنشان کرد که هوش مصنوعی نه دشمن انسان است و نه ناجی بلکه فقط یک ابزار است. ارزش هوش مصنوعی در چگونگی استفاده از آن نهفته است. هوش مصنوعی این ظرفیت را دارد که آگاهی جمعی انسان‌ها را غنا بخشد اما در عین حال می‌تواند بر بی‌خِردی انسان بیافزاید!