تهران- ایرنا- روند توسعه هوش مصنوعی به شکلی است که می‌تواند امکان فرار سیاستمداران از پاسخگویی برابر ادعاهای جنجالی یا ویدئوهای نامناسبی را که از آن‌ها منتشر شده‌ مهیا سازد و ادعا کنند که این محتواها جعلی بوده است.

در مورد پیامدهای مثبت فناوری‌های نو به ویژه هوش مصنوعی تاکنون نوشته‌های متعددی منتشر شده‌است اما در دنیای واقعی شاهد انتشار اخباری همچون صدور فرمان‌های محدودکننده دولت‌ها بر هوش مصنوعی هستیم. در ادامه به بررسی بیشتر دلایل این سیاست‌ها می‌پردازیم.

استفاده از هوش مصنوعی در عرصه سیاست هنوز در مراحل اولیه خود به سر می‌برد اما ظرفیت تاثیرگذاری بر نحوه شکل‌گیری سیاست‌ها را دارد

در سال ۲۰۲۳، هوش مصنوعی (AI) وارد عرصه سیاست شد. ماه آوریل سال گذشته میلادی بود که «جو بایدن» به طور رسمی مبارزات انتخاباتی خود برای ورود دوباره به کاخ سفید را آغاز کرد. در همان روز، کمیته ملی جمهوری‌خواهان (RNC) با انتشار یک کلیپ ۳۰ ثانیه‌ای به او پاسخ داد. این کلیپ تصویری تیره و تار از چهار سال آینده با ریاست‌جمهوری بایدن ارائه می‌داد: افزایش جرم، مرزهای رها شده، جنگ با چین و فروپاشی اقتصادی.

این آگهی تبلیغاتی اولین مورد از نوع خود بود که تصاویر آن را به طور کامل هوش مصنوعی ساخته بود. کمیته ملی جمهوری‌خواهان در مورد استفاده از هوش مصنوعی در این کلیپ صراحت داشت اما این تولید هوش مصنوعی نگرانی‌هایی را در مورد پیامدهای بالقوه آن بر دموکراسی ایجاد کرد.

برخی از کارشناسان معتقدند هوش مصنوعی می‌تواند به طور گسترده برای انتشار اطلاعات نادرست و گمراه‌کننده استفاده شود. در ژانویه ۲۰۲۳، یک ویدئو دیپ‌فیک (Deepfake) در توییتر منتشر شد که نشان می‌داد بایدن در حال اعلام بازگشت خدمت اجباری و فرستادن آمریکایی‌ها برای جنگ در اوکراین است.

واکنش شبکه‌های اجتماعی و احزاب آمریکا به گسترش هوش مصنوعی

استفاده از هوش مصنوعی در عرصه سیاست هنوز در مراحل اولیه خود به سر می‌برد اما ظرفیت تاثیرگذاری بر نحوه شکل‌گیری سیاست‌ها را دارد. از دید بسیاری از ناظران، مهم است که قوانین و مقرراتی برای استفاده از هوش مصنوعی در سیاست وضع شود تا از سوء‌استفاده از آن برای انتشار اطلاعات نادرست و گمراه‌کننده جلوگیری شود.

برخی شبکه‌های اجتماعی در حال مقابله با محتوای تولیدی هوش مصنوعی و دیپ‌‍فیک‌ها (جعل عمیق) هستند اما در ادغام این قوانین با سیاست‌های موجود در مورد محتوای سیاسی با مشکل مواجه شده‌اند.

برخی شبکه‌های اجتماعی در حال مقابله با محتوای تولیدی هوش مصنوعی و دیپ‌‍فیک‌ها هستند اما در ادغام این قوانین با سیاست‌های موجود در مورد محتوای سیاسی با مشکل مواجه شده‌اند

متا مالک فیس‌بوک، اینستاگرام و واتساپ، استفاده از دیپ‌فیک را در پلتفرم‌های خود ممنوع کرده است اما همچنان به سیاست عدم بررسی صحت‌سنجی سیاستمداران پایبند است. این یعنی سیاستمداران می‌توانند از دیپ‌فیک برای انتشار اخبار جعلی یا تبلیغات گمراه‌کننده استفاده کنند بدون اینکه پلتفرم‌های رسانه‌های اجتماعی آنها را حذف کنند.

تیک‌تاک پلتفرم اشتراک‌گذاری ویدئو هم استفاده افراد عادی از جعل عمیق را به طور کامل ممنوع کرده است اما برای شخصیت‌های معروف، فقط در صورتی که به طور خاص محصولاتی را تایید کنند یا قوانین دیگر برنامه مانند پرهیز از ترویج نفرت‌پراکنی را نقض کنند، ممنوع است. به عبارتی تیک تاک دیپ‌فیک‌هایی را که برای اهداف آموزشی یا هنری استفاده می‌شوند، مجاز می‌داند.

در پاسخ به تبلیغات دیپ‌فیک، کمیته ملی جمهوری‌خواهان در سال ۲۰۲۴ قانون «واقعیت در تبلیغات سیاسی» را مطرح کرد. این قانون، شفافیت و افشاگری را برای هرگونه استفاده از محتوای تولیدشده از سوی هوش مصنوعی را در تبلیغات سیاسی الزامی می‌کند.

دولت بایدن نیز اوایل ماه جاری مدیران عامل شرکت‌های فناوری را در کاخ سفید پذیرفت و برنامه‌ای عملیاتی برای «ترویج نوآوری مسئولانه هوش مصنوعی» منتشر کرد. این برنامه شامل ایجاد یک چارچوب نظارتی برای هوش مصنوعی و سرمایه‌گذاری در تحقیق و توسعه هوش مصنوعی، «به‌شیوه‌ای مسئولانه» است.

نمونه‌ای از تصاویر ساخته‌شده با هوش مصنوعی در مورد رقابت‌های سیاسی آمریکا

از سوی دیگر کمیته فرعی موسوم به حریم خصوصی، فناوری و قانون در مجلس سنا جلسه‌هایی به منظور نظارت بر فناوری هوش مصنوعی برگزار کرده است. این کمیته در حال بررسی راه‌هایی است برای اطمینان از اینکه هوش مصنوعی برای اهداف مثبت استفاده می‌شود و از سوء‌استفاده از آن جلوگیری به عمل می‌آید.

بر اساس برخی تحقیقات، استفاده از جعل عمیق و فناوری‌های مرتبط به احتمال زیاد علیه گروه‌های آسیب‌پذیر در جامعه از جمله زنان یا افراد رنگین‌پوست که برای مناصب دولتی نامزد می‌شوند، مورد سوءاستفاده قرار خواهد گرفت

چهار تهدید عمده پیش روی عرصه سیاست

با وجود آنچه گفته شد، بسیاری از افراد از ناکافی بودن اقدامات دولت برابر تهدیدات بالقوه هوش مصنوعی ناخشنودند. با شروع دور جدید رقابت‌های انتخاباتی و ورود هوش مصنوعی به حیطه شخصی سیاستمداران، این موضوع می‌تواند آتش بحث‌ها و اختلافات را روشن کند.

در این زمینه باید به تهدیدهای زیر برای عرصه سیاست اشاره کرد:

چهره‌های جعلی تهدید جدی برای تبلیغات سیاسی

متخصصان امنیتی با رویکردی اخلاقی نگرانند که فناوری‌های پیشرفته مانند دیپ‌فیک و مدل‌های یادگیری عمیق (Large Learning Models) بتوانند به سلاح‌های قدرتمندی در دستان تبلیغاتچی‌های سیاسی تبدیل شوند.

سوابق تاریک: از دستکاری عکس تا جعل ویدئو

حتی بدون فناوری‌های جدید، تبلیغات سیاسی سابقه‌ای طولانی در استفاده از روش‌های نادرست برای تاثیرگذاری بر رای‌دهندگان داشته‌اند. به عنوان مثال، در سال ۲۰۱۵ محققان متوجه شدند که ستاد انتخاباتی «جان مک‌کین» (سناتور جمهوریخواه) در کلیپ‌های تبلیغاتی خود از تصاویری از «باراک اوباما» استفاده کرده بود که به نظر می‌رسید دستکاری شده‌اند تا رنگ پوست او تیره‌تر به نظر برسد.

آسیب‌پذیرترین‌ها در خطر

تحقیقات نشان می‌دهد که استفاده از جعل عمیق و فناوری‌های مرتبط به احتمال زیاد علیه گروه‌های آسیب‌پذیر در جامعه از جمله زنان یا افراد رنگین‌پوست که برای مناصب دولتی نامزد می‌شوند، مورد سوءاستفاده قرار خواهد گرفت. به عنوان مثال، یک گزارش در سال ۲۰۲۰ نشان داد که نامزدهای زن رنگین‌پوست در انتخابات کنگره آمریکا دو برابر بیشتر از سایر نامزدها هدف کمپین‌های اطلاعات نادرست آنلاین قرار گرفته‌اند.

در برخی موارد، این حملات شامل استفاده از تصاویر و ویدئوهای جعلی جنسی‌شده بوده است. این تکنیک‌ها نه تنها می‌توانند به اعتبار و شهرت افراد آسیب بزنند، بلکه می‌توانند باعث ایجاد ترس و ناامنی در قربانیان شوند.

حتی بدون فناوری‌های جدید، تبلیغات سیاسی سابقه‌ای طولانی در استفاده از روش‌های نادرست برای تاثیرگذاری بر رای‌دهندگان داشته‌ است. به عنوان مثال، در سال ۲۰۱۵ محققان متوجه شدند که ستاد انتخاباتی «جان مک‌کین» سناتور جمهوریخواه در کلیپ‌های تبلیغاتی خود تصاویر «باراک اوباما» را دستکاری کرده تا رنگ پوست او تیره‌تر به نظر برسد

فرار از پاسخگویی

یکی دیگر از خطرهای احتمالی استفاده از جعل عمیق در تبلیغات سیاسی، چیزی است که محققان آن را «سود سفته‌بازان» (Liar’s Dividend) می‌نامند. با پیشرفت این فناوری، تولید ویدئوهای جعلی به قدری واقع‌گرایانه می‌شود که ممکن است تشخیص آن‌ها از واقعیت برای مردم عادی دشوار باشد. این وضع می‌تواند به سیاستمداران این امکان را بدهد که از پاسخگویی در برابر ادعاهای جنجالی یا ویدئوهای نامناسبی که از آن‌ها منتشر شده‌است، فرار کنند و ادعا کنند که این محتوا جعلی بوده است.

راه‌هایی برای کاهش آسیب‌های هوش مصنوعی

مقابله با استفاده از جعل عمیق و فناوری‌های مشابه در تبلیغات سیاسی یک چالش بزرگ است. سرفصل مهم‌ترین اقداماتی که می‌توان برای مقابله با این تهدید انجام داد، عبارتند از:

افزایش آگاهی عمومی در مورد خطرات جعل عمیق

توسعه فناوری‌های تشخیص جعلی بودن محتوا

اصلاح قوانین تبلیغات سیاسی برای ممنوعیت استفاده از روش‌های گمراه‌کننده

حمایت از قربانیان حملات مبتنی بر جعل عمیق

با در نظر گرفتن خطرات بالقوه‌ای که جعل عمیق در تبلیغات سیاسی ایجاد می‌کند، مهم است که اقدامات پیشگیرانه‌ای برای مقابله با این تهدید اتخاذ شود. با اتخاذ تدابیر مناسب، می‌توان اطمینان حاصل کرد که انتخابات بر اساس اطلاعات دقیق و قابل اعتماد برگزار و از تاثیرگذاری نامشروع بر رأی‌دهندگان جلوگیری شود.

فناوری‌های دیپ‌فیک و یادگیری عمیق می‌توانند ابزارهای قدرتمندی برای تبلیغات سیاسی باشند. با این حال، استفاده از این فناوری‌ها می‌تواند خطرات مختلفی را به همراه آورد. بنابراین، مهم است که مردم و سیاستمداران از این خطرات آگاه باشند و برای مقابله با آنها اقداماتی انجام دهند.