تهران- ایرنا- کارشناسان می‌گویند هوش مصنوعی مولد، با توجه به ظرفیت‌هایی که دارد، می‌تواند تهدیدی بر ورودی و خروجی رخدادهای اجتماعی_سیاسی از جمله «انتخابات» باشد. انتشار بیش از ۳۰ هزار مقاله در مورد فرصت‌ها و تهدیدهای هوش مصنوعی در وبسایت گوگل حاکی از اهمیت این موضوع برای اندیشمندان در کشورهای مختلف است.

تاثیر اکوسیستم آنلاین در شکل دهی گفتمان سیاسی- اجتماعی

تأثیر اکوسیستم آنلاین در شکل‌دهی گفتمان درون و برون افراد و جوامع به ویژه گفتمان سیاسی به خوبی مستند شده است. کارشناسان می‌گویند با گستردگی هوش مصنوعی چالشی جدید در سال انتخاباتی ۲۰۲۴ در جهان که قریب به نیمی از مردم جهان صندوق‌های رای را تجربه می کنند، وجود دارد.

دراین میان یکی از مهمترین فاکتورها و عوامل موثر بر تقویت یا تضعیف گفتمان واحد در هر جامعه‌ای پس از شبکه‌های اجتماعی، «هوش مصنوعی مولد» است.
این فناوری پیشرفته تصاویر، ویدئوها، صداها یا متن‌های واقعی بر اساس درخواست های کاربران را ایجاد می‌کند که مخاطبان نمی‌توانند نمونه مصنوعی آن را از اصلی تشخیص دهند. بنابراین، امکان بهره‌برداری‌های بالقوه از این فناوری در زمینه‌های مختلف سیاسی، اقتصادی و اجتماعی سبب شده که کارشناسان در مورد تاثیر احتمالی اما مخرب این کلاس از فناوری‌های پیشرفته به سیستم‌های سیاسی و ملت-دولت‌ها هشدار دهند.
 


کارشناسان این عرصه می‌گویند: تاثیر تحول آفرین هوش مصنوعی مولد بر فضای اطلاعات در جوامع دارای دو وجه روشن و تاریک است . به این معنا که این گروه از فناوری‌ها به طور اجتناب ناپذیری دارای آثار مثبت و منفی هستند که توانمندی آن‌ها در تولید محتوای دستکاری شده و غیرواقعی، تهدیدی برای گفتمان دموکراتیک و یکپارچگی در عرصه‌های اجتماعی- سیاسی و به ویژه فضای انتخاباتی کشورها محسوب می‌شود.

از این رو بسیاری از کشورها سعی کرده‌اند تا با استفاده از نخبگان عرصه فناوری‌های هوشمند، فرصت‌ها و تهدیدات این حوزه را شناسایی و برای آن چاره‌اندیشی کنند که این موضوع خود نشان دهنده پیشرفت در جهت مدیریت یک موضوع پیچیده در طول یک سال انتخابات حساس در سراسر جهان است.

انتخاباتی‌ترین سال تاریخ

سال ۲۰۲۴، رکورد دار تاریخ در تعداد انتخابات در کشورهای جهان است. قرار است در این سال دستکم ۶۰ مورد انتخابات درسراسر جهان برگزار شود که نتایج برخی از موارد بازتاب‌های جهانی خواهد داشت. در مجموع، این کشورها تقریبا نیمی از جمعیت جهان و افزون بر۴۲ درصد از تولید ناخالص داخلی جهانی را در خود جای داده اند.

در سال ۲۰۲۴ که قرار است نیمی از مردم جهان صندوق‌های رای را تجربه کنند ، اکوسیستم آنلاین و فناوری‌های مرتبط با آن از جمله هوش مصنوعی مولد، در شکل دهی خطوط کمپین‌های انتخاباتی و رای‌گیری‌های آنلاین نقش مهمی ایفا می‌کنند نکته مهم این است که مانند انتخابات گذشته، اکوسیستم آنلاین، در شکل‌دهی خطوط کمپین‌های انتخاباتی و حتی رای گیری‌های آنلاین نقش مهمی ایفا می‌کند.

خروجی های هوش مصنوعی مولد، نزدیک به یک دهه است که به طور پیوسته در حال بهبود و نوآوری‌های متفاوت هستند. با این حال، پس از راه اندازی ChatGPT در نوامبر ۲۰۲۲، به میزان قابل توجهی هراس جهانی از ایجاد و ارائه اطلاعاتی نادرست یا دستکاری اطلاعات شدت گرفت.
"کابوس اطلاعات نادرست" در سال ۲۰۲۴ با تسریع در فناوری‌های قادر به تولید اطلاعات نادرست رقم خورده و کفه فرصت این فناوری‌ها را به سمت تهدید پیش برده است.

اندیشکده بروکینگز، در مورد انواع تهدیدات هوش مصنوعی بر رخدادهای اجتماعی و سیاسی و انتخابات آورده است: این سطح از فناوری‌ها برای تسریع، بهبود و کاهش دادن هزینه عملیات اطلاعاتی موجود که برای ایجاد ادراک و اجماع در مورد مسائل سیاسی، تضعیف واکنش دولت، تحت تأثیر قرار دادن افکار عمومی، ایجاد همدلی گسترده یا تشدید اختلافات، از کار انداختن یا فریب رأی دهندگان و تضعیف اعتماد در فرآیندهای انتخاباتی طراحی شده‌اند.

هوش مصنوعی مولد، چیست؟

هوش مصنوعی مولد Generative AI، کلاسی از هوش مصنوعی است که ورودی اطلاعات ارائه شده توسط کاربر را از طریق یک مدل از پیش آموزش دیده اجرا می‌کند و مجموعه‌ای از خروجی‌های تولید شده هدفمند و مورد انتظار را ارائه می‌دهد.
این مولدهای پیشرفته با استفاده از ارتباط‌های پیچیده‌تر و بیشتر بین الگوهای ارائه شده قادر هستند تصاویر، متن، ویدئو، صدا یا محتواهای مورد نظر را به صورت بسیار دقیق و کاملا شبیه نمونه اصلی تولید کنند.

طبق گزارش‌های رسانه‌ای، ChatGPT به تنهایی دو ماه پس از راه اندازی در نوامبر ۲۰۲۲ بیش از ۱۰۰ میلیون کاربر داشت

برای مثال، ChatGPT به عنوان یک ربات چت تنظیم شد، در حالی که Copilot برای تولید کد به خوبی تنظیم شده و DALL-E۲ برای خروجی تصاویر مد نظر کاربری لازم را دریافت کرده است.

طبق گزارش‌های رسانه‌ای، ChatGPT به تنهایی دو ماه پس از راه اندازی در نوامبر ۲۰۲۲ بیش از ۱۰۰ میلیون کاربر داشت.

از زمان راه‌اندازی ChatGPT، بسیاری از نظرات بر پتانسیل محتوای تولید شده برای برهم زدن انتخابات دموکراتیک از طریق توربوشارژ کردن تولید اطلاعات ساختگی مطرح شده‌اند.
این خطر آن گونه برای کشورهای مختلف احساس شده که در طول سال گذشته، حدود ۳۰ هزار مقاله خبری نمایه شده به زبان‌های مختلف در Google News بر این موضوع متمرکز شده است که چگونه ابزارهای هوش مصنوعی مولد ممکن است بر انتخابات آینده تأثیر بگذارند.

مخالفان : در توانمندی هوش مصنوعی اغراق شده است

در این میان، برخی از کارشناسان نیز تغییر موثر و بالقوه هوش مصنوعی مولد را به کلی در جهت‌گیری رخدادهای اجتماعی - سیاسی رد کرده‌اند.

برخی از کارشناسان نیز تأثیر تغییرپذیر و بالقوه هوش مصنوعی مولد را به کلی در رخدادهای اجتماعی - سیاسی رد کرده‌اند آن‌ها این استدلال را مطرح می‌کنند که به دلیل تنوع کانال‌های توزیع محتوا، فقدان دسترسی محقق به داده‌ها و چالش فزاینده شناسایی محتوای تولید شده، ارزیابی اینکه محتوای تولید شده چقدر در رسانه‌های اجتماعی برای انتشار اطلاعات گمراه‌کننده به اشتراک گذاشته می‌شود، دشوار است. با این حال، راه‌هایی برای مشاهده اهمیت آن در گفت‌وگوهای گسترده‌تر پیرامون یکپارچگی اطلاعات وجود دارد، حتی اگر این نوع ارزیابی به دور از جامعیت باشد.

برای مثال، شبکه اجتماعی X یا توئیتر سابق به کاربران واجد شرایط خود، اجازه داده است تا شفاف‌سازی اطلاعات را در قالب «یادداشت اجتماعی» به پست‌هایی که به نظر گمراه‌کننده می‌رسد، اضافه کنند.
یادداشت‌هایی که به عنوان «یادداشت‌های مفید» رتبه بندی شده و در کنار این گونه‌ پست‌ها به عنوان زمینه اضافی نمایش داده می شوند و در شرایط بحرانی، داده‌های برنامه یادداشت‌های اجتماعی در دسترس عموم قرار می‌گیرد، که شامل متن‌هایی است که کاربران برای پست‌های پرچم‌دار پیشنهاد کرده‌اند.
نکته حائز اهمیت این است که متخصصان حوزه سایبر در اندیشکده بروکینگز تاکید کرده‌اند که با بررسی این داده‌ها، متوجه شده‌اند که از زمان راه‌اندازی ChatGPT، تعداد یادداشت‌های اجتماعی که اصطلاحات مرتبط با هوش مصنوعی را ذکر می‌کنند، در طول زمان افزایش یافته است.

پلتفرم X از مهر ماه امسال حتی اقدام به به روزرسانی جدیدی در بخش یادداشت‌های اجتماعی (Community Notes) خود کرد تا توانمندی اصلاح اطلاعات نادرست در این شبکه افزایش یابد.
در جدول ذیل : تعداد یادداشت‌های اجتماعی در روز که اصطلاحات مرتبط با هوش مصنوعی را مورد بحث و ذکر قرار می‌دهند، در طول زمان افزایش یافته است، اما این موضوع همچنان در درصد کمی از تمام یادداشت‌های نوشته شده وجود دارد.

توجه: اصطلاحات مرتبط با هوش مصنوعی شامل گزینه‌هایی مانند جعلی ، گپ gpt، chatgpt، chatGPT، midjourney، dalle، deepfake، deep fake، ChatGPT، AI و ... Midjourney و DallE است. همه داده‌ها نشان می‌دهد بعد از آمدن CHAT GPT استفاده از هوش مصنوعی بیشتر شده است.

دیپ فیک یا جعل عمیق، یک نوع هوش مصنوعی است که برای ایجاد تصاویر متقاعد کننده، فریب‌های صوتی و ویدئویی استفاده می‌شود و نمونه‌ای از یادگیری عمیق و جعلی استدر تعریف «دیپ فیک یا جعل عمیق Deepfake» گفته شده است؛ یک نوع هوش مصنوعی است که برای ایجاد تصاویر متقاعد کننده، فریب‌های صوتی و ویدئویی استفاده می‌شود. اصطلاح دیپ فیک یا جعل عمیق، هم فناوری و هم محتوای جعلی ناشی از آن را توصیف می‌کند و نمونه‌ای از یادگیری عمیق و جعلی است.

واکنش کشورها

از آنجا که فرصت و تهدیدات هوش مصنوعی مورد تایید تمامی کشورهای قرار گرفته است . بنابراین کشورهای مدعی اجرای دموکراسی قبل از برگزاری انتخابات به شیوه استفاده بهینه و درعین حال مقابله و پاسخگویی به چالش‌ها در این عرصه می‌اندیشند.
این کشورها باید طیف وسیعی از مداخلات را ارزیابی کنند؛ از قوانین جدید یا به روز شده تا نگرانی های خاص انتخابات، مانند انتشار محتوای جعلی اطلاعاتی که نامزدهای انتخاباتی را به گونه‌ای مصنوعی تصویر می‌کشد تا تلاش‌های مستمر برای آموزش رای دهندگان و شهروندان در شناسایی پیام‌ها و محتواهای فیک یا جعلی.

همچنین شرکت‌های فناوری باید راه‌حل‌های فنی کاملی در این عرصه با سرمایه‌گذاری در ابزارهای جدید برای شناسایی اطلاعات جعلی‌، ارائه کنند و در این زمینه نقشی محوری داشته باشند.
اما کارشناسان بروکینگز می‌گویند: بعید است که این مداخلات به طور کامل به چالش هایی که هوش مصنوعی مولد برای همبستگی اطلاعات ایجاد می‌کند، رسیدگی کند. با این حال، آن‌ها گام‌های مثبتی برای بهتر مدیریت شدن‌ چالشی به ظاهر غیرقابل حل در این سال انتخاباتی، تاریخی برداشته‌اند.

نمونه‌های دخالت هوش مصنوعی و جعل عمیق
در سپتامبر ۲۰۲۳، مداخله سیاسی مبتنی بر هوش مصنوعی، انتخابات پارلمانی اسلواکی را به تعویق انداخت. دو روز قبل از اینکه رای دهندگان آرای خود را در انتخاباتی با پیامدهایی برای مسیر کمک نظامی اسلواکی به اوکراین و حمایت از ناتو به صندوق بیاندازند، یک کلیپ صوتی که دارای نشانه‌های محتوای تولید شده اما مصنوعی بود به طور گسترده در رسانه‌های اجتماعی این کشور پخش شد.
این ویدئو ظاهراً صدای «میکال شیمچکا» رهبر حزب مترقی اسلواکی طرفدار ناتو و روزنامه‌نگار روزنامه Denník N با محتوای راه‌های دستکاری در انتخابات و خرید رای از جمعیت اقلیت این کشور بود. اگرچه این صدا از ابتدا مشکوک به نظر می رسید، اما هزاران نفر از جمله یکی از اعضای سابق پارلمان از حزب اپوزیسیون این ویدئو را در رسانه های اجتماعی به اشتراک گذاشتند.

در این فایل صوتی، فردی که به نظر می‌آمد رهبر «حزب مترقی» اسلواکی باشد، طرحی را برای تقلب در انتخابات ارائه و توضیح داد که بخشی از آن شامل پرداخت رشوه بود. دو هفته پس از این اتفاق، رسوایی سیاسی دیگری جنجال به پا کرد؛ یک فایل صوتی در شبکه ایکس (توئیتر سابق) منتشر شد که در آن رهبر حزب کارگر بریتانیا ‌در حال انتقاد از یک کارمند با استفاده از الفاظ رکیک است.

مدتی بعد،‌ هر دو کلیپ به عنوان فایل‌های صوتی ساختگی شناخته‌ شدند و مشخص شد که توسط نرم‌افزارهای هوش مصنوعی تولید شده‌اند. اما این فایل‌ها هنوز هم در شبکه‌های اجتماعی مانند فیس‌بوک و ایکس وجود دارند و حتی برخی کاربران معتقدند این فایل‌های صوتی واقعی هستند.

در سپتامبر ۲۰۲۳، مداخله سیاسی مبتنی بر هوش مصنوعی مبتنی بر جعل عمیق ، انتخابات پارلمانی اسلواکی را به تعویق انداخت، ماجرای انتشار صوت مصنوعی بایدن برای جلوگیری از مشارکت مردم ایالت نیوهمپشایر آمریکا در شرکت در انتخابات مقدماتی ریاست جمهوری، انتشار ویدئوی جعلی از زلنسکی رئیس جمهوری اوکراین از جمله موارد مداخله درعرصه های سیاسی - اجتماعی با ابزار دقیق هوش مصنوعی بوده است یورونیوز در موردی دیگر از دخالت هوش مصنوعی در عرصه انتخابات گزارش داد: چندی پیش در یکی از ایالت‌های آمریکا که در فضای انتخاباتی قرار دارد، تماس‌های گرفته شده از سوی یک شماره‌گیر کامپیوتری، آن هم با صدای جعلی رئیس جمهوری جو بایدن باعث شد تا یک پرونده تحقیق و تفحص در مورد این موضوع باز شود و نگرانی‌ها در مورد اثرات هوش مصنوعی بر انتخابات ریاست جمهوری سال ۲۰۲۴ در این کشور را افزایش دهد.
طبق این گزارش، دفتر دادستان کل ایالت «نیوهمپشایر» تحقیقات خود در مورد تماس‌های یک شماره‌گیر کامپیوتری را آغاز کرد. در این تماس‌ها فردی خود را جای رئیس جمهوری آمریکا جا می‌زند و ساکنان محلی را از شرکت در انتخابات مقدماتی و محلی ریاست جمهوری منصرف می‌کند.

این صدای جعلی حاکی از آن بود : «رای شما در برای ماه نوامبر (انتخابات اصلی) مهم است، نه اکنون.» دفتر دادستانی کل این ایالت در بیانیه‌ای در این خصوص اعلام کرد که «اگرچه صدای این تماس شبیه صدای رئیس جمهور بایدن است، اما بر اساس شواهد اولیه به نظر می رسد این پیام با هوش مصنوعی تولید و جعل شده است.

نمونه سومی ازز ویدئوهای دیپ فیک شامل ویدیوی جعلی بود که درشبکه‌های اجتماعی با صدا و تصویر «ولادیمیر زلنسکی» رئیس جمهور اوکراین در فضای مجازی منتشر شد مبنی بر اینکه وی از شهروندان اوکراینی می خواهد که سلاح خود را زمین بگذارند وتسلیم روسیه شوند.

در این ویدیوی جعلی، زلنسکی شهروندان اوکراینی را مخاطب قرار داده و از آن‌ها می‌خواهد که سلاح‌شان را زمین بگذارند.طبق گزارش‌های رسانه‌ای یکی از نسخه‌های این « دیپ فیک» بیش از ۱۲۰ هزار بار در توئیتر دیده شده است.
انتخابات آرژانتین درسال گذشته میلادی نیز شاهد حضور فایل‌های جعل عمیق از یکی از رقبای سیاسی این کشور بود که در شبکه‌های اجتماعی بسیار به گردش در آمده بود.

نمونه‌ای از تصاویر جعلی هوش مصنوعی
در اواخر سال گذشته آمریکا اخبار مرتبط با دادگاه دونالد ترامپ رئیس جمهوری سابق آمریکا بسیار داغ بود و یکی از عکس‌هایی که رسانه‌های آمریکایی توسط در شبکه‌های اجتماعی و حتی برخی وبسایت‌های خبری این کشور منتشر شد، عکسی بود که ترامپ را در حال مقاومت در برابر بازداشت نشان می‌داد. «توماس باربی» گزارشگر نیویورک پست در گزارشی با انتشار این تصویر آن را جعلی و محصول هوش مصنوعی دانست.

عکس جعلی تولید شده توسط هوش مصنوعی

نمونه دیگری از عکس جعلی تولید شده توسط هوش مصنوعی که در سال ۲۰۲۳ در شبکه‌ Reddit آمریکا به گردش گسترده درآمد، تصویر پاپ فرانسیس با ژاکت پافری بود که میلیون‌ها کاربر را فریب داد و قدرت این فناوری را در ایجاد تصاویر غیرواقعی به نمایش گذاشت.

آیا می‌توان هوش مصنوعی را مهار کرد؟

بسیاری از متخصصان، اکنون به دنبال پاسخگویی به این سوال هستند که چطور می‌توان با فریبکاری هوش مصنوعی مقابله یا آن را مورد شناسایی و مهار کرد.
طبق گزارش‌های رسانه‌ای «متا و گوگل» در حال توسعه سیاست‌هایی برای افشای استفاده از هوش مصنوعی مولد در تبلیغات سیاسی هستند، همزمان نیز دولت آمریکا در مورد مقررات خود برای انتخابات ۲۰۲۴ سرگرم بررسی برای گذاشتن ضوابط و قوانین مورد نیاز است.

برخی از قانون‌گذاران آمریکا نگران این موضوع هستند که هوش مصنوعی انتشار اطلاعات نادرست آن هم در زمان رخدادها و رویدادهای مهم از جمله انتخابات را تشدید کند. نگرانی بخشی از اعضای کنگره در این زمینه با توجه به برگزاری انتخابات ریاست جمهوری در نوامبر ۲۰۲۴ ، شدت یافته و آن‌ها به دنبال وضع قوانین پیشگیرانه در این زمینه هستند.

شرکت متا بتازگی اعلام کرده که طبق سیاست‌های جدید این شرکت، تمامی تبلیغ‌کنندگان سیاسی باید هرگونه استفاده از هوش مصنوعی در تبلیغاتی که حاوی تصاویر، ویدیو یا صداهایی است که به‌صورت دیجیتالی ایجاد شده یا به نوعی تغییر یافته است، از پیش اعلام کرده و مخاطبان خود را در این زمینه گمراه نکنند.

شرکت گوگل هم از همه مبلغان و هواداران گروه‌های مختلف سیاسی در انتخابات مختلف خواست تا چنانچه تبلیغ یا اطلاعیه یا آگهی آن‌ها دارای محتوای مصنوعی تغییریافته یا تولید شده دیجیتالی است که افراد یا رویدادهای واقعی را به تصویر می‌کشد، در زمره مضامینی است که باید اطلاع رسانی در مورد دیجیتالی بودن آن به کاربران انجام شود.

جمع‌بندی

متخصصان پیش‌بینی کرده‌اند که هوش مصنوعی کاربردهای خوب و بد زشت دارند و باید تدابیری به کار گرفت که وجه منفی آن بر رویدادهای مهم اجتماعی خنثی شود.
آن‌ها می‌گویند: هوش مصنوعی مولد، می‌تواند با ایجاد صوت و تصویر و کلام جعلی تولید شده، سبب ایجاد سونامی مخربی از اطلاعات نادرست در شبکه‌های اجتماعی شود و این موضوع می‌تواند سرنوشت جوامع را دستخوش خشونت، فساد شود و گمراهی قرار دهد.
متخصصان پیش‌بینی کرده‌اند که هوش مصنوعی کاربردهای خوب و بد زشت دارند و باید تدابیری به کار گرفت که وجه منفی آن بر رویدادهای مهم اجتماعی خنثی شودبسیاری از سایت‌های فعال در عرصه هوش مصنوعی اکنون این توانایی را فراهم ساخته‌اند که صرفا با برخورداری چندلحظه از صوت و کلام یک فرد، یک ویدئو یا فایل کامل صوتی و تصویری از وی ارائه دهند.

فراتر از موارد یادشده، کارشناسان می‌گویند راه‌های متعددی وجود دارد که محتوای تولید شده، فضای پیچیده اطلاعاتی را پیچیده‌تر کند. این یک واقعیت است که محتواهای تولید شده توسط هوش مصنوعی این توانمندی را دارند که کمپین‌های انتخاباتی را با سرعت و کیفیت بالا تحت تاثیر قرار دهند. زیرا اکنون، تنها با چند کلیک و یا استفاده از حتی یک دکمه، می تواند حجم زیادی ازتصاویر، صوت و کلام کاملا متمایز و با خطای بسیار کم و نزدیک به واقعیت تولید شود که واقعیت را تحت الشعاع قرار می‌دهد.

برجسته‌تر از همه، انتخابات ریاست‌جمهوری آمریکا در سال ۲۰۰۸ بود که برای اولین بار بر تجزیه و تحلیل گسترده داده‌های رسانه‌های اجتماعی تکیه کرد و اکنون، ابعاد دیگر این تحول دیجیتال شامل ادغام سیستم‌های هوش مصنوعی (AI) در کمپین‌های انتخاباتی در کنار تقریبا تمام جنبه‌های زندگی سیاسی مطرح است.
رسانه‌های آمریکایی در این زمینه هشدار دادند: اکنون، سیستم‌های یادگیری ماشینی می‌توانند پیش‌بینی کنند که کدام لوایح کنگره ایالات متحده احتمالا تصویب خواهد شد. ارزیابی‌های الگوریتمی در سیستم عدالت کیفری بریتانیا اجرا می‌شود و از همه جالب‌تر، راه‌حل‌های اطلاعاتی ماشینی اکنون با دقت در کمپین‌های انتخاباتی به کار گرفته می‌شوند تا رای‌دهندگان را درگیر کنند و به آنها کمک کنند تا چگونه در مورد مسائل کلیدی سیاسی اطلاعات بیشتری داشته باشند.

با نزدیک شدن به فضای انتخاباتی که در آن همه چیز از اطلاعات رای‌دهندگان گرفته تا هدف‌گیری رای‌دهندگان و تعامل مکالمه قابلیت خودکار شدن را دارد ، دغدغه مندان این حوزه این سوال را مطرح می‌کنند؟ که آیا با اعتماد بیش از حد به سیستم‌های هوش مصنوعی، دموکراسی در معرض خطر قرار می‌ گیرد؟ و در استفاده و ادغام ماشین‌ها و برنامه‌های مصنوعی در ابعاد مختلف انسانی تا کجا باید پیش رفت؟

دکتر «پولونسکی» Vyacheslav Polonski محقق هوش مصنوعی در تارنمای تخصصی centreforpublicimpact در این زمینه می‌نویسد: توجه و تمرکز بر این سؤالات اخلاقی به ویژه با توجه به جنبه‌های ثابت شده تاریک فناوری‌ها در مبارزات انتخاباتی در همه پرسی برگزیت و انتخابات ریاست جمهوری ۲۰۱۶ ایالات متحده، بسیار مهم هستند. طبق برخی گزارش‌ها، شواهدی وجود دارد که نشان می دهد فناوری‌های مبتنی بر هوش مصنوعی به طور سیستماتیک برای دستکاری آرای شهروندان مورد سوء استفاده قرار گرفته‌اند. برخی هم مدعی هستند که آنها عامل تعیین کننده در همه پرسی و نتایج انتخابات بودند، موضوعی که نگرانی‌ها در این زمینه شدت بخشیده است.

با توجه پیشرفت و گستردگی این فناوری‌ها، در پرجمعیت‌ترین کشورهای جهان که در شرف انتخابات در سال جاری میلادی قرار دارند از جمله اندونزی، هند و آمریکا این نگرانی وجود دارد که رای دهندگان این سوال و تردید را داشته باشند که آنچه در مبارزات انتخاباتی می‌بینند و می شنوند، چه میزان واقعی است. زیرا اکنون سلاح جدیدی در زرادخانه اطلاعات نادرست سیاسی وجود دارد؛ هوش مصنوعی مولد، می‌تواند در یک لحظه صدای یک نامزد را شبیه‌سازی کند، فیلمی جعلی بسازد، یا روایت‌های جعلی و غیرواقعی را برای تضعیف اوضاع ایجاد کند.

بنابراین تصاویر، صدا و ویدئوهای دیپ‌فیک می‌تواند رد پای اصلی آثار منفی هوش‌مصنوعی مولد، بر هر انتخاباتی باشد که باید سیستم‌های برگزار کننده انتخابات و عموم رای دهندگان در این زمینه کاملا هوشیار عمل کنند و مانع از ایجاد مه سردرگمی، تحریف شوند و زیرساخت‌های تبلیغات صادقانه را تقویت کنندشرکت «متا» روز پنجشنبه ۹ آذر اعلام کرد هزاران حساب جعلی در فیس‌بوک را که تلاش می‌کردند در آستانه انتخابات ریاست‌جمهوری سال ۲۰۲۴ به اختلافات سیاسی در آمریکا دامن بزنند، مسدود کرده است.

به هرصورت، پیشرفت‌های هوش مصنوعی نگرانی‌های عمومی فراوانی را از سوی مردم و سیاست‌گذاران برانگیخته و تأثیر هوش مصنوعی در حوزه انتخابات با توجه به تهدید بزرگی که در این زمینه وجود دارد، بررسی عمیق کارشناسان را جلب کرده است.

در مجموع کارشناسان می‌گویند: انتخابات به ویژه در برابر اطلاعات نادرست مبتنی بر هوش مصنوعی آسیب پذیر است. این فناوری می‌تواند مانند یک بمب ساعتی بالقوه برای اطلاعات نادرست انتخابات‌های آینده عمل کند. این شامل فریب‌های اصلی در مورد امنیت دستگاه‌های رای‌گیری و رای‌گیری پستی، و همچنین اطلاعات نادرستی است که می‌تواند به طور منظم در زمان بروز اشکالات اجرایی و سریع در اکثر انتخابات فعال شود. اطلاعات نادرست مبتنی بر تصویر نیز به طور گسترده وجود داشته است. به عنوان مثال، تصاویر برگه های رای‌های پستی دور ریخته شده برای تحریف روایت های انتخاباتی در هر دو انتخابات ۲۰۲۰ و ۲۰۲۲ محلی آمریکا مورد استفاده قرار گرفته بود.

بنابراین تصاویر، صدا و ویدئوهای دیپ‌فیک می‌تواند رد پای اصلی آثار منفی هوش‌مصنوعی مولد، بر هر انتخاباتی باشد که باید سیستم‌های برگزار کننده انتخابات و عموم رای دهندگان در این زمینه کاملا هوشیار عمل کنند و مانع از ایجاد مه سردرگمی، تحریف شوند و زیرساخت‌های تبلیغات صادقانه را تقویت کنند.



با توجه به موارد فوق، کارشناسان هنوز نتوانسته‌اند پاسخ دقیقی، به این سوال دهند که آیا آینده را هوش مصنوعی می‌سازد؟ و این موضوع همچنان بستر بحث برانگیز عرصه کارشناسان و فناوران در حوزه امنیت سایبر است.

منابع:

https://time.com/۶۲۶۶۶۰۶/how-to-spot-deepfake-pope

https://www.brennancenter.org/our-work/analysis-opinion/how-ai-puts-elections-risk-and-needed-safeguards

https://www.chathamhouse.org/publications/the-world-today/۲۰۲۳-۱۰/how-ai-could-sway-voters-۲۰۲۴s-big-elections

https://techinformed.com/artificial-intelligences-impact-on-elections-and-democracy-could-be-very-real

https://www.centreforpublicimpact.org/insights/good-bad-ugly-uses-machine-learning-election-campaigns

https://www.osce.org/files/f/documents/a/۳/۴۸۳۶۳۸.pdf

https://www.brookings.edu/articles/the-impact-of-generative-ai-in-a-global-election-year

https://ir.voanews.com/a/slovakia-۲۰۲۳-election-robert-fico/۷۲۹۲۴۴۴.html

https://afratec.ir/ai-threat-to-next-general-election

https://www.iranianbs.com/%D۸%AC%D۹%۸۶%D۸%AC%D۸%A۷%D۹%۸۴%E۲%۸۰%۸C%D۹%۸۷%D۸%A۷%DB%۸C-%D۸%B۳%DB%۸C%D۸%A۷%D۸%B۳%DB%۸C-%DA%A۹%D۹%۸۷-%D۹%۸۷%D۹%۸۸%D۸%B۴-%D۹%۸۵%D۸%B۵%D۹%۸۶%D۹%۸۸%D۸%B۹%DB%۸C-%D۹%۸۵%DB%۸C%E۲%۸۰%۸C%D۸%AA%D۹%۸۸%D۸%A۷/