تاثیر اکوسیستم آنلاین در شکل دهی گفتمان سیاسی- اجتماعی
تأثیر اکوسیستم آنلاین در شکلدهی گفتمان درون و برون افراد و جوامع به ویژه گفتمان سیاسی به خوبی مستند شده است. کارشناسان میگویند با گستردگی هوش مصنوعی چالشی جدید در سال انتخاباتی ۲۰۲۴ در جهان که قریب به نیمی از مردم جهان صندوقهای رای را تجربه می کنند، وجود دارد.
دراین میان یکی از مهمترین فاکتورها و عوامل موثر بر تقویت یا تضعیف گفتمان واحد در هر جامعهای پس از شبکههای اجتماعی، «هوش مصنوعی مولد» است.
این فناوری پیشرفته تصاویر، ویدئوها، صداها یا متنهای واقعی بر اساس درخواست های کاربران را ایجاد میکند که مخاطبان نمیتوانند نمونه مصنوعی آن را از اصلی تشخیص دهند. بنابراین، امکان بهرهبرداریهای بالقوه از این فناوری در زمینههای مختلف سیاسی، اقتصادی و اجتماعی سبب شده که کارشناسان در مورد تاثیر احتمالی اما مخرب این کلاس از فناوریهای پیشرفته به سیستمهای سیاسی و ملت-دولتها هشدار دهند.
کارشناسان این عرصه میگویند: تاثیر تحول آفرین هوش مصنوعی مولد بر فضای اطلاعات در جوامع دارای دو وجه روشن و تاریک است . به این معنا که این گروه از فناوریها به طور اجتناب ناپذیری دارای آثار مثبت و منفی هستند که توانمندی آنها در تولید محتوای دستکاری شده و غیرواقعی، تهدیدی برای گفتمان دموکراتیک و یکپارچگی در عرصههای اجتماعی- سیاسی و به ویژه فضای انتخاباتی کشورها محسوب میشود.
از این رو بسیاری از کشورها سعی کردهاند تا با استفاده از نخبگان عرصه فناوریهای هوشمند، فرصتها و تهدیدات این حوزه را شناسایی و برای آن چارهاندیشی کنند که این موضوع خود نشان دهنده پیشرفت در جهت مدیریت یک موضوع پیچیده در طول یک سال انتخابات حساس در سراسر جهان است.
انتخاباتیترین سال تاریخ
سال ۲۰۲۴، رکورد دار تاریخ در تعداد انتخابات در کشورهای جهان است. قرار است در این سال دستکم ۶۰ مورد انتخابات درسراسر جهان برگزار شود که نتایج برخی از موارد بازتابهای جهانی خواهد داشت. در مجموع، این کشورها تقریبا نیمی از جمعیت جهان و افزون بر۴۲ درصد از تولید ناخالص داخلی جهانی را در خود جای داده اند.
در سال ۲۰۲۴ که قرار است نیمی از مردم جهان صندوقهای رای را تجربه کنند ، اکوسیستم آنلاین و فناوریهای مرتبط با آن از جمله هوش مصنوعی مولد، در شکل دهی خطوط کمپینهای انتخاباتی و رایگیریهای آنلاین نقش مهمی ایفا میکنند نکته مهم این است که مانند انتخابات گذشته، اکوسیستم آنلاین، در شکلدهی خطوط کمپینهای انتخاباتی و حتی رای گیریهای آنلاین نقش مهمی ایفا میکند.
خروجی های هوش مصنوعی مولد، نزدیک به یک دهه است که به طور پیوسته در حال بهبود و نوآوریهای متفاوت هستند. با این حال، پس از راه اندازی ChatGPT در نوامبر ۲۰۲۲، به میزان قابل توجهی هراس جهانی از ایجاد و ارائه اطلاعاتی نادرست یا دستکاری اطلاعات شدت گرفت.
"کابوس اطلاعات نادرست" در سال ۲۰۲۴ با تسریع در فناوریهای قادر به تولید اطلاعات نادرست رقم خورده و کفه فرصت این فناوریها را به سمت تهدید پیش برده است.
اندیشکده بروکینگز، در مورد انواع تهدیدات هوش مصنوعی بر رخدادهای اجتماعی و سیاسی و انتخابات آورده است: این سطح از فناوریها برای تسریع، بهبود و کاهش دادن هزینه عملیات اطلاعاتی موجود که برای ایجاد ادراک و اجماع در مورد مسائل سیاسی، تضعیف واکنش دولت، تحت تأثیر قرار دادن افکار عمومی، ایجاد همدلی گسترده یا تشدید اختلافات، از کار انداختن یا فریب رأی دهندگان و تضعیف اعتماد در فرآیندهای انتخاباتی طراحی شدهاند.
هوش مصنوعی مولد، چیست؟
هوش مصنوعی مولد Generative AI، کلاسی از هوش مصنوعی است که ورودی اطلاعات ارائه شده توسط کاربر را از طریق یک مدل از پیش آموزش دیده اجرا میکند و مجموعهای از خروجیهای تولید شده هدفمند و مورد انتظار را ارائه میدهد.
این مولدهای پیشرفته با استفاده از ارتباطهای پیچیدهتر و بیشتر بین الگوهای ارائه شده قادر هستند تصاویر، متن، ویدئو، صدا یا محتواهای مورد نظر را به صورت بسیار دقیق و کاملا شبیه نمونه اصلی تولید کنند.
طبق گزارشهای رسانهای، ChatGPT به تنهایی دو ماه پس از راه اندازی در نوامبر ۲۰۲۲ بیش از ۱۰۰ میلیون کاربر داشت
برای مثال، ChatGPT به عنوان یک ربات چت تنظیم شد، در حالی که Copilot برای تولید کد به خوبی تنظیم شده و DALL-E۲ برای خروجی تصاویر مد نظر کاربری لازم را دریافت کرده است.
طبق گزارشهای رسانهای، ChatGPT به تنهایی دو ماه پس از راه اندازی در نوامبر ۲۰۲۲ بیش از ۱۰۰ میلیون کاربر داشت.
از زمان راهاندازی ChatGPT، بسیاری از نظرات بر پتانسیل محتوای تولید شده برای برهم زدن انتخابات دموکراتیک از طریق توربوشارژ کردن تولید اطلاعات ساختگی مطرح شدهاند.
این خطر آن گونه برای کشورهای مختلف احساس شده که در طول سال گذشته، حدود ۳۰ هزار مقاله خبری نمایه شده به زبانهای مختلف در Google News بر این موضوع متمرکز شده است که چگونه ابزارهای هوش مصنوعی مولد ممکن است بر انتخابات آینده تأثیر بگذارند.
مخالفان : در توانمندی هوش مصنوعی اغراق شده است
در این میان، برخی از کارشناسان نیز تغییر موثر و بالقوه هوش مصنوعی مولد را به کلی در جهتگیری رخدادهای اجتماعی - سیاسی رد کردهاند.
برخی از کارشناسان نیز تأثیر تغییرپذیر و بالقوه هوش مصنوعی مولد را به کلی در رخدادهای اجتماعی - سیاسی رد کردهاند آنها این استدلال را مطرح میکنند که به دلیل تنوع کانالهای توزیع محتوا، فقدان دسترسی محقق به دادهها و چالش فزاینده شناسایی محتوای تولید شده، ارزیابی اینکه محتوای تولید شده چقدر در رسانههای اجتماعی برای انتشار اطلاعات گمراهکننده به اشتراک گذاشته میشود، دشوار است. با این حال، راههایی برای مشاهده اهمیت آن در گفتوگوهای گستردهتر پیرامون یکپارچگی اطلاعات وجود دارد، حتی اگر این نوع ارزیابی به دور از جامعیت باشد.
برای مثال، شبکه اجتماعی X یا توئیتر سابق به کاربران واجد شرایط خود، اجازه داده است تا شفافسازی اطلاعات را در قالب «یادداشت اجتماعی» به پستهایی که به نظر گمراهکننده میرسد، اضافه کنند.
یادداشتهایی که به عنوان «یادداشتهای مفید» رتبه بندی شده و در کنار این گونه پستها به عنوان زمینه اضافی نمایش داده می شوند و در شرایط بحرانی، دادههای برنامه یادداشتهای اجتماعی در دسترس عموم قرار میگیرد، که شامل متنهایی است که کاربران برای پستهای پرچمدار پیشنهاد کردهاند.
نکته حائز اهمیت این است که متخصصان حوزه سایبر در اندیشکده بروکینگز تاکید کردهاند که با بررسی این دادهها، متوجه شدهاند که از زمان راهاندازی ChatGPT، تعداد یادداشتهای اجتماعی که اصطلاحات مرتبط با هوش مصنوعی را ذکر میکنند، در طول زمان افزایش یافته است.
پلتفرم X از مهر ماه امسال حتی اقدام به به روزرسانی جدیدی در بخش یادداشتهای اجتماعی (Community Notes) خود کرد تا توانمندی اصلاح اطلاعات نادرست در این شبکه افزایش یابد.
در جدول ذیل : تعداد یادداشتهای اجتماعی در روز که اصطلاحات مرتبط با هوش مصنوعی را مورد بحث و ذکر قرار میدهند، در طول زمان افزایش یافته است، اما این موضوع همچنان در درصد کمی از تمام یادداشتهای نوشته شده وجود دارد.
توجه: اصطلاحات مرتبط با هوش مصنوعی شامل گزینههایی مانند جعلی ، گپ gpt، chatgpt، chatGPT، midjourney، dalle، deepfake، deep fake، ChatGPT، AI و ... Midjourney و DallE است. همه دادهها نشان میدهد بعد از آمدن CHAT GPT استفاده از هوش مصنوعی بیشتر شده است.
دیپ فیک یا جعل عمیق، یک نوع هوش مصنوعی است که برای ایجاد تصاویر متقاعد کننده، فریبهای صوتی و ویدئویی استفاده میشود و نمونهای از یادگیری عمیق و جعلی استدر تعریف «دیپ فیک یا جعل عمیق Deepfake» گفته شده است؛ یک نوع هوش مصنوعی است که برای ایجاد تصاویر متقاعد کننده، فریبهای صوتی و ویدئویی استفاده میشود. اصطلاح دیپ فیک یا جعل عمیق، هم فناوری و هم محتوای جعلی ناشی از آن را توصیف میکند و نمونهای از یادگیری عمیق و جعلی است.
واکنش کشورها
از آنجا که فرصت و تهدیدات هوش مصنوعی مورد تایید تمامی کشورهای قرار گرفته است . بنابراین کشورهای مدعی اجرای دموکراسی قبل از برگزاری انتخابات به شیوه استفاده بهینه و درعین حال مقابله و پاسخگویی به چالشها در این عرصه میاندیشند.
این کشورها باید طیف وسیعی از مداخلات را ارزیابی کنند؛ از قوانین جدید یا به روز شده تا نگرانی های خاص انتخابات، مانند انتشار محتوای جعلی اطلاعاتی که نامزدهای انتخاباتی را به گونهای مصنوعی تصویر میکشد تا تلاشهای مستمر برای آموزش رای دهندگان و شهروندان در شناسایی پیامها و محتواهای فیک یا جعلی.
همچنین شرکتهای فناوری باید راهحلهای فنی کاملی در این عرصه با سرمایهگذاری در ابزارهای جدید برای شناسایی اطلاعات جعلی، ارائه کنند و در این زمینه نقشی محوری داشته باشند.
اما کارشناسان بروکینگز میگویند: بعید است که این مداخلات به طور کامل به چالش هایی که هوش مصنوعی مولد برای همبستگی اطلاعات ایجاد میکند، رسیدگی کند. با این حال، آنها گامهای مثبتی برای بهتر مدیریت شدن چالشی به ظاهر غیرقابل حل در این سال انتخاباتی، تاریخی برداشتهاند.
نمونههای دخالت هوش مصنوعی و جعل عمیق
در سپتامبر ۲۰۲۳، مداخله سیاسی مبتنی بر هوش مصنوعی، انتخابات پارلمانی اسلواکی را به تعویق انداخت. دو روز قبل از اینکه رای دهندگان آرای خود را در انتخاباتی با پیامدهایی برای مسیر کمک نظامی اسلواکی به اوکراین و حمایت از ناتو به صندوق بیاندازند، یک کلیپ صوتی که دارای نشانههای محتوای تولید شده اما مصنوعی بود به طور گسترده در رسانههای اجتماعی این کشور پخش شد.
این ویدئو ظاهراً صدای «میکال شیمچکا» رهبر حزب مترقی اسلواکی طرفدار ناتو و روزنامهنگار روزنامه Denník N با محتوای راههای دستکاری در انتخابات و خرید رای از جمعیت اقلیت این کشور بود. اگرچه این صدا از ابتدا مشکوک به نظر می رسید، اما هزاران نفر از جمله یکی از اعضای سابق پارلمان از حزب اپوزیسیون این ویدئو را در رسانه های اجتماعی به اشتراک گذاشتند.
در این فایل صوتی، فردی که به نظر میآمد رهبر «حزب مترقی» اسلواکی باشد، طرحی را برای تقلب در انتخابات ارائه و توضیح داد که بخشی از آن شامل پرداخت رشوه بود. دو هفته پس از این اتفاق، رسوایی سیاسی دیگری جنجال به پا کرد؛ یک فایل صوتی در شبکه ایکس (توئیتر سابق) منتشر شد که در آن رهبر حزب کارگر بریتانیا در حال انتقاد از یک کارمند با استفاده از الفاظ رکیک است.
مدتی بعد، هر دو کلیپ به عنوان فایلهای صوتی ساختگی شناخته شدند و مشخص شد که توسط نرمافزارهای هوش مصنوعی تولید شدهاند. اما این فایلها هنوز هم در شبکههای اجتماعی مانند فیسبوک و ایکس وجود دارند و حتی برخی کاربران معتقدند این فایلهای صوتی واقعی هستند.
در سپتامبر ۲۰۲۳، مداخله سیاسی مبتنی بر هوش مصنوعی مبتنی بر جعل عمیق ، انتخابات پارلمانی اسلواکی را به تعویق انداخت، ماجرای انتشار صوت مصنوعی بایدن برای جلوگیری از مشارکت مردم ایالت نیوهمپشایر آمریکا در شرکت در انتخابات مقدماتی ریاست جمهوری، انتشار ویدئوی جعلی از زلنسکی رئیس جمهوری اوکراین از جمله موارد مداخله درعرصه های سیاسی - اجتماعی با ابزار دقیق هوش مصنوعی بوده است یورونیوز در موردی دیگر از دخالت هوش مصنوعی در عرصه انتخابات گزارش داد: چندی پیش در یکی از ایالتهای آمریکا که در فضای انتخاباتی قرار دارد، تماسهای گرفته شده از سوی یک شمارهگیر کامپیوتری، آن هم با صدای جعلی رئیس جمهوری جو بایدن باعث شد تا یک پرونده تحقیق و تفحص در مورد این موضوع باز شود و نگرانیها در مورد اثرات هوش مصنوعی بر انتخابات ریاست جمهوری سال ۲۰۲۴ در این کشور را افزایش دهد.
طبق این گزارش، دفتر دادستان کل ایالت «نیوهمپشایر» تحقیقات خود در مورد تماسهای یک شمارهگیر کامپیوتری را آغاز کرد. در این تماسها فردی خود را جای رئیس جمهوری آمریکا جا میزند و ساکنان محلی را از شرکت در انتخابات مقدماتی و محلی ریاست جمهوری منصرف میکند.
این صدای جعلی حاکی از آن بود : «رای شما در برای ماه نوامبر (انتخابات اصلی) مهم است، نه اکنون.» دفتر دادستانی کل این ایالت در بیانیهای در این خصوص اعلام کرد که «اگرچه صدای این تماس شبیه صدای رئیس جمهور بایدن است، اما بر اساس شواهد اولیه به نظر می رسد این پیام با هوش مصنوعی تولید و جعل شده است.
نمونه سومی ازز ویدئوهای دیپ فیک شامل ویدیوی جعلی بود که درشبکههای اجتماعی با صدا و تصویر «ولادیمیر زلنسکی» رئیس جمهور اوکراین در فضای مجازی منتشر شد مبنی بر اینکه وی از شهروندان اوکراینی می خواهد که سلاح خود را زمین بگذارند وتسلیم روسیه شوند.
در این ویدیوی جعلی، زلنسکی شهروندان اوکراینی را مخاطب قرار داده و از آنها میخواهد که سلاحشان را زمین بگذارند.طبق گزارشهای رسانهای یکی از نسخههای این « دیپ فیک» بیش از ۱۲۰ هزار بار در توئیتر دیده شده است.
انتخابات آرژانتین درسال گذشته میلادی نیز شاهد حضور فایلهای جعل عمیق از یکی از رقبای سیاسی این کشور بود که در شبکههای اجتماعی بسیار به گردش در آمده بود.
نمونهای از تصاویر جعلی هوش مصنوعی
در اواخر سال گذشته آمریکا اخبار مرتبط با دادگاه دونالد ترامپ رئیس جمهوری سابق آمریکا بسیار داغ بود و یکی از عکسهایی که رسانههای آمریکایی توسط در شبکههای اجتماعی و حتی برخی وبسایتهای خبری این کشور منتشر شد، عکسی بود که ترامپ را در حال مقاومت در برابر بازداشت نشان میداد. «توماس باربی» گزارشگر نیویورک پست در گزارشی با انتشار این تصویر آن را جعلی و محصول هوش مصنوعی دانست.
نمونه دیگری از عکس جعلی تولید شده توسط هوش مصنوعی که در سال ۲۰۲۳ در شبکه Reddit آمریکا به گردش گسترده درآمد، تصویر پاپ فرانسیس با ژاکت پافری بود که میلیونها کاربر را فریب داد و قدرت این فناوری را در ایجاد تصاویر غیرواقعی به نمایش گذاشت.
آیا میتوان هوش مصنوعی را مهار کرد؟
بسیاری از متخصصان، اکنون به دنبال پاسخگویی به این سوال هستند که چطور میتوان با فریبکاری هوش مصنوعی مقابله یا آن را مورد شناسایی و مهار کرد.
طبق گزارشهای رسانهای «متا و گوگل» در حال توسعه سیاستهایی برای افشای استفاده از هوش مصنوعی مولد در تبلیغات سیاسی هستند، همزمان نیز دولت آمریکا در مورد مقررات خود برای انتخابات ۲۰۲۴ سرگرم بررسی برای گذاشتن ضوابط و قوانین مورد نیاز است.
برخی از قانونگذاران آمریکا نگران این موضوع هستند که هوش مصنوعی انتشار اطلاعات نادرست آن هم در زمان رخدادها و رویدادهای مهم از جمله انتخابات را تشدید کند. نگرانی بخشی از اعضای کنگره در این زمینه با توجه به برگزاری انتخابات ریاست جمهوری در نوامبر ۲۰۲۴ ، شدت یافته و آنها به دنبال وضع قوانین پیشگیرانه در این زمینه هستند.
شرکت متا بتازگی اعلام کرده که طبق سیاستهای جدید این شرکت، تمامی تبلیغکنندگان سیاسی باید هرگونه استفاده از هوش مصنوعی در تبلیغاتی که حاوی تصاویر، ویدیو یا صداهایی است که بهصورت دیجیتالی ایجاد شده یا به نوعی تغییر یافته است، از پیش اعلام کرده و مخاطبان خود را در این زمینه گمراه نکنند.
شرکت گوگل هم از همه مبلغان و هواداران گروههای مختلف سیاسی در انتخابات مختلف خواست تا چنانچه تبلیغ یا اطلاعیه یا آگهی آنها دارای محتوای مصنوعی تغییریافته یا تولید شده دیجیتالی است که افراد یا رویدادهای واقعی را به تصویر میکشد، در زمره مضامینی است که باید اطلاع رسانی در مورد دیجیتالی بودن آن به کاربران انجام شود.
جمعبندی
متخصصان پیشبینی کردهاند که هوش مصنوعی کاربردهای خوب و بد زشت دارند و باید تدابیری به کار گرفت که وجه منفی آن بر رویدادهای مهم اجتماعی خنثی شود.
آنها میگویند: هوش مصنوعی مولد، میتواند با ایجاد صوت و تصویر و کلام جعلی تولید شده، سبب ایجاد سونامی مخربی از اطلاعات نادرست در شبکههای اجتماعی شود و این موضوع میتواند سرنوشت جوامع را دستخوش خشونت، فساد شود و گمراهی قرار دهد.
متخصصان پیشبینی کردهاند که هوش مصنوعی کاربردهای خوب و بد زشت دارند و باید تدابیری به کار گرفت که وجه منفی آن بر رویدادهای مهم اجتماعی خنثی شودبسیاری از سایتهای فعال در عرصه هوش مصنوعی اکنون این توانایی را فراهم ساختهاند که صرفا با برخورداری چندلحظه از صوت و کلام یک فرد، یک ویدئو یا فایل کامل صوتی و تصویری از وی ارائه دهند.
فراتر از موارد یادشده، کارشناسان میگویند راههای متعددی وجود دارد که محتوای تولید شده، فضای پیچیده اطلاعاتی را پیچیدهتر کند. این یک واقعیت است که محتواهای تولید شده توسط هوش مصنوعی این توانمندی را دارند که کمپینهای انتخاباتی را با سرعت و کیفیت بالا تحت تاثیر قرار دهند. زیرا اکنون، تنها با چند کلیک و یا استفاده از حتی یک دکمه، می تواند حجم زیادی ازتصاویر، صوت و کلام کاملا متمایز و با خطای بسیار کم و نزدیک به واقعیت تولید شود که واقعیت را تحت الشعاع قرار میدهد.
برجستهتر از همه، انتخابات ریاستجمهوری آمریکا در سال ۲۰۰۸ بود که برای اولین بار بر تجزیه و تحلیل گسترده دادههای رسانههای اجتماعی تکیه کرد و اکنون، ابعاد دیگر این تحول دیجیتال شامل ادغام سیستمهای هوش مصنوعی (AI) در کمپینهای انتخاباتی در کنار تقریبا تمام جنبههای زندگی سیاسی مطرح است.
رسانههای آمریکایی در این زمینه هشدار دادند: اکنون، سیستمهای یادگیری ماشینی میتوانند پیشبینی کنند که کدام لوایح کنگره ایالات متحده احتمالا تصویب خواهد شد. ارزیابیهای الگوریتمی در سیستم عدالت کیفری بریتانیا اجرا میشود و از همه جالبتر، راهحلهای اطلاعاتی ماشینی اکنون با دقت در کمپینهای انتخاباتی به کار گرفته میشوند تا رایدهندگان را درگیر کنند و به آنها کمک کنند تا چگونه در مورد مسائل کلیدی سیاسی اطلاعات بیشتری داشته باشند.
با نزدیک شدن به فضای انتخاباتی که در آن همه چیز از اطلاعات رایدهندگان گرفته تا هدفگیری رایدهندگان و تعامل مکالمه قابلیت خودکار شدن را دارد ، دغدغه مندان این حوزه این سوال را مطرح میکنند؟ که آیا با اعتماد بیش از حد به سیستمهای هوش مصنوعی، دموکراسی در معرض خطر قرار می گیرد؟ و در استفاده و ادغام ماشینها و برنامههای مصنوعی در ابعاد مختلف انسانی تا کجا باید پیش رفت؟
دکتر «پولونسکی» Vyacheslav Polonski محقق هوش مصنوعی در تارنمای تخصصی centreforpublicimpact در این زمینه مینویسد: توجه و تمرکز بر این سؤالات اخلاقی به ویژه با توجه به جنبههای ثابت شده تاریک فناوریها در مبارزات انتخاباتی در همه پرسی برگزیت و انتخابات ریاست جمهوری ۲۰۱۶ ایالات متحده، بسیار مهم هستند. طبق برخی گزارشها، شواهدی وجود دارد که نشان می دهد فناوریهای مبتنی بر هوش مصنوعی به طور سیستماتیک برای دستکاری آرای شهروندان مورد سوء استفاده قرار گرفتهاند. برخی هم مدعی هستند که آنها عامل تعیین کننده در همه پرسی و نتایج انتخابات بودند، موضوعی که نگرانیها در این زمینه شدت بخشیده است.
با توجه پیشرفت و گستردگی این فناوریها، در پرجمعیتترین کشورهای جهان که در شرف انتخابات در سال جاری میلادی قرار دارند از جمله اندونزی، هند و آمریکا این نگرانی وجود دارد که رای دهندگان این سوال و تردید را داشته باشند که آنچه در مبارزات انتخاباتی میبینند و می شنوند، چه میزان واقعی است. زیرا اکنون سلاح جدیدی در زرادخانه اطلاعات نادرست سیاسی وجود دارد؛ هوش مصنوعی مولد، میتواند در یک لحظه صدای یک نامزد را شبیهسازی کند، فیلمی جعلی بسازد، یا روایتهای جعلی و غیرواقعی را برای تضعیف اوضاع ایجاد کند.
بنابراین تصاویر، صدا و ویدئوهای دیپفیک میتواند رد پای اصلی آثار منفی هوشمصنوعی مولد، بر هر انتخاباتی باشد که باید سیستمهای برگزار کننده انتخابات و عموم رای دهندگان در این زمینه کاملا هوشیار عمل کنند و مانع از ایجاد مه سردرگمی، تحریف شوند و زیرساختهای تبلیغات صادقانه را تقویت کنندشرکت «متا» روز پنجشنبه ۹ آذر اعلام کرد هزاران حساب جعلی در فیسبوک را که تلاش میکردند در آستانه انتخابات ریاستجمهوری سال ۲۰۲۴ به اختلافات سیاسی در آمریکا دامن بزنند، مسدود کرده است.
به هرصورت، پیشرفتهای هوش مصنوعی نگرانیهای عمومی فراوانی را از سوی مردم و سیاستگذاران برانگیخته و تأثیر هوش مصنوعی در حوزه انتخابات با توجه به تهدید بزرگی که در این زمینه وجود دارد، بررسی عمیق کارشناسان را جلب کرده است.
در مجموع کارشناسان میگویند: انتخابات به ویژه در برابر اطلاعات نادرست مبتنی بر هوش مصنوعی آسیب پذیر است. این فناوری میتواند مانند یک بمب ساعتی بالقوه برای اطلاعات نادرست انتخاباتهای آینده عمل کند. این شامل فریبهای اصلی در مورد امنیت دستگاههای رایگیری و رایگیری پستی، و همچنین اطلاعات نادرستی است که میتواند به طور منظم در زمان بروز اشکالات اجرایی و سریع در اکثر انتخابات فعال شود. اطلاعات نادرست مبتنی بر تصویر نیز به طور گسترده وجود داشته است. به عنوان مثال، تصاویر برگه های رایهای پستی دور ریخته شده برای تحریف روایت های انتخاباتی در هر دو انتخابات ۲۰۲۰ و ۲۰۲۲ محلی آمریکا مورد استفاده قرار گرفته بود.
بنابراین تصاویر، صدا و ویدئوهای دیپفیک میتواند رد پای اصلی آثار منفی هوشمصنوعی مولد، بر هر انتخاباتی باشد که باید سیستمهای برگزار کننده انتخابات و عموم رای دهندگان در این زمینه کاملا هوشیار عمل کنند و مانع از ایجاد مه سردرگمی، تحریف شوند و زیرساختهای تبلیغات صادقانه را تقویت کنند.
با توجه به موارد فوق، کارشناسان هنوز نتوانستهاند پاسخ دقیقی، به این سوال دهند که آیا آینده را هوش مصنوعی میسازد؟ و این موضوع همچنان بستر بحث برانگیز عرصه کارشناسان و فناوران در حوزه امنیت سایبر است.
منابع:
https://time.com/۶۲۶۶۶۰۶/how-to-spot-deepfake-pope
https://www.brennancenter.org/our-work/analysis-opinion/how-ai-puts-elections-risk-and-needed-safeguards
https://www.chathamhouse.org/publications/the-world-today/۲۰۲۳-۱۰/how-ai-could-sway-voters-۲۰۲۴s-big-elections
https://techinformed.com/artificial-intelligences-impact-on-elections-and-democracy-could-be-very-real
https://www.centreforpublicimpact.org/insights/good-bad-ugly-uses-machine-learning-election-campaigns
https://www.osce.org/files/f/documents/a/۳/۴۸۳۶۳۸.pdf
https://www.brookings.edu/articles/the-impact-of-generative-ai-in-a-global-election-year
https://ir.voanews.com/a/slovakia-۲۰۲۳-election-robert-fico/۷۲۹۲۴۴۴.html
https://afratec.ir/ai-threat-to-next-general-election
https://www.iranianbs.com/%D۸%AC%D۹%۸۶%D۸%AC%D۸%A۷%D۹%۸۴%E۲%۸۰%۸C%D۹%۸۷%D۸%A۷%DB%۸C-%D۸%B۳%DB%۸C%D۸%A۷%D۸%B۳%DB%۸C-%DA%A۹%D۹%۸۷-%D۹%۸۷%D۹%۸۸%D۸%B۴-%D۹%۸۵%D۸%B۵%D۹%۸۶%D۹%۸۸%D۸%B۹%DB%۸C-%D۹%۸۵%DB%۸C%E۲%۸۰%۸C%D۸%AA%D۹%۸۸%D۸%A۷/