تجربه جنگ اوکراین تحقیقات برای توسعه ربات‌های قاتل را افزایش داده است

تهران- ایرنا- افزایش تلفات در اوکراین، فشار برای دستیابی به مزیت‌های تعیین کننده در میدان نبرد با سلاح‌های خودران را افزایش داده است؛‌ روبات‌هایی که می‌توانند بدون نیاز به نظارت انسانی، اهداف خود را انتخاب و شکار کرده و به آنها حمله کنند.

به گزارش گروه علم و آموزش ایرنا از تارنمای خبری ساینس آلرت، براساس یک به روزرسانی از دستورالعمل وزارت دفاع آمریکا،‌ آمریکا تعهد به توسعه و استفاده از سلاح های خودکار را تشدید کرده است.

این به‌روزرسانی که ۲۵ ژانویه ۲۰۲۳ منتشر شد، این اولین بار در یک دهه گذشته است که این دستورالعمل روی سلاح‌های خودکار هوش مصنوعی تمرکز دارد. این اتفاق بعد از برنامه اجرایی که ناتو ۱۳ اکتبر ۲۰۲۲ منتشر کرد و با هدف حفظ برتری فناورانه این اتحادیه در آنچه که "ربات های قاتل" نامیده می شود، رخ داده است.

مهمات پرسه زن نوعی سامانه تسلیحاتی است که در آن مهمات برای مدتی در محدوده‌ای هدف را جستجو یا به اصطلاح «پرسه‌زنی» می‌کنند و پس از یافتن هدف به آن حمله می‌کنند.

هر دو اقدام منعکس کننده درس مهمی است که ارتش ها در سراسر جهان از عملیات های جنگی اخیر در اوکراین و قره باغ آموخته اند، اینکه: هوش مصنوعی تسلیحاتی آینده جنگ ها است.

ریچارد مویز، مدیر «ماده ۳۶»، یک سازمان بشردوستانه متمرکز بر کاهش آسیب های ناشی از سلاح ها، در مصاحبه ای گفت: می دانیم فرماندهان ارزش نظامی مهمات پرسه زن را در اوکراین می بینند.

وی افزود: این سلاح‌ها که ترکیبی از بمب و پهپاد هستند و می‌توانند برای مدت‌های طولانی در حال انتظار برای رسیدن به هدف بمانند. در حال حاضر، چنین موشک های نیمه خودکاری عموماً با کنترل قابل توجه انسانی بر تصمیمات کلیدی، مورد استفاده قرار می گیرند.

تجربه جنگ اوکراین تحقیقات برای توسعه ربات‌های قاتل را افزایش داده است

فشار جنگ

اما با افزایش تلفات در اوکراین، فشار برای دستیابی به مزیت های تعیین کننده در میدان نبرد با سلاح های کاملاً خودمختار افزایش می یابد - روبات هایی که می توانند بدون نیاز به نظارت انسانی، اهداف خود را انتخاب، شکار و حمله کنند.

یک تولیدکننده روس برنامه‌های خود را برای توسعه نسخه جنگی جدید ربات شناسایی مارکر که یک وسیله نقلیه زمینی بدون سرنشین است، اعلام کرد تا نیروهای مستقر در اوکراین را تقویت کند.

پهپادهای کاملاً خودکار در حال حاضر برای دفاع از تأسیسات انرژی اوکراین در مقابل پهپادهای دیگر به کار می روند. وحید نوابی، مدیرعامل پیمانکار دفاعی آمریکا که پهپاد نیمه خودران Switchblade را تولید می‌کند، گفت: که فناوری تبدیل این سلاح‌ها به سلاح های کاملاً خودمختار در دسترس است.

میخائیلو فدورو وزیر حمل و نقل دیجیتال اوکراین می گوید سلاح های کاملا خودکار گام بعدی منطقی و اجتناب ناپذیر جنگ است و سربازان ۶ ماه آینده این تسلیحات را میادین نبرد خواهند دید.

طرفداران سیستم‌های تسلیحاتی کاملاً خودکار استدلال می‌کنند که این فناوری با دور نگه داشتن سربازان از میدان جنگ، آنها را از خطر دور نگه می‌دارد. آنها همچنین اجازه می دهند تصمیم های نظامی با سرعت فوق بشری گرفته شود و قابلیت های دفاعی به طور اساسی بهبود یابد.

در حال حاضر، تسلیحات نیمه خودکار، مانند مهمات پرسه زن که اهداف را ردیابی و خود را منفجر می کنند، به یک "انسان درون حلقه" (شاخه ای از هوش مصنوعی) نیاز دارند. آنها می توانند اقداماتی را توصیه کنند، اما از اپراتورهای خود می خواهند که نخستین گام را بردارند.

سیستم های روباتیک حلقه انسان، با ترکیب مهارت های شناختی یک اپراتور انسان با ابزار و رفتارهای مستقل، قادر به انجام وظایف پیچیده در محیط های غیر ساختاری هستند.

در مقابل، پهپادهای کاملاً خودکار، مانند «شکارچیان پهپادها» که اکنون در اوکراین مستقر شده‌اند، می‌توانند پرنده های بدون سرنشین را در روز و شب، بدون نیاز به مداخله اپراتور و سریع‌تر از سیستم‌های تسلیحاتی کنترل‌شده توسط انسان، ردیابی و غیرفعال کنند.

منتقدانی مانند کارزار تبلیغاتی توقف ربات‌های قاتل، بیش از یک دهه است که از ممنوعیت تحقیق و توسعه در زمینه سامانه های تسلیحاتی خودکار حمایت می‌کنند. آنها آینده ای را پیش بینی می کنند که سامانه های تسلیحاتی خودکار به طور خاص برای هدف قرار دادن انسان ها و نه فقط ابزارها، زیرساخت ها و سایر سلاح ها طراحی شده اند.

تجربه جنگ اوکراین تحقیقات برای توسعه ربات‌های قاتل را افزایش داده است

استدلال آنها این است که تصمیم های دوران جنگ در مورد زندگی و مرگ باید در اختیار انسان باقی بماند. تبدیل این تصمیم ها به یک الگوریتم، شکل نهایی ناانسانی کردن دیجیتالی است. علاوه برآن سامانه های خودکار، فاقد قضاوت انسانی برای تمایز بین غیرنظامیان و اهداف نظامی هستند. این سلاح ها با کاهش خطر ادراک شده، آستانه جنگ را پایین می آورند و کنترل معنادار انسان را بر آنچه در میدان نبرد اتفاق می افتد، از بین می برند.

براین اساس ارتش‌هایی که بیشترین سرمایه‌گذاری را روی سیستم‌های تسلیحاتی خودکار دارند شامل آمریکا، روسیه، چین، کره جنوبی و اتحادیه اروپا، جهان را وارد یک مسابقه تسلیحاتی جدید پرهزینه و بی‌ثبات کننده می‌کنند. یکی از پیامدهای این اقدام می‌تواند افتادن این فناوری جدید و خطرناک به دست تروریست‌ها و خارج شدن از کنترل دولت ها باشد.

در همین حال دستورالعمل به روز شده وزارت دفاع،‌ اعلام کرده است آمریکا از سامانه های تسلیحاتی خودکار با میزان مناسب قضاوت انسانی استفاده خواهد کرد.

اما دیده‌بان حقوق بشر در بیانیه‌ای اعلام کرد که دستورالعمل جدید معنای عبارت «میزان مناسب» را روشن نمی‌کند و رهنمودهایی در مورد اینکه چه کسی باید آن را تعیین کند، مشخص نکرده است.

اما همانطور که گرگوری آلن، کارشناس اندیشکده دفاع ملی و روابط بین‌الملل مرکز مطالعات استراتژیک و بین‌المللی می گوید این لحن آستانه پایین‌تری نسبت به «کنترل معنادار انسانی» مورد درخواست منتقدان، ایجاد می‌کند.

او خاطرنشان می کند که عبارت وزارت دفاع این امکان را فراهم می کند که در موارد خاص، مانند هواپیماهای جاسوسی، میزان کنترل انسانی مناسب را کم تا هیچ درنظر گرفته شود.

دستورالعمل به روز شده همچنین شامل زبان نویدبخش استفاده اخلاقی از سیستم های تسلیحاتی خودکار است، به ویژه با ایجاد یک سیستم نظارت برای توسعه و به کارگیری فناوری، و با اصرار بر استفاده از سلاح ها مطابق با قوانین بین المللی جنگ موجود.

اما مویس خاطرنشان کرد که حقوق بین‌الملل در حال حاضر چارچوب مناسبی برای درک مفهوم سلاح خودکار ارایه نمی‌کند.

برای مثال، چارچوب قانونی کنونی روشن نمی‌کند که فرماندهان مسئول درک این هستند که چه چیزی سیستم‌های مورد استفاده آنها را به کار می اندازد، یا اینکه محدوده و زمان کاربرد این سیستم ها را باید محدود کنند.

کمیته بین المللی صلیب سرخ، متولی حقوق بشردوستانه بین المللی، تاکید دارد که تعهدات قانونی فرماندهان و متصدیان " را نمی توان به ماشین، الگوریتم یا سامانه تسلیحاتی منتقل شود." در حال حاضر، انسان ها مسئول حفاظت از غیرنظامیان و محدود کردن خسارات جنگی با اطمینان از متناسب بودن استفاده از زور با اهداف نظامی هستند.

در صورت استقرار سلاح‌های هوشمند مصنوعی در میدان نبرد و ایجاد تلفات غیرنظامی چه کسی باید مسئول شناخته شود؟ این سوالی بسیار مهم است که پاسخ روشنی برای آن وجود ندارد.

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha