به گزارش گروه علم و آموزش ایرنا از تارنمای خبری ساینس آلرت، براساس یک به روزرسانی از دستورالعمل وزارت دفاع آمریکا، آمریکا تعهد به توسعه و استفاده از سلاح های خودکار را تشدید کرده است.
این بهروزرسانی که ۲۵ ژانویه ۲۰۲۳ منتشر شد، این اولین بار در یک دهه گذشته است که این دستورالعمل روی سلاحهای خودکار هوش مصنوعی تمرکز دارد. این اتفاق بعد از برنامه اجرایی که ناتو ۱۳ اکتبر ۲۰۲۲ منتشر کرد و با هدف حفظ برتری فناورانه این اتحادیه در آنچه که "ربات های قاتل" نامیده می شود، رخ داده است.
مهمات پرسه زن نوعی سامانه تسلیحاتی است که در آن مهمات برای مدتی در محدودهای هدف را جستجو یا به اصطلاح «پرسهزنی» میکنند و پس از یافتن هدف به آن حمله میکنند.
هر دو اقدام منعکس کننده درس مهمی است که ارتش ها در سراسر جهان از عملیات های جنگی اخیر در اوکراین و قره باغ آموخته اند، اینکه: هوش مصنوعی تسلیحاتی آینده جنگ ها است.
ریچارد مویز، مدیر «ماده ۳۶»، یک سازمان بشردوستانه متمرکز بر کاهش آسیب های ناشی از سلاح ها، در مصاحبه ای گفت: می دانیم فرماندهان ارزش نظامی مهمات پرسه زن را در اوکراین می بینند.
وی افزود: این سلاحها که ترکیبی از بمب و پهپاد هستند و میتوانند برای مدتهای طولانی در حال انتظار برای رسیدن به هدف بمانند. در حال حاضر، چنین موشک های نیمه خودکاری عموماً با کنترل قابل توجه انسانی بر تصمیمات کلیدی، مورد استفاده قرار می گیرند.
فشار جنگ
اما با افزایش تلفات در اوکراین، فشار برای دستیابی به مزیت های تعیین کننده در میدان نبرد با سلاح های کاملاً خودمختار افزایش می یابد - روبات هایی که می توانند بدون نیاز به نظارت انسانی، اهداف خود را انتخاب، شکار و حمله کنند.
یک تولیدکننده روس برنامههای خود را برای توسعه نسخه جنگی جدید ربات شناسایی مارکر که یک وسیله نقلیه زمینی بدون سرنشین است، اعلام کرد تا نیروهای مستقر در اوکراین را تقویت کند.
پهپادهای کاملاً خودکار در حال حاضر برای دفاع از تأسیسات انرژی اوکراین در مقابل پهپادهای دیگر به کار می روند. وحید نوابی، مدیرعامل پیمانکار دفاعی آمریکا که پهپاد نیمه خودران Switchblade را تولید میکند، گفت: که فناوری تبدیل این سلاحها به سلاح های کاملاً خودمختار در دسترس است.
میخائیلو فدورو وزیر حمل و نقل دیجیتال اوکراین می گوید سلاح های کاملا خودکار گام بعدی منطقی و اجتناب ناپذیر جنگ است و سربازان ۶ ماه آینده این تسلیحات را میادین نبرد خواهند دید.
طرفداران سیستمهای تسلیحاتی کاملاً خودکار استدلال میکنند که این فناوری با دور نگه داشتن سربازان از میدان جنگ، آنها را از خطر دور نگه میدارد. آنها همچنین اجازه می دهند تصمیم های نظامی با سرعت فوق بشری گرفته شود و قابلیت های دفاعی به طور اساسی بهبود یابد.
در حال حاضر، تسلیحات نیمه خودکار، مانند مهمات پرسه زن که اهداف را ردیابی و خود را منفجر می کنند، به یک "انسان درون حلقه" (شاخه ای از هوش مصنوعی) نیاز دارند. آنها می توانند اقداماتی را توصیه کنند، اما از اپراتورهای خود می خواهند که نخستین گام را بردارند.
سیستم های روباتیک حلقه انسان، با ترکیب مهارت های شناختی یک اپراتور انسان با ابزار و رفتارهای مستقل، قادر به انجام وظایف پیچیده در محیط های غیر ساختاری هستند.
در مقابل، پهپادهای کاملاً خودکار، مانند «شکارچیان پهپادها» که اکنون در اوکراین مستقر شدهاند، میتوانند پرنده های بدون سرنشین را در روز و شب، بدون نیاز به مداخله اپراتور و سریعتر از سیستمهای تسلیحاتی کنترلشده توسط انسان، ردیابی و غیرفعال کنند.
منتقدانی مانند کارزار تبلیغاتی توقف رباتهای قاتل، بیش از یک دهه است که از ممنوعیت تحقیق و توسعه در زمینه سامانه های تسلیحاتی خودکار حمایت میکنند. آنها آینده ای را پیش بینی می کنند که سامانه های تسلیحاتی خودکار به طور خاص برای هدف قرار دادن انسان ها و نه فقط ابزارها، زیرساخت ها و سایر سلاح ها طراحی شده اند.
استدلال آنها این است که تصمیم های دوران جنگ در مورد زندگی و مرگ باید در اختیار انسان باقی بماند. تبدیل این تصمیم ها به یک الگوریتم، شکل نهایی ناانسانی کردن دیجیتالی است. علاوه برآن سامانه های خودکار، فاقد قضاوت انسانی برای تمایز بین غیرنظامیان و اهداف نظامی هستند. این سلاح ها با کاهش خطر ادراک شده، آستانه جنگ را پایین می آورند و کنترل معنادار انسان را بر آنچه در میدان نبرد اتفاق می افتد، از بین می برند.
براین اساس ارتشهایی که بیشترین سرمایهگذاری را روی سیستمهای تسلیحاتی خودکار دارند شامل آمریکا، روسیه، چین، کره جنوبی و اتحادیه اروپا، جهان را وارد یک مسابقه تسلیحاتی جدید پرهزینه و بیثبات کننده میکنند. یکی از پیامدهای این اقدام میتواند افتادن این فناوری جدید و خطرناک به دست تروریستها و خارج شدن از کنترل دولت ها باشد.
در همین حال دستورالعمل به روز شده وزارت دفاع، اعلام کرده است آمریکا از سامانه های تسلیحاتی خودکار با میزان مناسب قضاوت انسانی استفاده خواهد کرد.
اما دیدهبان حقوق بشر در بیانیهای اعلام کرد که دستورالعمل جدید معنای عبارت «میزان مناسب» را روشن نمیکند و رهنمودهایی در مورد اینکه چه کسی باید آن را تعیین کند، مشخص نکرده است.
اما همانطور که گرگوری آلن، کارشناس اندیشکده دفاع ملی و روابط بینالملل مرکز مطالعات استراتژیک و بینالمللی می گوید این لحن آستانه پایینتری نسبت به «کنترل معنادار انسانی» مورد درخواست منتقدان، ایجاد میکند.
او خاطرنشان می کند که عبارت وزارت دفاع این امکان را فراهم می کند که در موارد خاص، مانند هواپیماهای جاسوسی، میزان کنترل انسانی مناسب را کم تا هیچ درنظر گرفته شود.
دستورالعمل به روز شده همچنین شامل زبان نویدبخش استفاده اخلاقی از سیستم های تسلیحاتی خودکار است، به ویژه با ایجاد یک سیستم نظارت برای توسعه و به کارگیری فناوری، و با اصرار بر استفاده از سلاح ها مطابق با قوانین بین المللی جنگ موجود.
اما مویس خاطرنشان کرد که حقوق بینالملل در حال حاضر چارچوب مناسبی برای درک مفهوم سلاح خودکار ارایه نمیکند.
برای مثال، چارچوب قانونی کنونی روشن نمیکند که فرماندهان مسئول درک این هستند که چه چیزی سیستمهای مورد استفاده آنها را به کار می اندازد، یا اینکه محدوده و زمان کاربرد این سیستم ها را باید محدود کنند.
کمیته بین المللی صلیب سرخ، متولی حقوق بشردوستانه بین المللی، تاکید دارد که تعهدات قانونی فرماندهان و متصدیان " را نمی توان به ماشین، الگوریتم یا سامانه تسلیحاتی منتقل شود." در حال حاضر، انسان ها مسئول حفاظت از غیرنظامیان و محدود کردن خسارات جنگی با اطمینان از متناسب بودن استفاده از زور با اهداف نظامی هستند.
در صورت استقرار سلاحهای هوشمند مصنوعی در میدان نبرد و ایجاد تلفات غیرنظامی چه کسی باید مسئول شناخته شود؟ این سوالی بسیار مهم است که پاسخ روشنی برای آن وجود ندارد.
نظر شما