آیا میتوان فنآوریهای نظامی پیشرفته را قبل از دیر شدن رام کرد؟
آیا میتوان فنآوریهای نظامی پیشرفته را قبل از دیر شدن رام کرد؟ برای نزدیک به 14 سال، عوامل صهیونیستی، دانشمند ارشد هسته ای ایران، شهید محسن فخری زاده را که بر برنامه مخفیانه ساخت کلاهک هسته ای نظارت می کرد، هدف قرار داده بودند.
در 27 نوامبر 2020، در اقدامی که جهان را بهت زده کرد، مقامات اطلاعاتی اسرائیل این دانشمند را ترور کردند .
شهید فخری زاده و همسرش سواحل خزر را ترک کرده بودند و با کاروانی متشکل از چهار خودرو به سمت خانه خانوادگی خود در حومه ایران در حال حرکت بودند.
با نزدیک شدن به یک دوربرگردان، آبشاری از گلوله ها شیشه جلوی آنها را شکست و بارها به فخری زاده اصابت کرد.
عامل اسرائیلی که این ترور را انجام داد، مجبور به فرار از صحنه نبود: تیرانداز از مسلسل کنترل از راه دور استفاده کرده بود که از فاصله بیش از 1000 مایلی منفجر می شد.
موساد یک تفنگ ساخت بلژیک را با یک دستگاه روباتیک پیشرفته سفارشی کرده بود که در بستر یک کامیون وانت قرار می گرفت و به مجموعه ای از دوربین ها مجهز بود که دید کاملی از هدف و محیط اطراف را فراهم می کرد.
برای محاسبه تأخیر در ارسال سیگنال به سلاح، موساد از نرمافزار هوش مصنوعی برای محاسبه تأخیر زمانی، لرزش کامیون با شلیک هر گلوله و سرعت خودروی فخریزاده استفاده کرد.
این عملیات بهجای اینکه بهعنوان یک عملیات دور از دسترس باشد، منادی نوآوری در آینده بوده است.
کشورهای بزرگ و کوچک برای به دست آوردن پهپادهای پیشرفته، ترکیب تجزیه و تحلیل هدف گیری الگوریتمی، و توسعه مجموعه ای از سلاح های زمینی و دریایی خودمختار، همه با نظارت یا محدودیت کمی، در حال رقابت هستند.
به این ترتیب، کشورها در مورد قوانین مشترک در مورد توسعه، استقرار و استفاده از این ابزارها در جنگ به توافق برسند.
برای تقویت نظارت و پیش بینی پذیری، کارشناسان و سیاست گذاران باید در نظر داشته باشند که قدرت های پیشرو هوش مصنوعی چه گام هایی را می توانند بردارند.
ایالات متحده میتواند با تعهد به نظارت بر توسعه سلاحهای هوش مصنوعی پیشرو باشد.
همچنین میتواند با کشورهای دیگر گروهی برای نظارت متخصص ایجاد کند که نحوه استفاده از هوش مصنوعی در جنگ را زیر نظر داشته باشد.
در نهایت، کشورها باید پای میز مذاکره بیایند تا در مورد هنجارهای استفاده از فناوری نظامی نوظهور تصمیم بگیرند – قبل از اینکه خیلی دیر شود.
از اوکراین تا غزه . سیستمهای هوش مصنوعی مرتبط با امنیت ملی طیف وسیعی از کاربردها را در بر میگیرند، اما میتوانند به طور گسترده طبقهبندی شوند به وظایف بالادستی (اطلاعات، نظارت و شناسایی، فرماندهی و کنترل، مدیریت اطلاعات، لجستیک و آموزش) و وظایف پایین دستی (انتخاب هدف و تعامل) طبقهبندی شوند.
به طور مشخص، برنامههای کاربردی هوش مصنوعی به ارتش این امکان را میدهد تا ظرفیت تحلیلی بیشتری – برای جمعآوری و تجزیه و تحلیل دادههای میدان نبرد و افزایش ظرفیت عملیاتی – برای حملات موشکی و استقرار پهپادهای خودکار مجهز به هوش مصنوعی.
برخی از کارشناسان استدلال می کنند که ایالات متحده نمی تواند مانع از پیشرفت به سمت توسعه سلاح های کاملا خودمختار شود تا مبادا چین یا روس ها از تلاش های خود پیشی بگیرند. و مطمئناً، قابلیتهای هوش مصنوعی به سرعت در حال گسترش هستند.
همانطور که جنگ اوکراین و خصومتها در غزه نشان میدهد، بدون یک چارچوب مشترک و محدودیتهای توافق شده، دولتها در معرض خطر یک مسابقه تا ته هستند و سیستمهای مخربتر را با محدودیتهای اندک مستقر میکنند.
آیا میتوان فنآوریهای نظامی پیشرفته را قبل از دیر شدن رام کرد؟
جنگ کنونی در اوکراین به عنوان یک ” آزمایشگاه فوق العاده اختراع ” توصیف شده است که به شرکت های فناوری و کارآفرینان فرصتی داده است تا ابزارهای جدید را مستقیماً در میدان جنگ آزمایش کنند.
این درگیری تغییر عمده ای را در نحوه مبارزه آشکار کرده است. یکی از مهمترین تغییرات، معرفی سیستمهای مدیریت نبرد یکپارچه است که شفافیت لحظه به لحظه را در مورد حرکات نیروها و مکانها ارائه میدهد – تا سطح واحدهای اولیه.
سرلشکر وادیم اسکیبیتسکی، یک مقام ارشد در سرویس اطلاعات نظامی اوکراین، هشدار می دهد : «امروز، ستونی از تانک ها یا ستونی از سربازان در حال پیشروی را می توان در عرض سه تا پنج دقیقه کشف کرد و در سه دقیقه دیگر ضربه زد . “قابلیت بقا در حرکت بیش از 10 دقیقه نیست.”
خط مقدم اوکراین توسط هواپیماهای بدون سرنشین پر شده است که نه تنها نظارت مستمر بر تحولات میدان نبرد را فراهم میکنند، بلکه در صورت تطبیق با سیستمهای هدفگیری مجهز به هوش مصنوعی، امکان نابودی تقریباً آنی داراییهای نظامی را نیز فراهم میکنند.
طبیعتاً هم روسها و هم اوکراینیها به جنگ الکترونیک ضد پهپاد روی آوردهاند تا تأثیر هواپیماهای بدون سرنشین را نفی کنند. اما این امر باعث پیشرفت دیگری شده است – فشار سریع برای خودمختاری کامل.
همانطور که محقق نظامی TX Hammes مینویسد ، «پهپادهای خودران نه پیوند رادیویی آسیبپذیر به خلبانان خواهند داشت و نه به راهنمایی GPS نیاز دارند. خودمختاری همچنین تعداد پهپادهایی را که میتوان در یک زمان به کار گرفت، بسیار افزایش میدهد.»
هوش مصنوعی نظامی نیز به طور مشابه جنگ در غزه را شکل می دهد. پس از اینکه شبهنظامیان حماس با خنثی کردن قابلیتهای نظارتی پیشرفته « دیوار آهنی » این کشور – یک مانع فیزیکی به طول 40 مایل مجهز به دوربینهای ویدیویی هوشمند، حسگرهای هدایتشونده لیزری و رادار پیشرفته – نیروهای اسرائیل را متحیر کردند- اسرائیل این ابتکار فناوری را پس گرفت.
نیروهای دفاعی اسرائیل (IDF) از یک پلت فرم هدف گیری هوش مصنوعی موسوم به “انجیل” استفاده کرده اند. بر اساس گزارشها ، این سیستم نقش اصلی را در تهاجم جاری بازی میکند و «توصیههای خودکار» را برای شناسایی و حمله به اهداف ارائه میکند.
این سیستم اولین بار در سال 2021 و در جریان جنگ 11 روزه اسرائیل با حماس فعال شد.
برای جنگ 2023، ارتش اسرائیل تخمین می زند که در 35 روز اول جنگ به 15000 هدف در غزه حمله کرده است.
(در مقایسه، اسرائیل بین 5000 تا 6000 هدف را در درگیری 2014 غزه ، که 51 روز طول کشید، هدف قرار داد.) در حالی که انجیل قابلیت های نظامی حیاتی را ارائه می دهد، تلفات غیرنظامیان نگران کننده است.
یک منبع پلت فرم را به عنوان یک ” کارخانه ترور دسته جمعی ” با تاکید بر کمیت اهداف بیش از کیفیت آنها توصیف می کند.
همچنین این خطر وجود دارد که اتکای اسرائیل به هدفگیری هوش مصنوعی منجر به ” سوگیری اتوماسیون ” شود، که در آن اپراتورهای انسانی مستعد پذیرش توصیههای تولید شده توسط ماشین در شرایطی هستند که در آن انسانها به نتایج متفاوتی میرسیدند.
آیا اجماع بین المللی امکان پذیر است؟ همانطور که جنگ در اوکراین و غزه نشان می دهد، ارتش های رقیب با وجود اجماع اندک در مورد مرزهای اخلاقی برای استقرار فناوری های آزمایش نشده در میدان نبرد، برای استقرار ابزارهای خودکار در حال رقابت هستند.
تحقیقات من نشان میدهد که قدرتهای پیشرو مانند ایالات متحده متعهد به استفاده از «سیستمهای منسجم و مستقل در همه حوزهها» هستند.
به عبارت دیگر، ارتش های بزرگ در حال تجدید نظر در احکام اساسی در مورد چگونگی جنگ و تکیه بر فناوری های جدید هستند.
آیا میتوان فنآوریهای نظامی پیشرفته را قبل از دیر شدن رام کرد؟
این پیشرفتها بهویژه در پرتو پرسشهای حلنشده متعدد نگرانکننده هستند: هنگام استفاده از هواپیماهای بدون سرنشین خودران یا مسلسلهای روباتی در مناطق پرجمعیت، قوانین دقیقاً چیست؟ چه تدابیری لازم است و چه کسی در صورت آسیب دیدن غیرنظامیان مقصر است؟
همانطور که کشورهای بیشتری متقاعد می شوند که سلاح های هوش مصنوعی کلید آینده جنگ را دارند، آنها انگیزه خواهند داشت تا منابع را برای توسعه و تکثیر این فناوری ها اختصاص دهند.
اگرچه ممکن است ممنوعیت سلاحهای خودمختار مرگبار یا محدود کردن ابزارهای مجهز به هوش مصنوعی غیرعملی باشد، اما این بدان معنا نیست که کشورها نمیتوانند ابتکار عمل بیشتری برای شکل دادن به نحوه استفاده از آنها داشته باشند.
ایالات متحده در این زمینه پیام های متفاوتی ارسال کرده است. در حالی که دولت بایدن مجموعهای از سیاستها را منتشر کرده است که استفاده مسئولانه از سلاحهای خودمختار را مشخص میکند و از کشورها میخواهد که اصول مشترک مسئولیت سلاحهای هوش مصنوعی را اجرا کنند، ایالات متحده نیز در مجامع بینالمللی مانع از پیشرفت شده است.
در یک چرخش طعنه آمیز، در نشست اخیر کمیته سازمان ملل متحد در مورد سلاح های خودمختار، هیئت روسی در واقع موضع آمریکا را تایید کرد ، که استدلال می کرد که قرار دادن سلاح های خودمختار تحت “کنترل معنادار انسانی” بسیار محدود کننده است.
سیاست گذاران آمریکایی می توانند بهتر عمل کنند، با سه ایده که ارزش بررسی دارد.
اول، ایالات متحده باید متعهد به نظارت معنادار در مورد توسعه سلاح های خودمختار و هوش مصنوعی پنتاگون باشد. فرمان اجرایی جدید کاخ سفید در مورد هوش مصنوعی ، تدوین یک یادداشت امنیت ملی را برای تشریح چگونگی برخورد دولت با خطرات امنیت ملی ناشی از این فناوری، الزامی می کند.
یکی از ایدههای این یادداشت ایجاد یک هیئت هوش مصنوعی امنیت ملی غیرنظامی است که احتمالاً از هیئت نظارت بر حریم خصوصی و آزادیهای مدنی (سازمانی که وظیفه دارد اطمینان حاصل کند که دولت فدرال تلاشهای پیشگیری از تروریسم را با حفاظت از آزادیهای مدنی متعادل میکند) الگوبرداری شده است.
به چنین نهادی میتوان مسئولیتهای نظارتی برای پوشش برنامههای هوش مصنوعی که فرض میشود بر امنیت و حقوق تأثیر میگذارند، و همچنین وظیفه نظارت بر فرآیندهای در حال انجام هوش مصنوعی – چه در مورد گروه ویژه هوش مصنوعی مولد وزارت دفاع یا ارائه مشاوره به پنتاگون در مورد هوش مصنوعی بر عهده داشته باشد.
محصولات و سیستم های در دست توسعه با بخش خصوصی. یک ایده مرتبط این است که آژانس های امنیت ملی تیم های مستقل ارزیابی ریسک هوش مصنوعی ایجاد کنند .
این واحدها بر عملکردهای ارزیابی یکپارچه، طراحی، یادگیری و ارزیابی ریسک نظارت خواهند داشت که دستورالعملها و پادمانهای عملیاتی را ایجاد میکنند، خطرات را آزمایش میکنند، فعالیتهای تیم قرمز هوش مصنوعی را هدایت میکنند و بازبینیهای پس از اقدام را انجام میدهند.
دوم، ایالات متحده و دموکراسیهای همفکر خود باید برای ایجاد یک گروه متخصص مستقل مورد تحریم بینالمللی برای نظارت بر اثرات مستمر ابزارهای هوش مصنوعی که در جنگ استفاده میشوند، تلاش کنند.
به عنوان مثال، اگر گزارشها مبنی بر اینکه 90 درصد از اهداف مورد اصابت قرار گرفتهاند در درگیری غزه به دلیل توصیههای ایجاد شده توسط هوش مصنوعی صحت داشته باشد، سیاستگذاران باید درک دقیقتری از خطرات و مزایای چنین سیستمهایی داشته باشند.
تأثیرات غیرنظامی این سکوهای هدف گیری چیست؟ چه پارامترهایی استفاده میشوند و چه سطحی از نظارت بر الگوریتمهای هدفگیری اعمال میشود؟ چه نوع رویه های پاسخگویی وجود دارد؟ هدف این گروه توجه به حوزههای فعالیت و ارائه توصیههایی برای دولتها و سازمانهای بینالمللی در مورد چگونگی اصلاح مشکلات نوظهور خواهد بود.
در نهایت، دولت ها باید در مورد ایجاد یک طبقه برای رفتار برای نحوه استفاده ارتش از فناوری های نوظهور در جنگ توافق کنند.
یک کیفیت غرب وحشی وجود دارد که چگونه کشورها از فناوری های جدید برای پیشبرد منافع امنیتی خود استفاده می کنند.
خطر این است که کشورها، بهویژه رژیمهای غیردموکراتیک، مسابقهای را آغاز کنند و از ترکیبهای مرگبارتری از ابزارها برای تأثیرات مخرب استفاده کنند.
دولتها میتوانند بر روی پارامترهای اساسی – وام گرفتن از اصول هوش مصنوعی نظامی که ایالات متحده و سایر کشورها پیشنهاد کردهاند – به توافق برسند تا اطمینان حاصل کنند که استفاده از سلاحهای هوش مصنوعی با قوانین بشردوستانه بینالمللی مطابقت دارد و تدابیر امنیتی برای کاهش خطر تشدید غیرعمدی وجود دارد. و شکست های فاجعه بار
این اولین باری نیست که رهبران بین المللی با پتانسیل ویرانگر فناوری های جدید روبرو می شوند.
همانطور که رهبران جهانی پس از جنگ جهانی دوم برای ایجاد حفاظ رفتار از طریق کنوانسیون ژنو به اجماع رسیدند، رهبران بینالمللی نیز باید تلاش مشابهی را برای فناوریهای هوش مصنوعی انجام دهند.
لیبرال دموکراسی ها می توانند نقش بسیار بیشتری در تعیین هنجارها و شرایط پایه برای استقرار این فناوری های جدید قدرتمند جنگ ایفا کنند.