الگوریتم های جنگ: استفاده از هوش مصنوعی در تصمیم گیری در درگیری های مسلحانه
تصمیم گیری در درگیری های مسلحانه با هوش مصنوعی -در مدتی بیش از یک سال، Chat-GPT به نامی شناخته شده تبدیل شده است که نشان دهنده پیشرفت های خیره کننده در ابزارهای نرم افزاری مبتنی بر هوش مصنوعی، به ویژه مدل های هوش مصنوعی مولد است .
این تحولات با پیش بینی های مکرر همراه شده است که هوش مصنوعی انقلابی در جنگ ایجاد خواهد کرد.
در این مرحله از توسعه هوش مصنوعی، پارامترهای آنچه ممکن است هنوز در حال بررسی است، اما پاسخ نظامی به فناوری هوش مصنوعی غیرقابل انکار است.
کاغذ سفید چین در مورد دفاع ملی ، تئوری «هوشمندسازی» جنگ را ترویج کرد که در آن استفاده از هوش مصنوعی کلیدی برای طرح مدرنسازی PLA است.
جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده، هشدار داد که هوش مصنوعی ممکن است ” قوی ترین سلاح زمان ما” باشد.
و در حالی که سیستمهای تسلیحاتی خودمختار تمایل دارند بر بحثهای مربوط به هوش مصنوعی در کاربردهای نظامی تسلط داشته باشند، توجه کمتری به استفاده از هوش مصنوعی در سیستمهایی که از تصمیمهای انسانی در درگیریهای مسلحانه پشتیبانی میکنند، شده است.
در این پست، روبن استوارت، مشاور نظامی کمیته بینالمللی صلیب سرخ، و جورجیا هیندز، مشاور حقوقی، به دنبال بررسی انتقادی برخی از مزایای تبلیغشده هوش مصنوعی در هنگام استفاده از تصمیمات بازیگران مسلح در جنگ هستند.
به طور خاص، حوزههای کاهش آسیب غیرنظامی و سرعت، با تمرکز ویژه بر پیامدهای غیرنظامیان در درگیریهای مسلحانه مورد بحث قرار میگیرد.
حتی قبل از تبلیغات اخیر، احتمالاً قبلاً از هوش مصنوعی به اشکال مختلف استفاده کرده اید، در واقع ممکن است در حال خواندن این مقاله در دستگاهی باشید که عمدتاً از هوش مصنوعی پشتیبانی می کند.
اگر از اثر انگشت یا چهره برای باز کردن گوشی خود استفاده کرده اید، در رسانه های اجتماعی شرکت کرده اید، سفرهایی را با استفاده از برنامه تلفنی برنامه ریزی کرده اید یا هر چیزی را به صورت آنلاین از پیتزا گرفته تا کتاب خریداری کرده اید، احتمالاً شامل هوش مصنوعی است.
از بسیاری جهات ما با هوش مصنوعی راحت شدهایم و اغلب ناخواسته آن را در زندگی روزمره خود میپذیریم.
اما اگر از آن نرم افزار تشخیص چهره برای شناسایی فردی که مورد حمله قرار می گیرد استفاده شود، چه؟
چه میشد اگر نرمافزاری به جای یافتن ارزانترین پرواز برای رسیدن به مقصد، هواپیماهایی را برای انجام حمله هوایی به هدف پیدا میکرد.
یا به جای توصیه بهترین مکان پیتزا یا نزدیکترین تاکسی موجود، دستگاه نقشه های حمله را توصیه می کرد؟
ظاهراً این واقعیتی است که «به زودی» از سوی شرکتهایی است که پلتفرمهای تصمیمگیری مبتنی بر هوش مصنوعی را برای اهداف دفاعی توسعه میدهند.
این نوع سیستمهای پشتیبانی تصمیمگیری هوش مصنوعی (AI-DSS) ابزارهای رایانهای هستند که از نرمافزار هوش مصنوعی برای نمایش، ترکیب و/یا تجزیه و تحلیل دادهها و در برخی موارد توصیهها – حتی پیشبینی – برای کمک به تصمیمگیری انسان در جنگ استفاده میکنند.
مزایای AI-DSS اغلب در چارچوب افزایش آگاهی موقعیتی و چرخه های تصمیم گیری سریعتر است.
این ادعاها با توجه به محدودیتهای سیستم هوش مصنوعی و انسانی و در چارچوب فرآیندهای برنامهریزی درگیریهای مدرن در زیر بازگشایی شدهاند.
به حداقل رساندن خطر آسیب به غیرنظامیان در درگیری
ظهور فن آوری های جدید در جنگ اغلب با ادعاهایی همراه است که ادغام آن آسیب غیرنظامی را کاهش می دهد (اگرچه این همیشه در عمل ثابت نمی شود ).
در مورد AI-DSS، ادعا شده است که چنین ابزارهایی می توانند در شرایط خاص به محافظت بهتر از غیرنظامیان در درگیری کمک کنند .
مسلماً حقوق بینالملل بشردوستانه (IHL) فرماندهان نظامی و سایر مسئولین حملات را موظف میکند تا تصمیمات خود را بر اساس اطلاعات از همه منابع در دسترس در زمان مربوطه قرار دهند.
به ویژه در زمینه جنگ شهری، کمیته بینالمللی صلیب سرخ توصیه کرده است که اطلاعات مربوط به عواملی مانند حضور غیرنظامیان و اشیاء غیرنظامی باید شامل مخازن منبع باز مانند اینترنت باشد.
بعلاوه، به طور خاص با در نظر گرفتن هوش مصنوعی و یادگیری ماشینی، کمیته بینالمللی صلیب سرخ به این نتیجه رسیده است که تا جایی که ابزارهای AI-DSS میتوانند جمعآوری و تجزیه و تحلیل سریعتر و گستردهتر این نوع اطلاعات را تسهیل کنند، به خوبی میتوانند تصمیمات بهتری را در تضاد توسط انسانها فراهم کنند که به حداقل برسد. خطرات برای غیرنظامیان
در همان زمان، هر خروجی AI-DSS باید بین چندین منبع بررسی شود تا از اطلاعات مغرضانه یا نادرست محافظت شود .
در حالی که این در مورد هر منبع اطلاعاتی در تضاد صادق است، به ویژه برای AI-DSS مهم است. همانطور که ICRC قبلاً تشریح کرده است ، بررسی صحت خروجی به دلیل عملکرد سیستم و نحوه تعامل کاربران انسانی با ماشینها ممکن است بسیار دشوار باشد – اگر گاهی غیرممکن نباشد. این جنبه ها در زیر بسط داده شده است.
تصمیم گیری در درگیری های مسلحانه با هوش مصنوعی
محدودیت های سیستم
پوشش اخیر پیشرفتهای هوش مصنوعی اغلب شامل نمونههایی از شکست هوش مصنوعی است که گاهی اوقات منجر به مرگ میشود.
مثالها عبارتند از نرمافزاری که افراد با رنگ پوست تیرهتر را تشخیص نمیدهد یا به اشتباه شناسایی نمیکند ، مسیرهای سفری را توصیه میکند که شرایط جادهای بهروز را در نظر نمیگیرند ، و نمونههایی از تلفات ناشی از خودروهای خودران .
برخی از این نارساییها قابل توضیح هستند، اما قابل توجیه نیستند، برای مثال، زیرا دادههایی که بروندادهای خود را بر اساس آنها استوار میکند ، مغرضانه ، خراب، مسموم یا کاملاً نادرست است.
این سیستم ها همچنان می توانند به راحتی “فریب” شوند. می توان از تکنیک ها برای فریب دادن سیستم به دسته بندی اشتباه داده ها استفاده کرد .
برای مثال، تکنیکهای متخاصم میتوانند در تضاد مورد استفاده قرار گیرند تا بر کد منبع سیستم کمکی هدفگیری تأثیر بگذارند، به طوری که اتوبوسهای مدرسه را بهعنوان وسایل نقلیه دشمن شناسایی کند و پیامدهای ویرانکنندهای به همراه داشته باشد.
از آنجایی که هوش مصنوعی برای کارهای پیچیدهتر استفاده میشود، و بهویژه زمانی که چندین لایه تحلیل (و احتمالاً تصمیمگیریها و قضاوتها) جمع میشوند، تأیید آن خروجی نهایی و منبع هر گونه خطایی که به خروجی نهایی کمک میکند تقریباً غیرممکن میشود.
با سیستمهای پیچیدهتر، پتانسیل خطاهای ترکیبی افزایش مییابد – یک نارسایی کوچک در اولین توصیه الگوریتمی وارد میشود و یک فرآیند الگوریتمی دوم را منحرف میکند، که به سومی وارد میشود، و غیره .
بر این اساس، سیستمهای هوش مصنوعی اغلب رفتارهایی از خود نشان میدهند که توسط کاربر یا توسعهدهنده قابل توضیح نیست، حتی پس از تجزیه و تحلیل گسترده پس از عمل. مطالعه ای بر روی مدل زبان بزرگ GPT-4 نشان داد که توانایی آن در حل یک مسئله ریاضی به طور قابل توجهی و غیرقابل توضیح، از 83.6٪ به تنها 35.2٪ سه ماه بعد کاهش یافته است.
رفتارهای غیرقابل پیشبینی نیز میتواند از طریق یادگیری تقویتی ایجاد شود ، جایی که ماشینها در اتخاذ و پنهان کردن رفتارهای پیشبینینشده و گاهی منفی برای گول زدن یا برتری دادن از انسانها بسیار کارآمد هستند: دروغ گفتن برای برنده شدن در مذاکره یا گرفتن میانبر برای شکست دادن بازیهای رایانهای .
چالش های انسان در تعامل با ماشین
AI-DSS تصمیم گیری نمی کند. با این حال، آنها مستقیماً و اغلب به طور قابل توجهی بر تصمیمات انسان تأثیر می گذارند، از جمله به دلیل محدودیت های شناختی و تمایلات انسان ها هنگام تعامل با ماشین ها.
به عنوان مثال، “سوگیری اتوماسیون” به تمایل انسان ها برای به چالش کشیدن انتقادی خروجی یک سیستم یا جستجوی اطلاعات متناقض – به ویژه در شرایط بحرانی زمانی اشاره دارد .
این قبلاً در زمینه های دیگری مانند مراقبت های بهداشتی مشاهده شده است، جایی که دقت تشخیص توسط رادیولوژیست های باتجربه تحت تأثیر خروجی های AI کاذب قرار گرفته است .
تشخیص های نادرست در محیط های بهداشتی می تواند کشنده باشد. و همچنین، درگیری مسلحانه بر سر اعتماد می تواند عواقب مرگباری داشته باشد.
در سال 2003، سیستم دفاعی پاتریوت ایالات متحده دو بار به سمت هواپیماهای ائتلاف دوست شلیک کرد که بر اساس طبقه بندی اشتباه آنها به عنوان موشک های تهاجمی بود.
در تحقیقات بعدی، یکی از کمبودهای عمده شناسایی شده این بود که ” اپراتورها برای اعتماد به نرم افزار سیستم آموزش دیده بودند .”
این روشهای عملکرد، همراه با این ویژگیهای تعامل انسان و ماشین، به طور بالقوه احتمال نتایجی را افزایش میدهد که از قصد تصمیمگیرنده انسانی متفاوت است.
در جنگ، این ممکن است منجر به تشدید تصادفی شود و در هر صورت خطرات را برای غیرنظامیان و افراد محافظت شده افزایش دهد .
تمپو
یکی از مزیت های نظامی تبلیغ شده هوش مصنوعی افزایش سرعت تصمیم گیری است که کاربر را نسبت به حریف خود به ارمغان می آورد.
افزایش سرعت اغلب خطرات بیشتری را برای غیرنظامیان ایجاد می کند، به همین دلیل است که از تکنیک هایی که سرعت را کاهش می دهند، مانند “صبر تاکتیکی” برای کاهش تلفات غیرنظامیان استفاده می شود.
کاهش سرعت تصمیمگیری، از جمله فرآیندها و ارزیابیهایی که تصمیمگیری را تعیین میکنند، به سیستم و کاربر این امکان را میدهد که زمان بیشتری داشته باشند تا:
- بیشتر ببین
- بیشتر درک کنید؛ و
- گزینه های بیشتری را توسعه دهید.
نکته مهم این است که این امر در سراسر زنجیره تصمیم گیری صادق است، نه تنها در “نقطه تصمیم گیری” نهایی.
بر این اساس، ادعاهایی مبنی بر اینکه AI-DSS با سرعت بخشیدن به مراحل وقت گیر در طول مسیر برای تصمیم گیری نهایی در مورد «کشیدن ماشه» در واقع منجر به زمان بیشتری برای صبر تاکتیکی می شود، خطر ساده سازی بیش از حد فرآیند هدف گیری و اجرای عملیات نیرو در درگیری های معاصر
تصمیم گیری در درگیری های مسلحانه با هوش مصنوعی
وقت اضافی به شما امکان می دهد بیشتر ببینید
حمله بدنام هواپیماهای بدون سرنشین در کابل در 29 آگوست 2021، در جریان تخلیه کابل که منجر به کشته شدن 10 غیرنظامی شد، از سوی فرمانده فرماندهی مرکزی به این موضوع نسبت داده شد که ” ما فرصت تجملاتی برای ایجاد الگوی زندگی و چند کار دیگر انجام دهید ”
تحلیل «الگوی زندگی» این است که چگونه برخی از نظامیان ارزیابی حضور و تراکم غیرنظامیان و رزمندگان، برنامههای زمانی، الگوهای حرکت و غیره را در منطقه و اطراف منطقهای که برای حمله در نظر گرفته شده است، توصیف میکنند.
این یک روش حیاتی برای کاهش آسیب غیرنظامیان است . با این حال، ارزیابی یک الگوی زندگی تنها می تواند در زمان واقعی انجام شود – زمانی که غیرنظامیان برای ایجاد چنین الگوهایی نیاز دارند – نمی توان آن را تسریع کرد.
تلاش برای پیش بینی رفتار آینده بر اساس روندهای تاریخی، شرایط فعلی را در بر نمی گیرد.
در این مثال، بررسی مواد اطلاعاتی قدیمیتر، بهویژه ویدئوی حرکتی کامل کابل، تغییراتی را در وضعیت و رفتار رخ داده به دلیل تسلط طالبان و تلاشهای جاری برای تخلیه منعکس نمیکند.
همانطور که راهنمای پیشگیری از تلفات غیرنظامی توضیح میدهد: «اگر بیشتر منتظر بمانید و مشاهده کنید، بیشتر در مورد آنچه اتفاق میافتد میدانید و بهتر برای تصمیمگیری برای استفاده از وسایل کشنده یا غیر کشنده آماده میشوید » یا به قول ناپلئون «لباس پوشیدن». من آهسته آهسته، عجله دارم» – گاهی اوقات بهترین نتایج با انجام کارها عمدی حاصل می شود.
زمان اضافی به کاربر اجازه می دهد تا بیشتر بفهمد
یکی دیگر از دلایل کاهش سرعت تصمیم گیری این است که درک انسان، به ویژه در مورد یک موقعیت پیچیده و گیج کننده، به زمان نیاز دارد تا توسعه یابد و همچنین در مورد پاسخ های مناسب فکر کند.
با زمان کمتر، توانایی انسان برای درک موقعیت کاهش می یابد. فرآیند برنامهریزی نظامی به گونهای طراحی شده است که به فرماندهان و کارکنان وقت بدهد تا محیط عملیاتی، دشمن، نیروهای دوست و غیرنظامیان و مزایا و معایب دورههای عملیاتی را در نظر بگیرند.
همانطور که ژنرال دوایت دی. آیزنهاور توضیح داد، درک به دست آمده از این فرآیند بررسی نمی تواند برون سپاری شود .
زمانی که تصمیم گیرندگان انسانی تصمیمگیرندگانی را در نظر میگیرند که یک مسیر اقدام ایجاد شده یا «توصیهشده» توسط یک AI-DSS را در نظر میگیرند، که توانایی آن در تسریع سرعت عملیات نسبت به حریف احتمالاً بیشترین دلیل استفاده از آن است.
بدون انجام، یا حتی درک کامل فرآیند توسعه یک طرح پیشنهادی توسط AI-DSS، برنامه ریز انسانی احتمالاً درک محدودی از موقعیت، عوامل مختلف تأثیرگذار و بازیگران درگیر دارد.
در واقع، مشاهده شده است که استفاده از کمک های خودکار می تواند هوشیاری کاربران انسانی را کاهش دهد و توانایی آنها را برای حفظ آگاهی موقعیتی مختل کند.
این باید با توجه به اینکه چگونه بر انطباق با تعهدات IHL تأثیر می گذارد در نظر گرفته شود.
تعهد به انجام هر کاری که برای راستیآزمایی اهداف ممکن است ، نشاندهنده نیاز به حداکثر استفاده از داراییهای اطلاعاتی، نظارتی و شناسایی موجود برای به دست آوردن جامعترین آگاهی موقعیتی ممکن تحت شرایط است.
زمان اضافی به کاربر اجازه می دهد تا گزینه های بیشتری را توسعه دهد
علاوه بر اینکه به فرمانده اجازه میدهد بیشتر ببیند و درک کند، زمان اضافی به فرماندهان اجازه میدهد تا جایگزینهای تاکتیکی را توسعه دهند ، که میتواند شامل تصمیم برای عدم استفاده از زور یا کاهش تنش باشد.
زمان اضافی به واحدها و پلتفرمهای دیگر اجازه میدهد تا درگیر شوند، جای خود را تغییر دهند، دوباره تامین کنند، برنامهریزی کنند و برای کمک به عملیات آتی آماده شوند.
این به یک فرمانده گزینه های بیشتری می دهد، از جمله طرح های جایگزین که ممکن است آسیب های غیرنظامی را بهتر کاهش دهد.
زمان اضافی ممکن است به اقدامات کاهش دهنده اضافی مانند صدور هشدارها اجازه دهد و از دیدگاه غیرنظامی به آنها اجازه می دهد تا مکانیسم های مقابله ای مانند پناه گرفتن، تامین مجدد غذا و آب یا تخلیه خود را اجرا کنند.
همانطور که یکی از نمونههای دکترین برنامهریزی نظامی توضیح میدهد: « اگر زمان در دسترس باشد و هیچ مزیتی برای اقدام سریعتر وجود نداشته باشد، نمیتوان بهانهای برای عدم صرف زمان برای برنامهریزی کافی وجود داشت.
همانطور که در کتابچه راهنمای حفاظت از غیرنظامیان ناتو یادآوری میشود، « وقتی زمان برای برنامهریزی، تبعیض و هدف قرار دادن دقیق یک نیرو یا شی مطابق با اصول IHL در دسترس باشد، احتمال CIVCAS [تلفات غیرنظامی] بسیار به حداقل میرسد .»
تصمیم گیری در درگیری های مسلحانه با هوش مصنوعی
نتیجه
«جنگ بی نظم، کشنده و اساساً یک تلاش انسانی است. این یک تضاد اراده ها است که بین مردم و بین مردم دعوا می شود.
همه جنگها ذاتاً مربوط به تغییر رفتار انسانها هستند و هر طرف سعی میکند رفتار طرف مقابل را با زور اسلحه تغییر دهد.» جنگها از اختلافات انسانی ناشی میشوند، بین گروههایی از انسانها به راه میافتند، توسط انسانها کنترل میشوند و توسط انسانهایی به پایان میرسند که پس از آن باید با هم همزیستی کنند. مهمتر از همه، رنج درگیری بر عهده انسان است.
این واقعیت، و در واقع خود IHL، خواستار رویکردی «انسان محور» برای توسعه و استفاده از هوش مصنوعی در درگیریهای مسلحانه است – برای تلاش برای حفظ بشریت در آنچه قبلاً یک فعالیت غیرانسانی است.
چنین رویکردی حداقل دو جنبه کلیدی دارد: (1) تمرکز بر انسان هایی که ممکن است تحت تأثیر قرار گیرند. و (2) تمرکز بر تعهدات و مسئولیتهای افرادی که از هوش مصنوعی استفاده میکنند یا سفارش میدهند.
هنگامی که به کسانی که ممکن است تحت تأثیر قرار گیرند نگاه کنیم، نه تنها در مورد کاهش خطرات برای غیرنظامیان در هنگام استفاده از AI-DSS برای به دست آوردن مزیت نظامی، بلکه پتانسیل طراحی و استفاده از چنین ابزارهایی به طور خاص برای هدف حفاظت از غیرنظامی وجود دارد.
امکاناتی که در این رابطه پیشنهاد شدهاند شامل ابزارهایی برای شناسایی، ردیابی و هشدار نیروها نسبت به حضور جمعیت غیرنظامی یا شناسایی نمادهای متمایز است که نشاندهنده وضعیت محافظت شده در درگیریهای مسلحانه است.
و حصول اطمینان از اینکه انسان ها می توانند تعهدات خود را بر اساس حقوق بین الملل حقوق بشر انجام دهند به این معنی است که AI-DSS باید اطلاع رسانی کند، اما نمی تواند قضاوت انسان را در تصمیماتی که خطراتی برای زندگی و حیثیت افراد در درگیری های مسلحانه ایجاد می کند، جایگزین کند.
همانقدر که دولتها در زمینه سیستمهای تسلیحاتی خودمختار به طور گسترده به رسمیت شناختهاند.
مسئولیت رعایت IHL بر عهده افراد و فرماندهان آنهاست نه رایانه ها. همانطور که در دفترچه راهنمای قانون جنگ وزارت دفاع ایالات متحده آمده است: ” قانون جنگ به سلاح برای تعیین تصمیمات قانونی نیاز ندارد… بلکه این افراد هستند که باید از قانون جنگ پیروی کنند.
چین در هنجارهای اخلاقی خود برای هوش مصنوعی نسل جدید به طور کلی بر این نکته تأکید کرده است ، با این اصرار که «انسان ها مسئول نهایی هستند».
اظهارات مبنی بر اینکه AI-DSS لزوماً منجر به حفاظت غیرنظامی بیشتر و انطباق با IHL میشود، باید به شدت به چالش کشیده شود و با توجه به آنچه که در مورد محدودیتهای سیستم، تعامل ماشین انسانی و تأثیر افزایش سرعت عملیات میدانیم، به چالش کشیده شود و با این ملاحظات اندازهگیری شود.