تسلیحاتدیجیتالفناوریهوش مصنوعی

الگوریتم های جنگ: استفاده از هوش مصنوعی در تصمیم گیری در درگیری های مسلحانه

 این تحولات با پیش بینی های مکرر همراه شده است که هوش مصنوعی انقلابی در جنگ ایجاد خواهد کرد.

 در این مرحله از توسعه هوش مصنوعی، پارامترهای آنچه ممکن است هنوز در حال بررسی است، اما پاسخ نظامی به فناوری هوش مصنوعی غیرقابل انکار است.

 کاغذ سفید چین در مورد دفاع ملی ، تئوری «هوشمندسازی» جنگ را ترویج کرد که در آن استفاده از هوش مصنوعی کلیدی برای طرح مدرن‌سازی PLA است.

 جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساخت ایالات متحده، هشدار داد که هوش مصنوعی ممکن است ” قوی ترین سلاح زمان ما” باشد.

 و در حالی که سیستم‌های تسلیحاتی خودمختار تمایل دارند بر بحث‌های مربوط به هوش مصنوعی در کاربردهای نظامی تسلط داشته باشند، توجه کمتری به استفاده از هوش مصنوعی در سیستم‌هایی که از تصمیم‌های انسانی در درگیری‌های مسلحانه پشتیبانی می‌کنند، شده است.

در این پست، روبن استوارت، مشاور نظامی کمیته بین‌المللی صلیب سرخ، و جورجیا هیندز، مشاور حقوقی، به دنبال بررسی انتقادی برخی از مزایای تبلیغ‌شده هوش مصنوعی در هنگام استفاده از تصمیمات بازیگران مسلح در جنگ هستند.

 به طور خاص، حوزه‌های کاهش آسیب غیرنظامی و سرعت، با تمرکز ویژه بر پیامدهای غیرنظامیان در درگیری‌های مسلحانه مورد بحث قرار می‌گیرد.

حتی قبل از تبلیغات اخیر، احتمالاً قبلاً از هوش مصنوعی به اشکال مختلف استفاده کرده اید، در واقع ممکن است در حال خواندن این مقاله در دستگاهی باشید که عمدتاً از هوش مصنوعی پشتیبانی می کند.

 اگر از اثر انگشت یا چهره برای باز کردن گوشی خود استفاده کرده اید، در رسانه های اجتماعی شرکت کرده اید، سفرهایی را با استفاده از برنامه تلفنی برنامه ریزی کرده اید یا هر چیزی را به صورت آنلاین از پیتزا گرفته تا کتاب خریداری کرده اید، احتمالاً شامل هوش مصنوعی است.

 از بسیاری جهات ما با هوش مصنوعی راحت شده‌ایم و اغلب ناخواسته آن را در زندگی روزمره خود می‌پذیریم.

اما اگر از آن نرم افزار تشخیص چهره برای شناسایی فردی که مورد حمله قرار می گیرد استفاده شود، چه؟

 چه می‌شد اگر نرم‌افزاری به جای یافتن ارزان‌ترین پرواز برای رسیدن به مقصد، هواپیماهایی را برای انجام حمله هوایی به هدف پیدا می‌کرد.

 یا به جای توصیه بهترین مکان پیتزا یا نزدیکترین تاکسی موجود، دستگاه نقشه های حمله را توصیه می کرد؟

 ظاهراً این واقعیتی است که «به زودی» از سوی شرکت‌هایی است که پلتفرم‌های تصمیم‌گیری مبتنی بر هوش مصنوعی را برای اهداف دفاعی توسعه می‌دهند.

این نوع سیستم‌های پشتیبانی تصمیم‌گیری هوش مصنوعی (AI-DSS) ابزارهای رایانه‌ای هستند که از نرم‌افزار هوش مصنوعی برای نمایش، ترکیب و/یا تجزیه و تحلیل داده‌ها و در برخی موارد توصیه‌ها – حتی پیش‌بینی – برای کمک به تصمیم‌گیری انسان در جنگ استفاده می‌کنند.

مزایای AI-DSS اغلب در چارچوب افزایش آگاهی موقعیتی و چرخه های تصمیم گیری سریعتر است.

 این ادعاها با توجه به محدودیت‌های سیستم هوش مصنوعی و انسانی و در چارچوب فرآیندهای برنامه‌ریزی درگیری‌های مدرن در زیر بازگشایی شده‌اند.

به حداقل رساندن خطر آسیب به غیرنظامیان در درگیری

ظهور فن آوری های جدید در جنگ اغلب با ادعاهایی همراه است که ادغام آن آسیب غیرنظامی را کاهش می دهد (اگرچه این همیشه در عمل ثابت نمی شود ).

 در مورد AI-DSS، ادعا شده است که چنین ابزارهایی می توانند در شرایط خاص به محافظت بهتر از غیرنظامیان در درگیری کمک کنند .

 مسلماً حقوق بین‌الملل بشردوستانه (IHL) فرماندهان نظامی و سایر مسئولین حملات را موظف می‌کند تا تصمیمات خود را بر اساس اطلاعات از همه منابع در دسترس در زمان مربوطه قرار دهند.

 به ویژه در زمینه جنگ شهری، کمیته بین‌المللی صلیب سرخ توصیه کرده است که اطلاعات مربوط به عواملی مانند حضور غیرنظامیان و اشیاء غیرنظامی باید شامل مخازن منبع باز مانند اینترنت باشد.

 بعلاوه، به طور خاص با در نظر گرفتن هوش مصنوعی و یادگیری ماشینی، کمیته بین‌المللی صلیب سرخ به این نتیجه رسیده است که تا جایی که ابزارهای AI-DSS می‌توانند جمع‌آوری و تجزیه و تحلیل سریع‌تر و گسترده‌تر این نوع اطلاعات را تسهیل کنند، به خوبی می‌توانند تصمیمات بهتری را در تضاد توسط انسان‌ها فراهم کنند که به حداقل برسد. خطرات برای غیرنظامیان

در همان زمان، هر خروجی AI-DSS باید بین چندین منبع بررسی شود تا از اطلاعات مغرضانه یا نادرست محافظت شود .

 در حالی که این در مورد هر منبع اطلاعاتی در تضاد صادق است، به ویژه برای AI-DSS مهم است. همانطور که ICRC قبلاً تشریح کرده است ، بررسی صحت خروجی به دلیل عملکرد سیستم و نحوه تعامل کاربران انسانی با ماشین‌ها ممکن است بسیار دشوار باشد – اگر گاهی غیرممکن نباشد. این جنبه ها در زیر بسط داده شده است.

تصمیم گیری در درگیری های مسلحانه با هوش مصنوعی

محدودیت های سیستم

پوشش اخیر پیشرفت‌های هوش مصنوعی اغلب شامل نمونه‌هایی از شکست هوش مصنوعی است که گاهی اوقات منجر به مرگ می‌شود.

 مثال‌ها عبارتند از نرم‌افزاری که افراد با رنگ پوست تیره‌تر را تشخیص نمی‌دهد یا به اشتباه شناسایی نمی‌کند ، مسیرهای سفری را توصیه می‌کند که شرایط جاده‌ای به‌روز را در نظر نمی‌گیرند ، و نمونه‌هایی از تلفات ناشی از خودروهای خودران .

 برخی از این نارسایی‌ها قابل توضیح هستند، اما قابل توجیه نیستند، برای مثال، زیرا داده‌هایی که بروندادهای خود را بر اساس آن‌ها استوار می‌کند ، مغرضانه ، خراب، مسموم یا کاملاً نادرست است.

 این سیستم ها همچنان می توانند به راحتی “فریب” شوند. می توان از تکنیک ها برای فریب دادن سیستم به دسته بندی اشتباه داده ها استفاده کرد .

 برای مثال، تکنیک‌های متخاصم می‌توانند در تضاد مورد استفاده قرار گیرند تا بر کد منبع سیستم کمکی هدف‌گیری تأثیر بگذارند، به طوری که اتوبوس‌های مدرسه را به‌عنوان وسایل نقلیه دشمن شناسایی کند و پیامدهای ویران‌کننده‌ای به همراه داشته باشد.

از آنجایی که هوش مصنوعی برای کارهای پیچیده‌تر استفاده می‌شود، و به‌ویژه زمانی که چندین لایه تحلیل (و احتمالاً تصمیم‌گیری‌ها و قضاوت‌ها) جمع می‌شوند، تأیید آن خروجی نهایی و منبع هر گونه خطایی که به خروجی نهایی کمک می‌کند تقریباً غیرممکن می‌شود.

 با سیستم‌های پیچیده‌تر، پتانسیل خطاهای ترکیبی افزایش می‌یابد – یک نارسایی کوچک در اولین توصیه الگوریتمی وارد می‌شود و یک فرآیند الگوریتمی دوم را منحرف می‌کند، که به سومی وارد می‌شود، و غیره .

بر این اساس، سیستم‌های هوش مصنوعی اغلب رفتارهایی از خود نشان می‌دهند که توسط کاربر یا توسعه‌دهنده قابل توضیح نیست، حتی پس از تجزیه و تحلیل گسترده پس از عمل. مطالعه ای بر روی مدل زبان بزرگ GPT-4 نشان داد که توانایی آن در حل یک مسئله ریاضی به طور قابل توجهی و غیرقابل توضیح، از 83.6٪ به تنها 35.2٪ سه ماه بعد کاهش یافته است.

 رفتارهای غیرقابل پیش‌بینی نیز می‌تواند از طریق یادگیری تقویتی ایجاد شود ، جایی که ماشین‌ها در اتخاذ و پنهان کردن رفتارهای پیش‌بینی‌نشده و گاهی منفی برای گول زدن یا برتری دادن از انسان‌ها بسیار کارآمد هستند: دروغ گفتن برای برنده شدن در مذاکره یا گرفتن میانبر برای شکست دادن بازی‌های رایانه‌ای .

چالش های انسان در تعامل با ماشین

AI-DSS تصمیم گیری نمی کند. با این حال، آنها مستقیماً و اغلب به طور قابل توجهی بر تصمیمات انسان تأثیر می گذارند، از جمله به دلیل محدودیت های شناختی و تمایلات انسان ها هنگام تعامل با ماشین ها.

به عنوان مثال، “سوگیری اتوماسیون” به تمایل انسان ها برای به چالش کشیدن انتقادی خروجی یک سیستم یا جستجوی اطلاعات متناقض – به ویژه در شرایط بحرانی زمانی اشاره دارد .

 این قبلاً در زمینه های دیگری مانند مراقبت های بهداشتی مشاهده شده است، جایی که دقت تشخیص توسط رادیولوژیست های باتجربه تحت تأثیر خروجی های AI کاذب قرار گرفته است .

تشخیص های نادرست در محیط های بهداشتی می تواند کشنده باشد. و همچنین، درگیری مسلحانه بر سر اعتماد می تواند عواقب مرگباری داشته باشد.

 در سال 2003، سیستم دفاعی پاتریوت ایالات متحده دو بار به سمت هواپیماهای ائتلاف دوست شلیک کرد که بر اساس طبقه بندی اشتباه آنها به عنوان موشک های تهاجمی بود.

 در تحقیقات بعدی، یکی از کمبودهای عمده شناسایی شده این بود که ” اپراتورها برای اعتماد به نرم افزار سیستم آموزش دیده بودند .”

این روش‌های عملکرد، همراه با این ویژگی‌های تعامل انسان و ماشین، به طور بالقوه احتمال نتایجی را افزایش می‌دهد که از قصد تصمیم‌گیرنده انسانی متفاوت است.

 در جنگ، این ممکن است منجر به تشدید تصادفی شود و در هر صورت خطرات را برای غیرنظامیان و افراد محافظت شده افزایش دهد .

تمپو

یکی از مزیت های نظامی تبلیغ شده هوش مصنوعی افزایش سرعت تصمیم گیری است که کاربر را نسبت به حریف خود به ارمغان می آورد.

 افزایش سرعت اغلب خطرات بیشتری را برای غیرنظامیان ایجاد می کند، به همین دلیل است که از تکنیک هایی که سرعت را کاهش می دهند، مانند “صبر تاکتیکی” برای کاهش تلفات غیرنظامیان استفاده می شود.

 کاهش سرعت تصمیم‌گیری، از جمله فرآیندها و ارزیابی‌هایی که تصمیم‌گیری را تعیین می‌کنند، به سیستم و کاربر این امکان را می‌دهد که زمان بیشتری داشته باشند تا:

  • بیشتر ببین
  • بیشتر درک کنید؛ و
  • گزینه های بیشتری را توسعه دهید.

نکته مهم این است که این امر در سراسر زنجیره تصمیم گیری صادق است، نه تنها در “نقطه تصمیم گیری” نهایی.

 بر این اساس، ادعاهایی مبنی بر اینکه AI-DSS با سرعت بخشیدن به مراحل وقت گیر در طول مسیر برای تصمیم گیری نهایی در مورد «کشیدن ماشه» در واقع منجر به زمان بیشتری برای صبر تاکتیکی می شود، خطر ساده سازی بیش از حد فرآیند هدف گیری و اجرای عملیات نیرو در درگیری های معاصر

تصمیم گیری در درگیری های مسلحانه با هوش مصنوعی

وقت اضافی به شما امکان می دهد بیشتر ببینید

حمله بدنام هواپیماهای بدون سرنشین در کابل در 29 آگوست 2021، در جریان تخلیه کابل که منجر به کشته شدن 10 غیرنظامی شد، از سوی فرمانده فرماندهی مرکزی به این موضوع نسبت داده شد که ” ما فرصت تجملاتی برای ایجاد الگوی زندگی و چند کار دیگر انجام دهید 

تحلیل «الگوی زندگی» این است که چگونه برخی از نظامیان ارزیابی حضور و تراکم غیرنظامیان و رزمندگان، برنامه‌های زمانی، الگوهای حرکت و غیره را در منطقه و اطراف منطقه‌ای که برای حمله در نظر گرفته شده است، توصیف می‌کنند.

 این یک روش حیاتی برای کاهش آسیب غیرنظامیان است . با این حال، ارزیابی یک الگوی زندگی تنها می تواند در زمان واقعی انجام شود – زمانی که غیرنظامیان برای ایجاد چنین الگوهایی نیاز دارند – نمی توان آن را تسریع کرد.

تلاش برای پیش بینی رفتار آینده بر اساس روندهای تاریخی، شرایط فعلی را در بر نمی گیرد.

 در این مثال، بررسی مواد اطلاعاتی قدیمی‌تر، به‌ویژه ویدئوی حرکتی کامل کابل، تغییراتی را در وضعیت و رفتار رخ داده به دلیل تسلط طالبان و تلاش‌های جاری برای تخلیه منعکس نمی‌کند.

همانطور که راهنمای پیشگیری از تلفات غیرنظامی توضیح می‌دهد: «اگر بیشتر منتظر بمانید و مشاهده کنید، بیشتر در مورد آنچه اتفاق می‌افتد می‌دانید و بهتر برای تصمیم‌گیری برای استفاده از وسایل کشنده یا غیر کشنده آماده می‌شوید » یا به قول ناپلئون «لباس پوشیدن». من آهسته آهسته، عجله دارم» – گاهی اوقات بهترین نتایج با انجام کارها عمدی حاصل می شود.

زمان اضافی به کاربر اجازه می دهد تا بیشتر بفهمد

یکی دیگر از دلایل کاهش سرعت تصمیم گیری این است که درک انسان، به ویژه در مورد یک موقعیت پیچیده و گیج کننده، به زمان نیاز دارد تا توسعه یابد و همچنین در مورد پاسخ های مناسب فکر کند.

 با زمان کمتر، توانایی انسان برای درک موقعیت کاهش می یابد. فرآیند برنامه‌ریزی نظامی به گونه‌ای طراحی شده است که به فرماندهان و کارکنان وقت بدهد تا محیط عملیاتی، دشمن، نیروهای دوست و غیرنظامیان و مزایا و معایب دوره‌های عملیاتی را در نظر بگیرند.

 همانطور که ژنرال دوایت دی. آیزنهاور توضیح داد، درک به دست آمده از این فرآیند بررسی نمی تواند برون سپاری شود .

زمانی که تصمیم گیرندگان انسانی تصمیم‌گیرندگانی را در نظر می‌گیرند که یک مسیر اقدام ایجاد شده یا «توصیه‌شده» توسط یک AI-DSS را در نظر می‌گیرند، که توانایی آن در تسریع سرعت عملیات نسبت به حریف احتمالاً بیشترین دلیل استفاده از آن است.

 بدون انجام، یا حتی درک کامل فرآیند توسعه یک طرح پیشنهادی توسط AI-DSS، برنامه ریز انسانی احتمالاً درک محدودی از موقعیت، عوامل مختلف تأثیرگذار و بازیگران درگیر دارد.

 در واقع، مشاهده شده است که استفاده از کمک های خودکار می تواند هوشیاری کاربران انسانی را کاهش دهد و توانایی آنها را برای حفظ آگاهی موقعیتی مختل کند.

 این باید با توجه به اینکه چگونه بر انطباق با تعهدات IHL تأثیر می گذارد در نظر گرفته شود.

 تعهد به انجام هر کاری که برای راستی‌آزمایی اهداف ممکن است ، نشان‌دهنده نیاز به حداکثر استفاده از دارایی‌های اطلاعاتی، نظارتی و شناسایی موجود برای به دست آوردن جامع‌ترین آگاهی موقعیتی ممکن تحت شرایط است.

زمان اضافی به کاربر اجازه می دهد تا گزینه های بیشتری را توسعه دهد

علاوه بر اینکه به فرمانده اجازه می‌دهد بیشتر ببیند و درک کند، زمان اضافی به فرماندهان اجازه می‌دهد تا جایگزین‌های تاکتیکی را توسعه دهند ، که می‌تواند شامل تصمیم برای عدم استفاده از زور یا کاهش تنش باشد.

 زمان اضافی به واحدها و پلتفرم‌های دیگر اجازه می‌دهد تا درگیر شوند، جای خود را تغییر دهند، دوباره تامین کنند، برنامه‌ریزی کنند و برای کمک به عملیات آتی آماده شوند.

 این به یک فرمانده گزینه های بیشتری می دهد، از جمله طرح های جایگزین که ممکن است آسیب های غیرنظامی را بهتر کاهش دهد.

 زمان اضافی ممکن است به اقدامات کاهش دهنده اضافی مانند صدور هشدارها اجازه دهد و از دیدگاه غیرنظامی به آنها اجازه می دهد تا مکانیسم های مقابله ای مانند پناه گرفتن، تامین مجدد غذا و آب یا تخلیه خود را اجرا کنند.

همانطور که یکی از نمونه‌های دکترین برنامه‌ریزی نظامی توضیح می‌دهد: « اگر زمان در دسترس باشد و هیچ مزیتی برای اقدام سریع‌تر وجود نداشته باشد، نمی‌توان بهانه‌ای برای عدم صرف زمان برای برنامه‌ریزی کافی وجود داشت.

 همانطور که در کتابچه راهنمای حفاظت از غیرنظامیان ناتو یادآوری می‌شود، « وقتی زمان برای برنامه‌ریزی، تبعیض و هدف قرار دادن دقیق یک نیرو یا شی مطابق با اصول IHL در دسترس باشد، احتمال CIVCAS [تلفات غیرنظامی] بسیار به حداقل می‌رسد .»

تصمیم گیری در درگیری های مسلحانه با هوش مصنوعی

نتیجه

«جنگ بی نظم، کشنده و اساساً یک تلاش انسانی است. این یک تضاد اراده ها است که بین مردم و بین مردم دعوا می شود.

 همه جنگ‌ها ذاتاً مربوط به تغییر رفتار انسان‌ها هستند و هر طرف سعی می‌کند رفتار طرف مقابل را با زور اسلحه تغییر دهد.» جنگ‌ها از اختلافات انسانی ناشی می‌شوند، بین گروه‌هایی از انسان‌ها به راه می‌افتند، توسط انسان‌ها کنترل می‌شوند و توسط انسان‌هایی به پایان می‌رسند که پس از آن باید با هم همزیستی کنند. مهمتر از همه، رنج درگیری بر عهده انسان است.

این واقعیت، و در واقع خود IHL، خواستار رویکردی «انسان محور» برای توسعه و استفاده از هوش مصنوعی در درگیری‌های مسلحانه است – برای تلاش برای حفظ بشریت در آنچه قبلاً یک فعالیت غیرانسانی است.

 چنین رویکردی حداقل دو جنبه کلیدی دارد: (1) تمرکز بر انسان هایی که ممکن است تحت تأثیر قرار گیرند. و (2) تمرکز بر تعهدات و مسئولیت‌های افرادی که از هوش مصنوعی استفاده می‌کنند یا سفارش می‌دهند.

هنگامی که به کسانی که ممکن است تحت تأثیر قرار گیرند نگاه کنیم، نه تنها در مورد کاهش خطرات برای غیرنظامیان در هنگام استفاده از AI-DSS برای به دست آوردن مزیت نظامی، بلکه پتانسیل طراحی و استفاده از چنین ابزارهایی به طور خاص برای هدف حفاظت از غیرنظامی وجود دارد.

 امکاناتی که در این رابطه پیشنهاد شده‌اند شامل ابزارهایی برای شناسایی، ردیابی و هشدار نیروها نسبت به حضور جمعیت غیرنظامی یا شناسایی نمادهای متمایز است که نشان‌دهنده وضعیت محافظت شده در درگیری‌های مسلحانه است.

و حصول اطمینان از اینکه انسان ها می توانند تعهدات خود را بر اساس حقوق بین الملل حقوق بشر انجام دهند به این معنی است که AI-DSS باید اطلاع رسانی کند، اما نمی تواند قضاوت انسان را در تصمیماتی که خطراتی برای زندگی و حیثیت افراد در درگیری های مسلحانه ایجاد می کند، جایگزین کند.

 همان‌قدر که دولت‌ها در زمینه سیستم‌های تسلیحاتی خودمختار به طور گسترده به رسمیت شناخته‌اند.

 مسئولیت رعایت IHL بر عهده افراد و فرماندهان آنهاست نه رایانه ها. همانطور که در دفترچه راهنمای قانون جنگ وزارت دفاع ایالات متحده آمده است: ” قانون جنگ به سلاح برای تعیین تصمیمات قانونی نیاز ندارد… بلکه این افراد هستند که باید از قانون جنگ پیروی کنند.

 چین در هنجارهای اخلاقی خود برای هوش مصنوعی نسل جدید به طور کلی بر این نکته تأکید کرده است ، با این اصرار که «انسان ها مسئول نهایی هستند».

اظهارات مبنی بر اینکه AI-DSS لزوماً منجر به حفاظت غیرنظامی بیشتر و انطباق با IHL می‌شود، باید به شدت به چالش کشیده شود و با توجه به آنچه که در مورد محدودیت‌های سیستم، تعامل ماشین انسانی و تأثیر افزایش سرعت عملیات می‌دانیم، به چالش کشیده شود و با این ملاحظات اندازه‌گیری شود.

تصمیم گیری در درگیری های مسلحانه با هوش مصنوعی

مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است. مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است.
منبع
منبع
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا