تسلیحاتفناوریهوش مصنوعی

هوش مصنوعی و آینده جنگ ها

 این قابلیت‌ها – مانند هواپیمای بدون سرنشین ” وفادار وینگمن ” نیروی هوایی ایالات متحده یا هواپیمای بدون سرنشین – قادر به شناسایی، ردیابی و تعقیب اهداف بدون نظارت انسان هستند.

 استفاده اخیر از این سیستم‌های تسلیحاتی خود مختار مرگبار در درگیری‌ها – از جمله در غزه ، لیبی ، قره‌باغ کوهستانی و اوکراین – مسائل حقوقی ، اخلاقی و اخلاقی مهمی را مطرح می‌کند .

علیرغم استفاده از آنها، هنوز مشخص نیست که چگونه فناوری های نظامی تقویت شده با هوش مصنوعی می توانند ماهیت و پویایی جنگ را تغییر دهند. 

کسانی که بیشتر نگران استفاده از هوش مصنوعی برای مقاصد نظامی هستند، آینده ای دیستوپیایی یا “آخرالزمان هوش مصنوعی” را پیش بینی می کنند که در آن ماشین ها به اندازه کافی بالغ می شوند تا بر جهان تسلط پیدا کنند.

 یک تحلیلگر سیاسی حتی پیش‌بینی می‌کند که سیستم‌های تسلیحاتی خودمختار مرگبار «به یک تغییر لرزه‌ای در نظم جهانی به مراتب بزرگ‌تر از آنچه با معرفی سلاح‌های هسته‌ای رخ داد منجر خواهد شد».

 سایر ناظران با توجه به پیچیدگی مدل‌سازی هوش بیولوژیکی از طریق الگوریتم‌ها ، این سوال را مطرح می‌کنند که تا چه حد سیستم‌های هوش مصنوعی می‌توانند به طور واقعی انسان‌ها را تسخیر کنند .

 با فرض اینکه چنین گسترش هوش مصنوعی امکان پذیر باشد، نظامیانی که به آن متکی هستند، متحمل هزینه های داده ها و قضاوت می شوند که احتمالاً «عنصر انسانی در جنگ را حتی مهم تر می کند، نه کمتر».

اگرچه در بحث درباره اثرات بالقوه هوش مصنوعی بر سیاست جهانی مفید است ، اما این دیدگاه‌ها توضیح نمی‌دهند که چگونه هوش مصنوعی می‌تواند رفتار جنگ را تغییر دهد و سربازان در مورد این موضوع چه فکر می‌کنند.

 برای مقابله با این مشکل، اخیراً بررسی کردم که چگونه فناوری‌های نظامی تقویت‌شده با هوش مصنوعی – که در سطوح مختلف تصمیم‌گیری و انواع نظارت یکپارچه شده‌اند – اعتماد افسران ارتش ایالات متحده را به این سیستم‌ها شکل می‌دهند، که به درک آنها از مسیر جنگ اطلاع می‌دهد. در زمینه هوش مصنوعی، اعتماد به عنوان این باور تعریف می‌شود که یک فناوری مستقل در تعقیب اهداف مشترک، به طور قابل اعتمادی مطابق انتظار عمل می‌کند.

برای اندازه‌گیری سطح اعتماد ارتش به سیستم‌های تسلیحاتی مرگبار، من نگرش افسرانی را که در کالج جنگ ارتش ایالات متحده در کارلایل، پنسیلوانیا، و کالج جنگ نیروی دریایی ایالات متحده در نیوپورت، رود آیلند حضور داشتند، مطالعه کردم.

 این افسران، که ارتش از صفوف آنها ژنرال ها و دریاسالارهای آینده خود را انتخاب خواهد کرد، مسئول مدیریت یکپارچگی و استفاده از قابلیت های نوظهور در طول درگیری های آینده هستند.

 بنابراین، نگرش‌های آن‌ها برای درک میزانی که هوش مصنوعی می‌تواند عصر جدیدی از جنگ را که توسط ارتش‌های «واربات‌ها» انجام می‌شود، شکل دهد، مهم است.

تحقیقات من سه یافته کلیدی را نشان می دهد.

 اولاً، افسران بسته به سطح تصمیم گیری که در آن یکپارچه شده اند و نوع نظارت بر قابلیت های جدید، به فناوری های نظامی تقویت شده با هوش مصنوعی اعتماد متفاوتی دارند.

 دوم، افسران می‌توانند پذیرش فناوری‌های نظامی تقویت‌شده با هوش مصنوعی را تأیید یا حمایت کنند، اما به آن‌ها اعتماد نکنند، که نشان‌دهنده ناهماهنگی نگرش‌ها است که پیامدهایی برای مدرن‌سازی نظامی دارد.

 سوم، نگرش افسران نسبت به قابلیت‌های مجهز به هوش مصنوعی می‌تواند توسط عوامل دیگری نیز شکل بگیرد، از جمله باورهای اخلاقی، نگرانی‌ها در مورد مسابقه تسلیحاتی هوش مصنوعی و سطح تحصیلات.

 این یافته‌ها با هم، اولین شواهد تجربی از نگرش نظامی نسبت به هوش مصنوعی در جنگ را ارائه می‌کنند که پیامدهایی برای مدرن‌سازی نظامی، نظارت بر سیاست‌های تسلیحات خودمختار، و آموزش نظامی حرفه‌ای، از جمله برای فرماندهی و کنترل هسته‌ای دارد.

چهار نوع جنگ با هوش مصنوعی

پذیرش فناوری‌های نظامی تقویت‌شده با هوش مصنوعی توسط کشورهای مختلف می‌تواند از نظر سطح تصمیم‌گیری (تاکتیکی یا استراتژیک) و نوع نظارت (انسان یا ماشین) متفاوت باشد.

 کشورها می توانند الگوریتم ها را برای انجام عملیات تاکتیکی در میدان نبرد یا انجام مذاکرات استراتژیک در حمایت از اهداف کلی جنگ بهینه کنند.

 از نظر تاکتیکی، چنین فناوری‌هایی می‌توانند با تجزیه و تحلیل سریع مقادیر زیادی از داده‌های گرفته‌شده از حسگرهای توزیع‌شده در سراسر میدان نبرد، مرگ‌بار بودن فرماندهان میدانی را افزایش دهند تا گزینه‌های هدف‌گیری سریع‌تر از دشمنان ایجاد شود.

 همانطور که جان لیندسی، کارشناس امنیت سایبری می گوید ، “مبارزه ممکن است به عنوان یک بازی مدل شود که با از بین بردن دشمنان بیشتر و حفظ بازی های دوستانه بیشتر، برنده می شود.”

 این با کوتاه کردن قابل توجه جدول زمانی « حسگر به تیرانداز »، که مربوط به فاصله زمانی بین دستیابی و تعقیب یک هدف است، به دست می‌آید.

 گروه ویژه وزارت دفاع ایالات متحده لیما و پروژه ماون هر دو نمونه‌هایی از این برنامه‌های هوش مصنوعی هستند.

از نظر استراتژیک، فناوری‌های نظامی تقویت‌شده با هوش مصنوعی می‌توانند به رهبران سیاسی و نظامی کمک کنند تا اهداف کلیدی (پایان‌ها) را با ترکیبی از رویکردهای جنگی (راه‌ها) و منابع (وسایل) محدود، از جمله مواد و پرسنل، هماهنگ کنند.

 قابلیت‌های جدید حتی می‌تواند ظاهر شود و جایگزین انسان‌ها در عملیات‌های نظامی آینده شود، از جمله برای ایجاد جهت استراتژیک و استراتژی‌های سطح ملی.

 همانطور که یکی از کارشناسان استدلال می‌کند ، هوش مصنوعی قبلاً پتانسیل «درگیر شدن در تحلیل‌ها و استراتژی‌های پیچیده قابل مقایسه با آنچه برای آغاز جنگ لازم است» را نشان داده است.

در عین حال، کشورها همچنین می توانند نوع نظارت یا کنترل واگذار شده به فناوری های نظامی تقویت شده با هوش مصنوعی را کالیبره کنند.

 این فناوری‌ها را می‌توان به گونه‌ای طراحی کرد که امکان نظارت بیشتر انسانی را فراهم کند و اختیارات بیشتری را در تصمیم‌گیری فراهم کند.

 چنین سیستم هایی اغلب نیمه مستقل نامیده می شوند، به این معنی که تحت کنترل انسان باقی می مانند . این الگوی نظارت مشخص می کند که چگونه اکثر سیستم های تسلیحاتی تقویت شده با هوش مصنوعی، مانند پهپاد جنرال اتمیکس MQ-9 Reaper ، در حال حاضر عمل می کنند.

 در حالی که Reaper می تواند با خلبان خودکار پرواز کند و تغییرات توپوگرافی و شرایط آب و هوایی را برای تنظیم ارتفاع و سرعت خود در نظر بگیرد، انسان ها همچنان تصمیمات هدف گیری را می گیرند.

کشورها همچنین می توانند فناوری های نظامی تقویت شده با هوش مصنوعی را با نظارت کمتر انسانی طراحی کنند.

 این سیستم‌ها اغلب به‌عنوان «ربات‌های قاتل» شناخته می‌شوند، زیرا انسان از حلقه دور است . در این برنامه‌ها، انسان‌ها نظارت محدود، در صورت وجود، حتی برای هدف‌گیری تصمیم‌ها را اعمال می‌کنند.

 تنوع در سطح تصمیم‌گیری و نوع نظارت، چهار نوع جنگ را نشان می‌دهد که با توجه به پذیرش فناوری‌های نظامی تقویت‌شده با هوش مصنوعی، می‌تواند در سطح جهانی ظهور کند.

چهار نوع جنگ با هوش مصنوعی (تصویر: فرانسوا دیاز-مورن)
چهار نوع جنگ با هوش مصنوعی (تصویر: فرانسوا دیاز-مورن)

چهار نوع جنگ با هوش مصنوعی

اول، کشورها می توانند از فناوری های نظامی تقویت شده با هوش مصنوعی برای تصمیم گیری تاکتیکی با نظارت انسانی استفاده کنند .

 این چیزی را تعریف می‌کند که پل شار آن را « جنگ قنطورس » می‌نامد، که از نام موجودی از اساطیر یونان با بالاتنه انسان و پایین‌تنه و پاهای اسب گرفته شده است.

 جنگ سنتور بر کنترل انسان بر ماشین‌ها برای مقاصد میدان نبرد، مانند انهدام هدفی مانند انبار تسلیحات دشمن تأکید دارد.

دوم، کشورها می توانند از فناوری های نظامی تقویت شده با هوش مصنوعی برای تصمیم گیری تاکتیکی با نظارت ماشینی استفاده کنند .

 این جنگ‌های سنتوری را روی سرش می‌چرخاند، به معنای واقعی کلمه، موجودی افسانه‌ای دیگر از یونان باستان را تداعی می‌کند – مینوتور، با سر و دم گاو نر و بدن یک مرد. ” جنگ مینوتور ” با کنترل ماشینی انسان ها در طول نبرد و در سراسر حوزه ها مشخص می شود که می تواند از گشت زنی سربازان روی زمین گرفته تا صور فلکی کشتی های جنگی در اقیانوس تا تشکیلات جت های جنگنده در هوا را شامل شود.

سوم، تصمیم‌گیری استراتژیک ، همراه با نظارت ماشینی ، یک نوع جنگ « عمومی هوش مصنوعی » یا « تک نفره » را شکل می‌دهد.

 این رویکرد، فناوری‌های نظامی تقویت‌شده با هوش مصنوعی را با عرض جغرافیایی فوق‌العاده برای شکل‌دهی مسیر نبرد کشورها سرمایه‌گذاری می‌کند، اما ممکن است پیامدهای جدی برای تعادل تهاجمی-دفاعی بین کشورها در طول درگیری داشته باشد.

 به عبارت دیگر، یک نوع نبرد عمومی مبتنی بر هوش مصنوعی می‌تواند به کشورها این امکان را بدهد که در زمان و مکان نسبت به دشمنان برتری کسب کرده و حفظ کنند که نتایج کلی جنگ را شکل می‌دهند.

در نهایت، « جنگ موزاییک » نظارت انسانی بر فناوری‌های نظامی تقویت‌شده با هوش مصنوعی را حفظ می‌کند، اما تلاش می‌کند از الگوریتم‌هایی برای بهینه‌سازی تصمیم‌گیری استراتژیک برای تحمیل و بهره‌برداری از آسیب‌پذیری‌ها در برابر دشمن همتا استفاده کند.

 هدف از این مدل جنگی – که جان آلن ژنرال (بازنشسته) تفنگداران دریایی ایالات متحده آن را ” هیپرجنگ ” می نامد و محققان اغلب از آن به عنوان سیستم های پشتیبانی تصمیم گیری الگوریتمی یاد می کنند – حفظ نظارت کلی انسان در حین استفاده از الگوریتم ها برای انجام وظایف توانمندسازی حیاتی است.

 اینها شامل پیش‌بینی دوره‌های اقدام احتمالی دشمن از طریق فرآیند « پیش‌بینی لحظه‌ای تهدید » (که مأموریت سیستم مخزن سریع تحلیلی با کمک ماشینی جدید وزارت دفاع یا MARS است )، شناسایی امکان‌پذیرترین، قابل قبول‌ترین، و استراتژی مناسب (که شرکت‌هایی مانند Palantir و Scale AI در حال مطالعه چگونگی انجام آن هستند)، و کارکردهای جنگی کلیدی، مانند لجستیک ، برای کمک به ارتش برای به دست آوردن و حفظ ابتکار عمل در محیط‌های عملیاتی مورد مناقشه که با خطوط تدارکات گسترده مشخص می‌شوند، طراحی کنند. به عنوان هند و اقیانوس آرام.

نگرش افسران آمریکایی نسبت به جنگ با هوش مصنوعی

برای پرداختن به اینکه افسران نظامی چگونه به فناوری‌های نظامی تقویت‌شده هوش مصنوعی با توجه به تنوع در سطح تصمیم‌گیری و نوع نظارت اعتماد می‌کنند، در اکتبر 2023 نظرسنجی را در میان افسران منصوب در کالج‌های جنگ در کارلایل و نیوپورت انجام دادم.

 این نظرسنجی شامل چهار گروه آزمایشی بود که استفاده از فناوری نظامی تقویت‌شده با هوش مصنوعی را از نظر تصمیم‌گیری (تاکتیکی یا استراتژیک) و نظارت (انسان یا ماشین) و همچنین یک گروه پایه که این ویژگی‌ها را دستکاری نکردند، متفاوت بودند.

 پس از خواندن سناریوهای تخصیص تصادفی آنها، از پاسخ دهندگان خواستم که اعتماد و حمایت خود را در این قابلیت در مقیاس یک (کم) تا پنج (بالا) ارزیابی کنند. سپس داده ها را با استفاده از روش های آماری تجزیه و تحلیل کردم.

اگرچه نمونه من نماینده ارتش ایالات متحده (و نه شاخه های آن، مانند ارتش و نیروی دریایی ایالات متحده) نیست، اما دانشمندان علوم سیاسی آن را نمونه مناسب می نامند.

 این کمک می کند تا بینش های بسیار نادری در مورد اینکه چگونه اعضای ارتش ممکن است به فناوری های نظامی تقویت شده با هوش مصنوعی و تأثیر این اعتماد بر شخصیت جنگ اعتماد کنند، به دست آوریم.

این نمونه همچنین آزمون سختی برای درک من از تغییرات احتمالی در آینده جنگ با توجه به ظهور هوش مصنوعی است، زیرا من از افسران درجه میدانی، از جمله سرگردها/سپهمانان، سرهنگ دوم/فرماندهان، و سرهنگ/کاپیتان بیش از حد نمونه برداری کردم.

 آن‌ها سال‌ها آموزش دارند و در هدف‌گیری متخصص هستند و بسیاری برای نبرد مستقر شده‌اند و درباره پهپادها تصمیم‌گیری کرده‌اند.

 آنها همچنین رهبران ارشد در حال ظهور هستند که به آنها سپرده شده است تا پیامدهای فناوری های جدید را برای درگیری های آینده ارزیابی کنند.

 این ویژگی‌ها نشان می‌دهد که افسران نمونه من ممکن است نسبت به سایر بخش‌های ارتش، به‌ویژه افسران جوان که اغلب به عنوان « بومی‌های دیجیتال » شناخته می‌شوند، به فناوری‌های نظامی تقویت‌شده هوش مصنوعی بی‌اعتماد باشند .

این نظرسنجی چندین یافته کلیدی را نشان می دهد. اولاً، افسران می توانند بر اساس تنوع در سطح تصمیم گیری و نوع نظارت بر این قابلیت های جدید، به فناوری های نظامی تقویت شده با هوش مصنوعی به روش های مختلف اعتماد کنند.

 در حالی که افسران عموماً به انواع مختلف سلاح‌های تقویت‌شده هوش مصنوعی بی‌اعتماد هستند، اما کمترین اعتماد را به قابلیت‌های مورد استفاده برای جنگ تک‌نفره (تصمیم‌گیری استراتژیک با نظارت ماشینی) دارند.

 از سوی دیگر، آنها اعتماد بیشتری به جنگ موزاییک (نظارت انسانی بر تصمیم گیری استراتژیک بهینه سازی شده با هوش مصنوعی) نشان می دهند.

 این نشان می دهد که افسران به طور مداوم کنترل انسانی هوش مصنوعی را برای شناسایی الگوهای ظریف در فعالیت دشمن، ایجاد گزینه های نظامی برای ارائه یک دشمن با معضلات متعدد یا کمک به حفظ آمادگی جنگی در طول درگیری طولانی ترجیح می دهند.

در مقایسه با گروه پایه، اعتماد افسران به فن‌آوری‌های نظامی مجهز به هوش مصنوعی از نظر جنگ تک تن (18.8 درصد) نسبت به جنگ موزاییکی (10.5 درصد) کاهش می‌یابد – شکل 1 را ببینید .

 در حالی که تفاوت در سطح میانگین اعتماد افسران در مقایسه با گروه پایه از نظر آماری برای هر دو نوع جنگ تقویت‌شده هوش مصنوعی معنی‌دار است، این تفاوت‌ها برای قابلیت‌های نظامی جدید که برای جنگ‌های تک نفره استفاده می‌شوند بیشتر از جنگ موزاییکی هستند.

 همچنین، میانگین تغییر در احتمال اعتماد افسران در هر دو نوع جنگ تقویت‌شده هوش مصنوعی (یعنی میانگین تأثیر حاشیه‌ای فناوری‌های نظامی تقویت‌شده با هوش مصنوعی بر اعتماد افسران) تنها از نظر آماری برای جنگ تک نفره معنادار است.

 به طور کلی، این نتایج نشان می‌دهد که افسران نسبت به فناوری‌های نظامی تقویت‌شده هوش مصنوعی که با نظارت انسانی برای کمک به تصمیم‌گیری در سطوح بالاتر استفاده می‌شوند، بی‌اعتماد کمتری دارند.

این نتایج برای سطوح اعتماد تا حد زیادی با نگرش افسران در حمایت منعکس می شود.

 افسران پشتیبانی کمتری از فناوری‌های نظامی تقویت‌شده با هوش مصنوعی مورد استفاده برای جنگ‌های تک تن در مقایسه با گروه پایه نشان می‌دهند و تقریباً در همان سطح – 18.3 درصد – و درجه اهمیت آماری هستند.

 با این حال، در مقایسه با گروه پایه، افسران نیز بیشتر از سایر الگوهای جنگ تقویت‌شده هوش مصنوعی، با تغییر در سطح پشتیبانی حدود 6.5 درصد، از جنگ مینوتوری پشتیبانی می‌کنند.

 این نشان می‌دهد که در حالی که افسران ممکن است نسبت به فناوری‌های نظامی تقویت‌شده هوش مصنوعی که در سطوح بالاتر تصمیم‌گیری و با کنترل انسانی گنجانده شده است، بی‌اعتماد کمتری داشته باشند، آنها بیشتر از فناوری‌های نظامی تقویت‌شده هوش مصنوعی که برای تصمیم‌گیری در سطح تاکتیکی و با نظارت ماشینی استفاده می‌شوند، حمایت می‌کنند.

 در مجموع، به نظر می رسد نگرش افسران منعکس کننده استدلال کنت پین، پروفسور کالج کینگز است که می گوید: «وارربات ها جنگجویان باورنکردنی، اما استراتژیست های محدودی خواهند ساخت».

شکل 1. اعتماد و حمایت نسبت به گروه پایه برای چهار نوع جنگ با هوش مصنوعی. توجه: مقادیر نشان دهنده تغییرات در سطوح پشتیبانی و اعتماد برای فناوری های نظامی تقویت شده با هوش مصنوعی توسط گروه های درمانی در مقایسه با گروه پایه است. هنگامی که سطوح حمایت و اعتماد در مقایسه با گروه پایه کاهش می یابد، مقادیر منفی هستند. (داده ها: پل لوشنکو. تجسم: فرانسوا دیاز-مورن)
شکل 1. اعتماد و حمایت نسبت به گروه پایه برای چهار نوع جنگ با هوش مصنوعی. توجه: مقادیر نشان دهنده تغییرات در سطوح پشتیبانی و اعتماد برای فناوری های نظامی تقویت شده با هوش مصنوعی توسط گروه های درمانی در مقایسه با گروه پایه است. هنگامی که سطوح حمایت و اعتماد در مقایسه با گروه پایه کاهش می یابد، مقادیر منفی هستند. (داده ها: پل لوشنکو. تجسم: فرانسوا دیاز-مورن)

شکل 1. اعتماد و حمایت نسبت به گروه پایه برای چهار نوع جنگ با هوش مصنوعی. توجه: مقادیر نشان دهنده تغییرات در سطوح پشتیبانی و اعتماد برای فناوری های نظامی تقویت شده با هوش مصنوعی توسط گروه های درمانی در مقایسه با گروه پایه است. هنگامی که سطوح حمایت و اعتماد در مقایسه با گروه پایه کاهش می یابد، مقادیر منفی هستند. (داده ها: پل لوشنکو. تجسم: فرانسوا دیاز-مورن)

پشتیبانی نسبتاً بالاتر افسران از استفاده در سطح تاکتیکی از فناوری‌های نظامی تقویت‌شده با هوش مصنوعی، دومین یافته کلیدی را نشان می‌دهد.

 نگرش افسران نسبت به فناوری‌های نظامی تقویت‌شده با هوش مصنوعی می‌تواند بیشتر برای حمایت آشکار باشد تا اعتماد. این به معنای چیزی است که برخی از محققان آن را ” پارادوکس اعتماد ” می نامند.

 به نظر می رسد افسران از پذیرش فناوری های جدید میدان نبرد که با هوش مصنوعی تقویت شده اند حمایت می کنند – حتی اگر لزوماً به آنها اعتماد نداشته باشند.

 این پدیده بیشتر به جنگ مینوتوری (استفاده از هوش مصنوعی برای تصمیم گیری در سطح تاکتیکی و با نظارت ماشین) مربوط می شود.

 این نشان می‌دهد که افسران انتظار دارند که فناوری‌های نظامی تقویت‌شده با هوش مصنوعی، زمان و فضای مانور دشمن را از بین ببرد و در عین حال مانور ارتش ایالات متحده را گسترش دهد، که براساس یک جدول زمانی کوتاه‌شده «حسگر به تیرانداز» است که رهبران ارشد نظامی معتقدند کلید شکست دادن است. دشمنان نزدیک در درگیری های آینده

تنوع در میزان حمایت افسران از فناوری‌های نظامی تقویت‌شده با هوش مصنوعی که برای تصمیم‌گیری در سطح تاکتیکی و با نظارت ماشینی استفاده می‌شود، بیشتر از تغییر در اعتماد آنهاست ( شکل 2 ).

 علاوه بر این، نتایج نشان می‌دهد که تفاوت در نگرش افسران نسبت به اعتماد و پشتیبانی از نظر آماری معنی‌دار است: افسران از فناوری‌های نظامی تقویت‌شده با هوش مصنوعی که برای جنگ‌های مینوتور استفاده می‌شوند، بیشتر از اینکه به آنها اعتماد کنند، پشتیبانی می‌کنند.

 میانگین تغییر احتمال اینکه افسران از فناوری‌های نظامی تقویت‌شده با هوش مصنوعی که برای جنگ‌های مینوتوری استفاده می‌شوند پشتیبانی کنند نیز بیشتر از سه نوع دیگر جنگ با هوش مصنوعی است.

در مجموع، این نتایج نشان‌دهنده عدم همسویی باورها در حمایت و اعتماد افسران آمریکایی نسبت به فناوری‌های نظامی تقویت‌شده هوش مصنوعی است.

 با وجود حمایت از پذیرش چنین فناوری‌هایی برای بهینه‌سازی تصمیم‌گیری در سطوح مختلف و درجات نظارت، افسران به انواع جنگ‌های احتمالی ناشی از آن به دلیل قابلیت‌های نوظهور مجهز به هوش مصنوعی اعتماد ندارند.

 این نتیجه نشان می‌دهد که افسران ایالات متحده ممکن است احساس کنند موظف به پذیرش اشکال پیش‌بینی‌شده جنگ هستند که برخلاف ترجیحات و نگرش‌های خودشان است، به‌ویژه جنگ مینوتوری که اساس مفاهیم جنگی نوظهور ارتش و نیروی دریایی ایالات متحده است .

شکل 2. اعتماد و پشتیبانی از چهار نوع جنگ با هوش مصنوعی. توجه: مقادیر نشان دهنده میانگین سطوح حمایت و اعتماد برای فناوری های نظامی تقویت شده با هوش مصنوعی توسط گروه های درمانی است. (داده ها: پل لوشنکو. تجسم: فرانسوا دیاز-مورن)
شکل 2. اعتماد و پشتیبانی از چهار نوع جنگ با هوش مصنوعی. توجه: مقادیر نشان دهنده میانگین سطوح حمایت و اعتماد برای فناوری های نظامی تقویت شده با هوش مصنوعی توسط گروه های درمانی است. (داده ها: پل لوشنکو. تجسم: فرانسوا دیاز-مورن)

شکل 2. اعتماد و پشتیبانی از چهار نوع جنگ با هوش مصنوعی. توجه: مقادیر نشان دهنده میانگین سطوح حمایت و اعتماد برای فناوری های نظامی تقویت شده با هوش مصنوعی توسط گروه های درمانی است. (داده ها: پل لوشنکو. تجسم: فرانسوا دیاز-مورن)

عوامل دیگر تنوع در اعتماد افسران به فناوری های نظامی تقویت شده با هوش مصنوعی را بیشتر توضیح می دهند.

 در نظرسنجی من، هنگام کنترل تنوع در سطح تصمیم‌گیری و نوع نظارت، متوجه شدم که نگرش افسران در قبال این فناوری‌ها نیز می‌تواند با ملاحظات اخلاقی، ابزاری، و آموزشی شکل بگیرد.

افسرانی که معتقدند ایالات متحده تعهد اخلاقی به استفاده از فناوری های نظامی تقویت شده با هوش مصنوعی در خارج از کشور دارد، نشان دهنده درجه بالاتری از اعتماد به این قابلیت های جدید میدان نبرد است که با نگرش های پشتیبانی نیز سازگار است.

 این نشان می‌دهد که باورهای اخلاقی افسران برای مزایای بالقوه فناوری‌های نظامی تقویت‌شده هوش مصنوعی که در خارج از کشور استفاده می‌شوند، مانند طی عملیات‌های کمک‌های بشردوستانه و امدادرسانی در بلایا، ممکن است به غلبه بر بی‌اعتمادی ذاتی آنها در پذیرش این قابلیت‌ها کمک کند.

علاوه بر این، افسرانی که برای فناوری‌های نظامی تقویت‌شده با هوش مصنوعی ارزش ابزاری قائل هستند و نگرش «ترس از دست دادن» را نسبت به آن‌ها تجربه می‌کنند – یعنی معتقدند که پذیرش سایر کشورها از چنین فناوری‌هایی، ایالات متحده را نیز مجبور می‌کند آن‌ها را اتخاذ کند، مبادا در یک مسابقه تسلیحاتی بالقوه هوش مصنوعی ضعیف است – همچنین تمایل دارد به این قابلیت های در حال ظهور اعتماد بیشتری داشته باشد.

 نگرش های مشابهی از اعتماد هنگام در نظر گرفتن آموزش مشاهده می شود. نتایج نشان می‌دهد که آموزش عالی اعتماد افسران را به فناوری‌های نظامی تقویت‌شده با هوش مصنوعی کاهش می‌دهد، به این معنی که دانش بیشتر یا تخصصی‌تر سؤالاتی را در مورد شایستگی و محدودیت‌های هوش مصنوعی در طول جنگ آینده ایجاد می‌کند.

 در نهایت، در تلاقی این ملاحظات هنجاری و ابزاری، متوجه شدم افسرانی که معتقدند نیروی نظامی برای حفظ نظم جهانی ضروری است، از استفاده از فناوری‌های نظامی تقویت‌شده با هوش مصنوعی نیز بیشتر حمایت می‌کنند.

 این نتایج با هم، تحقیقات قبلی را تقویت می کند که نشان می دهد جهان بینی افسران نگرش آنها را نسبت به فن آوری های میدان نبرد شکل می دهد و افسران می توانند منطق های مختلفی را هنگام ارزیابی اعتماد و حمایت خود از استفاده از زور در خارج از کشور ادغام کنند.

چگونه افسران را برای جنگ با هوش مصنوعی بهتر آماده کنیم؟

این اولین شواهد در مورد نگرش افسران ارتش ایالات متحده نسبت به هوش مصنوعی تصویر پیچیده تری از ماهیت در حال تحول جنگ به دلیل فناوری های نوظهور را نسبت به آنچه که برخی از تحلیلگران اجازه می دهند ارائه می دهد.

 با این حال، این نگرش‌ها پیامدهایی برای مدرن‌سازی و سیاست‌های جنگ و آموزش نظامی حرفه‌ای افسران، از جمله برای مدیریت سلاح‌های هسته‌ای دارد.

اول، اگرچه برخی از رهبران نظامی ایالات متحده ادعا می کنند که “ما شاهد یک تغییر لرزه ای در ماهیت جنگ هستیم که عمدتاً دوباره توسط فناوری هدایت می شود”، ظهور فناوری های نظامی تقویت شده با هوش مصنوعی در درگیری ممکن است بیشتر یک تحول باشد تا یک انقلاب.

 در حالی که جنگ‌های غزه و اوکراین تغییرات مهمی را در نحوه مبارزه نظامیان نشان می‌دهند، این جنگ‌ها تداوم‌های کلیدی را نیز منعکس می‌کنند .

 ارتش ها به طور سنتی به دنبال سرمایه گذاری بر روی فناوری های جدید برای افزایش اطلاعات خود، محافظت از نیروهای خود، و گسترش دامنه آتش تاکتیکی و عملیاتی خود بوده اند که ترکیب آنها باعث ایجاد ” عدم تقارن رادیکال ” در میدان نبرد می شود.

 اخیراً، نشان داده شده است که تغییرات در نحوه استفاده و محدود کردن هواپیماهای بدون سرنشین توسط کشورها به درک عمومی از استفاده مشروع – یا نامشروع – از زور نیز شکل می‌دهد، نتیجه‌ای که با فناوری‌های نظامی کاملا خودمختار در حال ظهور سازگار است.

با این حال، پیامدهای این قابلیت ها و سایر قابلیت ها برای نتایج استراتژیک در جنگ در بهترین حالت مشکوک است .

 موفقیت استراتژیک در طول جنگ هنوز تابعی از اراده کشورها برای قربانی کردن جان سربازان و دلارهای مالیات دهندگان برای دستیابی به اهداف سیاسی و نظامی است که از منافع ملی حیاتی حمایت می کند.

 در واقع، افسران مطالعه من ممکن است از فناوری‌های نظامی تقویت‌شده با هوش مصنوعی که برای جنگ‌های مینوتوری استفاده می‌شوند، بیشترین پشتیبانی را داشته باشند.

 اما شرکت کنندگان در این مطالعه هنوز به طور کلی اعتماد و حمایت بسیار کمتری نسبت به فناوری های جدید میدان نبرد نشان دادند که با توجه به هیاهویی که نوآوری نظامی آنها را احاطه کرده بود -اگر نه مبالغه آمیز و ترس .

 این نتایج نشان می دهد که رهبران نظامی باید انتظارات خود را در مورد پیامدهای پارادایماتیک هوش مصنوعی برای درگیری های آینده کاهش دهند.

 به عبارت دیگر ، ما باید “آماده شویم تا از هوش مصنوعی ناامید شویم.” به گفته سرهنگ مایکل فرگوسن، سرهنگ دوم ارتش ایالات متحده ، فقدان چنین چشم‌انداز روشنی امکان ظهور «نظریه‌های مد روزی را که جنگ را به کابوکی از تعبیرها تبدیل می‌کند» و واقعیت‌های خشن نبرد را مبهم می‌سازد.

 این یک برخورد اراده است که به شدت انسانی و مشروط به اهداف سیاسی است.

دوم، نگرش افسران نسبت به فناوری های نظامی تقویت شده با هوش مصنوعی پیچیده تر از آن چیزی است که مطالعه من نشان می دهد.

 در واقع، همانطور که یک سرهنگ سابق نیروی هوایی ایالات متحده و در حال حاضر تحلیلگر ستاد مشترک J-8 اشاره می کند ، برای اپراتورها دشوار است که با درجه احتمال بالایی پیش بینی کنند که چگونه یک سیستم واقعاً در برابر یک دشمن تطبیقی ​​عمل می کند و به طور بالقوه اعتماد را از بین می برد.

در سیستم.» در مطالعه‌ای که در حال انجام است، متوجه شدم که اعتماد افسران به فناوری‌های نظامی تقویت‌شده با هوش مصنوعی می‌تواند با مجموعه‌ای از ملاحظات شکل بگیرد.

 اینها شامل مشخصات فنی، یعنی هدف غیر کشنده، دقت بالا، و نظارت انسانی است. اثربخشی درک شده از نظر حفاظت غیرنظامی، حفاظت از نیرو، و انجام ماموریت؛ و نظارت، از جمله مقررات داخلی اما به ویژه بین المللی.

 در واقع، یکی از افسران در این مطالعه خاطرنشان کرد که اعتماد به فناوری‌های نظامی تقویت‌شده با هوش مصنوعی مبتنی بر «انطباق با قوانین بین‌المللی به جای قوانین داخلی ایالات متحده» است.

این نتایج نشان می‌دهد که نیاز به آزمایش و آزمایش بیشتر قابلیت‌های جدید برای همسو کردن استفاده از آن‌ها با انتظارات اعضای خدمات است.

 سیاستگذاران و رهبران نظامی همچنین باید مفاهیم جنگ را روشن کنند که در آن توسعه فناوری های نظامی تقویت شده با هوش مصنوعی باید تشویق شود.

 دکترین هدایت کننده ادغام آنها در حوزه های مختلف، در سطوح مختلف، و برای اهداف مختلف. و سیاست های حاکم بر استفاده از آنها.

 برای این کار اخیر، مقامات باید توضیح دهند که سیاست ایالات متحده چگونه با قوانین بین‌المللی منطبق است یا از آن فاصله می‌گیرد، و همچنین چه هنجارهایی استفاده از فناوری‌های نظامی تقویت‌شده با هوش مصنوعی را مشروط می‌کنند ، با توجه به اینکه حداقل افسران در رده‌های میدانی چگونه انتظار دارند.

از این قابلیت ها استفاده شود. برای پر کردن این شکاف، کاخ سفید اخیراً سیاست ایالات متحده را در مورد استفاده نظامی مسئولانه از هوش مصنوعی و عملکردها و سیستم های خودمختار اعلام کرد ، وزارت دفاع دستورالعملی را تصویب کرد که بر توسعه و استفاده از تسلیحات خودمختار در ارتش ایالات متحده حاکم است و پنتاگون نیز ایجاد کرد.

 دفتر ارشد دیجیتال و هوش مصنوعی برای کمک به اجرای این دستورالعمل، اگرچه گزارش شده است که این دفتر با چالش های بودجه ای و پرسنلی مواجه است.

در نهایت، رهبران نظامی همچنین باید آموزش نظامی حرفه ای را برای آموزش افسران در مورد شایستگی ها و محدودیت های هوش مصنوعی اصلاح کنند.

 آنها باید کاربرد هوش مصنوعی را در زمینه های استراتژیک دیگر، از جمله فرماندهی و کنترل هسته ای بررسی کنند.

 بسیاری از ابتکارات در سراسر ارتش ایالات متحده در حال حاضر منعکس کننده این نیاز است، به ویژه با توجه به تردید افسران برای مشارکت با قابلیت های مجهز به هوش مصنوعی.

از نظر عملیاتی، ” Project Ridgeway ” به رهبری سپاه هجدهم هوابرد ارتش ایالات متحده، برای ادغام هوش مصنوعی در فرآیند هدف‌گیری طراحی شده است.

 این با ” آملیا ” و “وفادار وینگمن” که برنامه‌های نیروی دریایی و نیروی هوایی هستند که برای بهینه‌سازی فرآیندهای کارکنان و جنگ‌های جنگی طراحی شده‌اند، مطابقت دارد.

 از نظر سازمانی، علاوه بر دوره‌های صدور گواهینامه از قبل موجود، برخی تحلیل‌گران ادغام ارزیابی‌های سواد داده‌ای را در برنامه‌های ارزیابی مبتنی بر استعداد، مانند برنامه ارزیابی فرماندهی ارتش ایالات متحده، تشویق می‌کنند.

 از نظر آموزشی، آکادمی‌های خدماتی و کالج‌های جنگ دارای هیئت علمی، مراکز تحقیقاتی و دروس انتخابی هستند که به مطالعه مفاهیم هوش مصنوعی برای جنگ آینده اختصاص دارند. کالج جنگ ارتش ایالات متحده اخیراً یک استاد علوم داده استخدام کرده است ، آکادمی نیروی دریایی ایالات متحده یک خوشه تحقیقاتی “سلاح، رباتیک و مهندسی کنترل” دارد و کالج جنگ نیروی دریایی ایالات متحده یک درس انتخابی “AI برای رهبران استراتژیک” ارائه می دهد .

MQ-9 Reaper که در اینجا در حال شلیک موشک هوا به زمین Missile-114 Hellfire دیده می شود، یک هواپیمای بدون خلبان کنترل از راه دور است که می تواند برای اطلاعات، شناسایی و حملات مورد استفاده قرار گیرد. (عکس: نیروی هوایی ایالات متحده. طراحی: François Diaz-Maurin)
MQ-9 Reaper که در اینجا در حال شلیک موشک هوا به زمین Missile-114 Hellfire دیده می شود، یک هواپیمای بدون خلبان کنترل از راه دور است که می تواند برای اطلاعات، شناسایی و حملات مورد استفاده قرار گیرد. (عکس: نیروی هوایی ایالات متحده. طراحی: François Diaz-Maurin)

MQ-9 Reaper که در اینجا در حال شلیک موشک هوا به زمین Missile-114 Hellfire دیده می شود، یک هواپیمای بدون خلبان کنترل از راه دور است که می تواند برای اطلاعات، شناسایی و حملات مورد استفاده قرار گیرد. (عکس: نیروی هوایی ایالات متحده. طراحی: François Diaz-Maurin)

در همان زمان، بازی‌های  جنگی که در کالج جنگ نیروی دریایی ایالات متحده و جاهای دیگر انجام شد  ، نشان می‌دهد که قابلیت‌های سایبری می‌توانند اتوماسیون و تفویض پیش از فرماندهی و کنترل هسته‌ای را به سطوح تاکتیکی فرماندهی تشویق کنند و راهبردهای ضد نیروی تهاجمی را تشویق کنند.

 اما نتایج من نشان دهنده یک نتیجه گیج کننده است که سزاوار آزمایش بسیار بیشتری است. با در نظر گرفتن ارزش اسمی، و علی‌رغم اینکه نتایج می‌تواند مشابه  استفاده  از سلاح‌های هسته‌ای در جنگ باشد، نتایج یک سوال نگران‌کننده را ایجاد می‌کند: آیا افسران واقعاً می‌توانند از اتوماسیون بالقوه و تفویض اختیار فرماندهی و کنترل هسته‌ای به هوش مصنوعی در سطح تاکتیکی، حتی اگر آن‌طور که نتایج من نشان می‌دهد، به آن اعتماد ندارند یا به استفاده از هوش مصنوعی برای کنترل استراتژی‌های نیروی متقابل اعتماد ندارند یا از آن حمایت نمی‌کنند؟

در حالی که این نتیجه گیری ممکن است عجیب به نظر برسد – در تضاد با مجموعه ای از تحقیقات در مورد ” تابو ” هسته ای، تشدید بحران  ، و تنها مقام ریاست جمهوری برای  استفاده از این سلاح ها – تهدیدهای  روسیه   برای استفاده از سلاح های هسته ای در اوکراین، ارتش ایالات متحده را تشویق کرده است که   این احتمال را دوباره بررسی کند .

استفاده  محدود  از سلاح های هسته ای در طول جنگ قدرت های بزرگ. علیرغم یا به دلیل پتانسیل ترسناک این سناریوی «بازگشت به آینده»، که بازتاب تکثیر تسلیحات هسته‌ای تاکتیکی در طول جنگ سرد است، دانشکده‌های جنگ ایالات متحده  آموزش را برای آمادگی عملیاتی در طول تبادل تاکتیکی هسته‌ای بین کشورهایی که درگیر درگیر هستند، تقویت کرده‌اند . تضاد مقیاس

با این حال، میزانی که این ابتکارات و سایر ابتکارات به طور مؤثر افسران را در زمینه هوش مصنوعی آموزش می دهند، مشخص نیست.

 بخشی از مشکل این است که ابتکارات رویکردهای آموزشی رقیب را در برابر یکدیگر قرار می دهند.

 برخی از برنامه‌ها سواد داده‌ای و هوش مصنوعی را با رویکردی «عرض مایل، اینچ عمیق» بررسی می‌کنند که یک درس واحد را در یک دوره از یک برنامه درسی گسترده‌تر ادغام می‌کند. برنامه‌های دیگر فرصت‌های توسعه بیشتر و رویکردی «محدود و عمیق‌تر» را فراهم می‌کنند، که در آن تعداد انگشت شماری از افسران به‌طور داوطلبانه دروس انتخابی را انتخاب می‌کنند که در بالای برنامه درسی گسترده‌تر هستند.

 سایر برنامه‌ها، مانند برنامه کالج جنگ ارتش ایالات متحده، رویکرد «رشته طلایی» را امتحان می‌کنند، که سواد داده و هوش مصنوعی را در دوره‌هایی که یک برنامه آموزشی گسترده‌تر را چارچوب می‌دهند، تعبیه می‌کند.

 با این حال، این رویکرد اخیر، مدیران را مجبور می‌کند تا از نظر محتوا و زمان، معاوضه‌های مهمی انجام دهند و تخصص عمیق هیئت علمی را در نظر می‌گیرد.

در آینده، ستاد مشترک J-7 – اداره مسئول هماهنگی آموزش و آموزش در سراسر نیروی مشترک ایالات متحده – باید آموزش نظامی حرفه ای را به عنوان تداومی از غنی سازی پایدار و افزایشی در طول زمان از نظر سواد داده و آموزش هوش مصنوعی تصور کند.

 دانش‌آموزان پیش‌فرض که در آکادمی‌های خدماتی شرکت می‌کنند یا در سپاه آموزش افسران ذخیره شرکت می‌کنند باید با مفاهیم اساسی در مورد هوش مصنوعی آشنا شوند.

 افسران درجه اول و متوسط ​​باید این بینش ها را در طول آموزش، اعزام، و در حین شرکت در آموزش سطح متوسط، مانند دانشکده فرماندهی و ستاد کل ارتش ایالات متحده، ادغام کنند.

 پس از انتخاب در دانشکده های جنگ، افسران باید با ملاحظات مفهومی، هنجاری و ابزاری حاکم بر استفاده از هوش مصنوعی در جنگ دست و پنجه نرم کنند، که مطالعه من نشان می دهد که می تواند نگرش نظامی را نسبت به فناوری های جدید شکل دهد.

البته اتخاذ این رویکرد آموزشی پایانی به زمان و هزینه نیاز دارد. همچنین در برابر امتیازات ذینفعان مختلف، فرهنگ های خدماتی و رقابت های بین خدماتی مسئول است .

 با این حال، با همسو کردن آموزش و آموزش با نتایج یادگیری واضح و عملی، این مدل آموزشی جامع از فرصت‌های موجود بهره می‌برد تا اطمینان حاصل شود که ارتش ایالات متحده آماده و مایل به استفاده از فناوری‌های نظامی تقویت‌شده هوش مصنوعی در زمان صلح و جنگ‌های آینده به روش‌هایی است که با بین‌المللی همسو است.

قوانین و هنجارهای حاکم بر استفاده مشروع از آنها.

هوش مصنوعی و آینده جنگ ها

مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است. مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است.
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا