چگونه هوش مصنوعی جنگ را متحول خواهد کرد
چگونه هوش مصنوعی جنگ را متحول خواهد کرد -وقتی صحبت از هوش مصنوعی پیشرفته به میان می آید، بیشتر بحث بر این موضوع متمرکز شده است که آیا کارگران یقه سفید اکنون با تهدیدی در سطح انقراض روبرو هستند که طبقه کارگر زمانی با روباتیک انجام می داد.
و در حالی که به طور ناگهانی محتمل است که هوش مصنوعی بتواند بخش خوبی از آنچه وکلا، حسابداران، معلمان، برنامه نویسان، و – بله – روزنامه نگاران انجام می دهند را تکرار کند، این حتی جایی نیست که مهم ترین انقلاب ممکن است رخ دهد.
آخرین هوش مصنوعی که به عنوان ترانسفورماتورهای از پیش آموزشدیده مولد (GPT) شناخته میشود، نوید تغییر کامل ژئوپلیتیک جنگ و بازدارندگی را میدهد. این کار را به شیوههایی انجام میدهد که لزوماً آرامشبخش نیستند، و حتی ممکن است تبدیل به وجودی شوند.
از یک طرف، این فناوری می تواند جنگ را کم کشنده کند و احتمالاً بازدارندگی را تقویت کند. با گسترش چشمگیر نقش پهپادهای هدایت شده با هوش مصنوعی در نیروهای هوایی، نیروی دریایی و ارتش، می توان از جان انسان ها در امان ماند.
در حال حاضر، وزارت دفاع ایالات متحده در حال آزمایش رباتهای هوش مصنوعی است که میتوانند با جت جنگنده F-16 اصلاحشده پرواز کنند و روسیه نیز خودروهای تانکمانند خودران را آزمایش کرده است.
چین عجله دارد تا سیستم های هوش مصنوعی خود را راه اندازی کند و اثربخشی پهپادهای مسلح نیز در سال های آینده افزایش خواهد یافت. یکی از بزرگترین تلاشها، اگرچه هنوز نوپا برای پیشبرد هوش مصنوعی، برنامه محرمانه نیروی هوایی ایالات متحده، نسل بعدی سلطه هوایی است که بر اساس آن حدود 1000 هواپیمای بدون سرنشین “بالنده” که هواپیماهای رزمی مشترک نامیده میشوند، در کنار 200 هواپیمای خلبان عمل میکنند.
داگلاس شاو، مشاور ارشد ابتکار تهدید هستهای، گفت: «من به راحتی میتوانم آیندهای را تصور کنم که در آن تعداد پهپادها بسیار بیشتر از افراد نیروهای مسلح باشد.
به گفته ژنرال بازنشسته نیروی هوایی ایالات متحده، چارلز والد، «این یک افزایش دهنده نیرو خواهد بود. یکی از بزرگترین مشکلات در حال حاضر جذب نیرو است.»
از سوی دیگر، نرمافزار مبتنی بر هوش مصنوعی میتواند قدرتهای بزرگ را وادار کند که پنجره تصمیمگیری خود را بهجای ساعتها یا روزها به چند دقیقه کاهش دهند.
آنها ممکن است بیش از حد به ارزیابی های استراتژیک و تاکتیکی هوش مصنوعی وابسته باشند، حتی زمانی که صحبت از جنگ هسته ای به میان می آید.
هربرت لین از دانشگاه استنفورد گفت، خطر این است که تصمیم گیرندگان می توانند به تدریج به هوش مصنوعی جدید به عنوان بخشی از فرماندهی و کنترل تسلیحات تکیه کنند، زیرا این هوش مصنوعی با سرعتی بسیار بیشتر از مردم عمل می کند.
جیمز جانسون از دانشگاه آبردین در کتابی که امسال منتشر شد، با عنوان هوش مصنوعی و بمب ، یک جنگ هستهای تصادفی در دریای چین شرقی در سال 2025 را تصور میکند که توسط اطلاعات مبتنی بر هوش مصنوعی در هر دو طرف آمریکایی و چینی رخ داده و “توربو شارژ شده است.
توسط رباتهای مجهز به هوش مصنوعی، دیپفیکها و عملیاتهای پرچم دروغین.»
چگونه هوش مصنوعی جنگ را متحول خواهد کرد
لین، کارشناس امنیت سایبری که در هیئت علم و امنیت بولتن اتمی کار میکند، گفت: «مشکل واقعی این است که چقدر کمی لازم است مردم متقاعد شوند که چیزی حساس است، در حالی که تمام GPT یک تکمیل خودکار پیچیده است. دانشمندان.
با توجه به تمایل هوش مصنوعی به هذلگویی، لین گفت: «وقتی مردم شروع به این باور میکنند که ماشینها فکر میکنند، احتمالاً کارهای دیوانهکنندهای انجام میدهند.»
در گزارشی که در اوایل فوریه منتشر شد، انجمن کنترل تسلیحات گفت که هوش مصنوعی و سایر فناوریهای جدید، مانند موشکهای مافوق صوت، میتوانند منجر به «تفاوت بین حمله متعارف و هستهای» شوند.
در این گزارش آمده است که تقلا برای «بهرهبرداری از فناوریهای نوظهور برای استفاده نظامی با سرعتی بسیار سریعتر از تلاشها برای ارزیابی خطرات ناشی از آنها و ایجاد محدودیتهایی برای استفاده از آنها تسریع شده است».
بنابراین، کاهش سرعت تسلیحات این فناوریها، سنجیدن دقیق خطرات در انجام این کار، و اعمال محدودیتهای معنادار در استفاده نظامی از آنها ضروری است.»
مقامات آمریکایی گفته اند که این کار را انجام می دهند، اما ممکن است در مسیری لغزنده حرکت کنند.
در ژانویه امسال، وزارت دفاع دستورالعمل خود را در مورد سیستم های تسلیحاتی شامل استفاده از هوش مصنوعی به روز کرد و گفت که حداقل باید از قضاوت انسانی در توسعه و استقرار سیستم های تسلیحاتی خودمختار استفاده شود.
با این حال، در همان زمان، پنتاگون در حال آزمایش با هوش مصنوعی برای یکپارچه سازی تصمیم گیری از همه شاخه های خدماتی و دستورات چندگانه رزمی است.
و با توجه به اینکه دولت بایدن صادرات فناوری پیشرفته به چین، به ویژه نیمه هادی های پیشرفته را به منظور حفظ برتری فعلی ایالات متحده در هوش مصنوعی سرکوب می کند، پنتاگون احتمالا این تلاش ها را تسریع خواهد کرد.
والد گفت: «من فکر میکنم هوش مصنوعی به اولویتبندی هدف کمک میکند. این میتواند در راهبرد علیه چین مفید باشد، زیرا این کشور دارای برتری میدانی خانگی نسبت به ایالات متحده در پل زدن فاصلههای وسیع در اقیانوس آرام است که میتواند در پاسخ هماهنگ به حمله به تایوان اختلال ایجاد کند.
در یک سخنرانی در سال 2019، سپهبد جک شاناهان، مدیر سابق مرکز هوش مصنوعی مشترک پنتاگون، گفت که در حالی که وزارت دفاع مشتاقانه به دنبال “ادغام قابلیت های هوش مصنوعی” است، این قطعا شامل فرماندهی و کنترل هسته ای نمی شود.
شاناهان اضافه کرد که میتواند نقش هوش مصنوعی را در تعیین نحوه استفاده از نیروی کشنده تصور کند – زمانی که تصمیم انسانی گرفته شود.
او گفت: «من مستقیماً به سراغ «سیستمهای تسلیحاتی خودمختار مرگبار» نمیروم، اما میخواهم بگویم که از هوش مصنوعی در سیستمهای تسلیحاتی خود استفاده خواهیم کرد تا به ما مزیت رقابتی بدهیم. این برای نجات جان افراد و کمک به جلوگیری از وقوع جنگ در وهله اول است.”
سوال این است که آیا چینی ها و روس ها به همراه سایر طرف های ثالث از قوانین مشابه واشنگتن پیروی خواهند کرد؟
والد گفت: “من فکر نمی کنم که ایالات متحده در مسیر اجازه دادن به چیزهایی … جایی که شما کنترل انسانی ندارید.” اما من مطمئن نیستم که شخص دیگری این کار را انجام ندهد.
من فکر میکنم بزرگترین نگرانی اجازه دادن به این دستگاه یا موجودیت بیش از حد عرض جغرافیایی است.»
نگرانی دیگر این است که فناوری پیشرفته هوش مصنوعی می تواند به بازیگران سرکش مانند تروریست ها اجازه دهد تا در ساخت بمب های کثیف یا سایر وسایل کشنده دانش کسب کنند.
و هوش مصنوعی اکنون توسط بازیگران بسیار بیشتری نسبت به دوران جنگ سرد به اشتراک گذاشته شده است، به این معنی که میتوان از آن برای شناسایی سایتهای تسلیحات هستهای استفاده کرد و اثر بازدارندگی مخفی نگه داشتن مکانهای آنها را کاهش داد.
شاو گفت: «هوش مصنوعی پویایی پنهان کردن و یافتن چیزها را تغییر خواهد داد.
چگونه هوش مصنوعی جنگ را متحول خواهد کرد
آنچه واضح به نظر می رسد این است که یک مسابقه تسلیحاتی جدید هوش مصنوعی در حال انجام است و احتمالاً کاری برای متوقف کردن آن نمی توان انجام داد.
در نامهای سرگشاده در اواخر ماه مارس، بیش از 2000 رهبر و محقق فناوری – از جمله ایلان ماسک و استیو وزنیاک – از آزمایشگاههای سراسر جهان خواستند تا در آموزش جدیدترین مدلهای هوش دیجیتال به دلیل ترسهای آبشاری مبنی بر اینکه ممکن است منجر به فاجعه برای انسان شوند، توقف کنند. نژاد
هشدار آنها در مورد تهدید وجودی برای جامعه ممکن است تا حدی اغراق آمیز باشد. این نامه توسط برخی از کارشناسان هوش مصنوعی به عنوان “ترس انگیز” به دلیل این توهم مورد انتقاد قرار گرفت که این مدل ها همیشه می توانند حساس باشند، مانند فیلم های علمی تخیلی مانند The Terminator .
لین با اشاره به شخصیت شرور هوش مصنوعی که تمدن بشری را در فیلم معروف 1984 نابود کرد، گفت: «این اسکای نت نیست. اما می تواند منجر به خطای انسانی بر اساس وابستگی بیش از حد شود. این یک مهمات با هدایت دقیق در برابر هوش انسانی و عقلانیت انسانی است.
علاوه بر این، این ایده که دولتها به خاطر ایمنی قصد دارند تأخیر را تحریم کنند، در نهایت بعید است.
این نه تنها به این دلیل است که بزرگترین شرکتهای فناوری جهان درگیر رقابت شرورانه، بهویژه در دره سیلیکون هستند، بلکه به این دلیل است که فناوری جدید در یک محیط بینالمللی در حال گسترش است که ایالات متحده، چین و روسیه اکنون درگیر یک فضای تلخ هستند. مبارزه برای تسلط
ژنرال دیوید دپتولا بازنشسته نیروی هوایی گفت: «به یاد داشته باشید که دشمن رای میآورد مهم است. «حتی اگر ما تحقیقات خودمختاری و سایر توسعههای هوش مصنوعی نظامی را متوقف کنیم، چینیها و تا حدی روسها مطمئناً تحقیقات هوش مصنوعی خود را ادامه خواهند داد. هر دو کشور علاقه چندانی به پیگیری توافقات آتی کنترل تسلیحات نشان نداده اند.»
این نامه سرگشاده تنها آخرین شواهدی بود از چیزی که تنها میتوان آن را یک وحشت گسترده نامید، از زمانی که ChatGPT در اواخر پاییز گذشته در صحنه ظاهر شد و شرکتهای بزرگ فناوری تلاش کردند تا سیستمهای هوش مصنوعی خود را با به اصطلاح هوش رقابتی انسان معرفی کنند.
در نامه آمده است که مسائل در خطر برای تمدن بشری اساسی است: « آیا باید اجازه دهیم ماشینها کانالهای اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ آیا باید تمام مشاغل، از جمله کارهای انجامدهنده را خودکار کنیم؟
آیا باید ذهنهای غیرانسانی را پرورش دهیم که ممکن است در نهایت از تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را داشته باشیم؟»
اما نکته اصلی این بود: اگر شرکتهایی که آزمایشگاههای هوش مصنوعی را تأمین مالی میکنند با چنین مکثی موافقت نمیکنند، «دولتها باید وارد عمل شوند و یک مهلت قانونی وضع کنند».
با این حال، در سال 2017، ولادیمیر پوتین، رئیسجمهور روسیه اعلام کرد که «کسی که در این حوزه [هوش مصنوعی] رهبر شود، فرمانروای جهان خواهد بود» و جنگهای آینده «زمانی که پهپادهای یک طرف نابود شوند» تصمیمگیری خواهد شد. توسط پهپادهای دیگری.»
شاو، در مورد ابتکار تهدید هسته ای، گفت که بزرگترین مشکل این است که “ما واقعاً در مورد آنچه در آینده خواهد آمد گفتگو نمی کنیم.”
بسیاری دیگر موافقند. دارپا – آژانس پروژه های تحقیقاتی پیشرفته دفاعی پنتاگون – در حال اجرای یک برنامه تحقیقاتی گسترده به نام AI Forward است .
مت تورک، سخنگوی دارپا اخیرا گفت که سیستمهای هوش مصنوعی مولد مانند ChatGPT مسائل جدیدی را در مورد «سطح قابلیت اطمینانی که احتمالاً برای تصمیمگیری مرگ یا زندگی به آن نیاز داریم» مطرح کردهاند.