اینترنت اشیاتسلیحاتهوش مصنوعی

چگونه هوش مصنوعی جنگ را متحول خواهد کرد

چگونه هوش مصنوعی جنگ را متحول خواهد کرد -وقتی صحبت از هوش مصنوعی پیشرفته به میان می آید، بیشتر بحث بر این موضوع متمرکز شده است که آیا کارگران یقه سفید اکنون با تهدیدی در سطح انقراض روبرو هستند که طبقه کارگر زمانی با روباتیک انجام می داد.

 و در حالی که به طور ناگهانی محتمل است که هوش مصنوعی بتواند بخش خوبی از آنچه وکلا، حسابداران، معلمان، برنامه نویسان، و – بله – روزنامه نگاران انجام می دهند را تکرار کند، این حتی جایی نیست که مهم ترین انقلاب ممکن است رخ دهد.

آخرین هوش مصنوعی که به عنوان ترانسفورماتورهای از پیش آموزش‌دیده مولد (GPT) شناخته می‌شود، نوید تغییر کامل ژئوپلیتیک جنگ و بازدارندگی را می‌دهد. این کار را به شیوه‌هایی انجام می‌دهد که لزوماً آرامش‌بخش نیستند، و حتی ممکن است تبدیل به وجودی شوند.

از یک طرف، این فناوری می تواند جنگ را کم کشنده کند و احتمالاً بازدارندگی را تقویت کند. با گسترش چشمگیر نقش پهپادهای هدایت شده با هوش مصنوعی در نیروهای هوایی، نیروی دریایی و ارتش، می توان از جان انسان ها در امان ماند.

 در حال حاضر، وزارت دفاع ایالات متحده در حال آزمایش ربات‌های هوش مصنوعی است که می‌توانند با جت جنگنده F-16 اصلاح‌شده پرواز کنند و روسیه نیز خودروهای تانک‌مانند خودران را آزمایش کرده است.

 چین عجله دارد تا سیستم های هوش مصنوعی خود را راه اندازی کند و اثربخشی پهپادهای مسلح نیز در سال های آینده افزایش خواهد یافت. یکی از بزرگ‌ترین تلاش‌ها، اگرچه هنوز نوپا برای پیشبرد هوش مصنوعی، برنامه محرمانه نیروی هوایی ایالات متحده، نسل بعدی سلطه هوایی است که بر اساس آن حدود 1000 هواپیمای بدون سرنشین “بالنده” که هواپیماهای رزمی مشترک نامیده می‌شوند، در کنار 200 هواپیمای خلبان عمل می‌کنند.

داگلاس شاو، مشاور ارشد ابتکار تهدید هسته‌ای، گفت: «من به راحتی می‌توانم آینده‌ای را تصور کنم که در آن تعداد پهپادها بسیار بیشتر از افراد نیروهای مسلح باشد.

 به گفته ژنرال بازنشسته نیروی هوایی ایالات متحده، چارلز والد، «این یک افزایش دهنده نیرو خواهد بود. یکی از بزرگترین مشکلات در حال حاضر جذب نیرو است.»

از سوی دیگر، نرم‌افزار مبتنی بر هوش مصنوعی می‌تواند قدرت‌های بزرگ را وادار کند که پنجره تصمیم‌گیری خود را به‌جای ساعت‌ها یا روزها به چند دقیقه کاهش دهند.

 آنها ممکن است بیش از حد به ارزیابی های استراتژیک و تاکتیکی هوش مصنوعی وابسته باشند، حتی زمانی که صحبت از جنگ هسته ای به میان می آید.

 هربرت لین از دانشگاه استنفورد گفت، خطر این است که تصمیم گیرندگان می توانند به تدریج به هوش مصنوعی جدید به عنوان بخشی از فرماندهی و کنترل تسلیحات تکیه کنند، زیرا این هوش مصنوعی با سرعتی بسیار بیشتر از مردم عمل می کند.

جیمز جانسون از دانشگاه آبردین در کتابی که امسال منتشر شد، با عنوان هوش مصنوعی و بمب ، یک جنگ هسته‌ای تصادفی در دریای چین شرقی در سال 2025 را تصور می‌کند که توسط اطلاعات مبتنی بر هوش مصنوعی در هر دو طرف آمریکایی و چینی رخ داده و “توربو شارژ شده است.

توسط ربات‌های مجهز به هوش مصنوعی، دیپ‌فیک‌ها و عملیات‌های پرچم دروغین.»

چگونه هوش مصنوعی جنگ را متحول خواهد کرد

لین، کارشناس امنیت سایبری که در هیئت علم و امنیت بولتن اتمی کار می‌کند، گفت: «مشکل واقعی این است که چقدر کمی لازم است مردم متقاعد شوند که چیزی حساس است، در حالی که تمام GPT یک تکمیل خودکار پیچیده است. دانشمندان.

 با توجه به تمایل هوش مصنوعی به هذل‌گویی، لین گفت: «وقتی مردم شروع به این باور می‌کنند که ماشین‌ها فکر می‌کنند، احتمالاً کارهای دیوانه‌کننده‌ای انجام می‌دهند.»

در گزارشی که در اوایل فوریه منتشر شد، انجمن کنترل تسلیحات گفت که هوش مصنوعی و سایر فناوری‌های جدید، مانند موشک‌های مافوق صوت، می‌توانند منجر به «تفاوت بین حمله متعارف و هسته‌ای» شوند.

 در این گزارش آمده است که تقلا برای «بهره‌برداری از فناوری‌های نوظهور برای استفاده نظامی با سرعتی بسیار سریع‌تر از تلاش‌ها برای ارزیابی خطرات ناشی از آن‌ها و ایجاد محدودیت‌هایی برای استفاده از آن‌ها تسریع شده است».

 بنابراین، کاهش سرعت تسلیحات این فناوری‌ها، سنجیدن دقیق خطرات در انجام این کار، و اعمال محدودیت‌های معنادار در استفاده نظامی از آنها ضروری است.»

مقامات آمریکایی گفته اند که این کار را انجام می دهند، اما ممکن است در مسیری لغزنده حرکت کنند.

 در ژانویه امسال، وزارت دفاع دستورالعمل خود را در مورد سیستم های تسلیحاتی شامل استفاده از هوش مصنوعی به روز کرد و گفت که حداقل باید از قضاوت انسانی در توسعه و استقرار سیستم های تسلیحاتی خودمختار استفاده شود.

 با این حال، در همان زمان، پنتاگون در حال آزمایش با هوش مصنوعی برای یکپارچه سازی تصمیم گیری از همه شاخه های خدماتی و دستورات چندگانه رزمی است.

 و با توجه به اینکه دولت بایدن صادرات فناوری پیشرفته به چین، به ویژه نیمه هادی های پیشرفته را به منظور حفظ برتری فعلی ایالات متحده در هوش مصنوعی سرکوب می کند، پنتاگون احتمالا این تلاش ها را تسریع خواهد کرد.

والد گفت: «من فکر می‌کنم هوش مصنوعی به اولویت‌بندی هدف کمک می‌کند. این می‌تواند در راهبرد علیه چین مفید باشد، زیرا این کشور دارای برتری میدانی خانگی نسبت به ایالات متحده در پل زدن فاصله‌های وسیع در اقیانوس آرام است که می‌تواند در پاسخ هماهنگ به حمله به تایوان اختلال ایجاد کند.

در یک سخنرانی در سال 2019، سپهبد جک شاناهان، مدیر سابق مرکز هوش مصنوعی مشترک پنتاگون، گفت که در حالی که وزارت دفاع مشتاقانه به دنبال “ادغام قابلیت های هوش مصنوعی” است، این قطعا شامل فرماندهی و کنترل هسته ای نمی شود.

 شاناهان اضافه کرد که می‌تواند نقش هوش مصنوعی را در تعیین نحوه استفاده از نیروی کشنده تصور کند – زمانی که تصمیم انسانی گرفته شود.

 او گفت: «من مستقیماً به سراغ «سیستم‌های تسلیحاتی خودمختار مرگبار» نمی‌روم، اما می‌خواهم بگویم که از هوش مصنوعی در سیستم‌های تسلیحاتی خود استفاده خواهیم کرد تا به ما مزیت رقابتی بدهیم. این برای نجات جان افراد و کمک به جلوگیری از وقوع جنگ در وهله اول است.”

سوال این است که آیا چینی ها و روس ها به همراه سایر طرف های ثالث از قوانین مشابه واشنگتن پیروی خواهند کرد؟

والد گفت: “من فکر نمی کنم که ایالات متحده در مسیر اجازه دادن به چیزهایی … جایی که شما کنترل انسانی ندارید.” اما من مطمئن نیستم که شخص دیگری این کار را انجام ندهد.

 من فکر می‌کنم بزرگ‌ترین نگرانی اجازه دادن به این دستگاه یا موجودیت بیش از حد عرض جغرافیایی است.»

نگرانی دیگر این است که فناوری پیشرفته هوش مصنوعی می تواند به بازیگران سرکش مانند تروریست ها اجازه دهد تا در ساخت بمب های کثیف یا سایر وسایل کشنده دانش کسب کنند.

 و هوش مصنوعی اکنون توسط بازیگران بسیار بیشتری نسبت به دوران جنگ سرد به اشتراک گذاشته شده است، به این معنی که می‌توان از آن برای شناسایی سایت‌های تسلیحات هسته‌ای استفاده کرد و اثر بازدارندگی مخفی نگه داشتن مکان‌های آنها را کاهش داد.

 شاو گفت: «هوش مصنوعی پویایی پنهان کردن و یافتن چیزها را تغییر خواهد داد.

چگونه هوش مصنوعی جنگ را متحول خواهد کرد

چگونه هوش مصنوعی جنگ را متحول خواهد کرد
چگونه هوش مصنوعی جنگ را متحول خواهد کرد

آنچه واضح به نظر می رسد این است که یک مسابقه تسلیحاتی جدید هوش مصنوعی در حال انجام است و احتمالاً کاری برای متوقف کردن آن نمی توان انجام داد.

 در نامه‌ای سرگشاده در اواخر ماه مارس، بیش از 2000 رهبر و محقق فناوری – از جمله ایلان ماسک و استیو وزنیاک – از آزمایشگاه‌های سراسر جهان خواستند تا در آموزش جدیدترین مدل‌های هوش دیجیتال به دلیل ترس‌های آبشاری مبنی بر اینکه ممکن است منجر به فاجعه برای انسان شوند، توقف کنند. نژاد

هشدار آنها در مورد تهدید وجودی برای جامعه ممکن است تا حدی اغراق آمیز باشد. این نامه توسط برخی از کارشناسان هوش مصنوعی به عنوان “ترس انگیز” به دلیل این توهم مورد انتقاد قرار گرفت که این مدل ها همیشه می توانند حساس باشند، مانند فیلم های علمی تخیلی مانند The Terminator .

 لین با اشاره به شخصیت شرور هوش مصنوعی که تمدن بشری را در فیلم معروف 1984 نابود کرد، گفت: «این اسکای نت نیست. اما می تواند منجر به خطای انسانی بر اساس وابستگی بیش از حد شود. این یک مهمات با هدایت دقیق در برابر هوش انسانی و عقلانیت انسانی است.

علاوه بر این، این ایده که دولت‌ها به خاطر ایمنی قصد دارند تأخیر را تحریم کنند، در نهایت بعید است.

 این نه تنها به این دلیل است که بزرگ‌ترین شرکت‌های فناوری جهان درگیر رقابت شرورانه، به‌ویژه در دره سیلیکون هستند، بلکه به این دلیل است که فناوری جدید در یک محیط بین‌المللی در حال گسترش است که ایالات متحده، چین و روسیه اکنون درگیر یک فضای تلخ هستند. مبارزه برای تسلط

ژنرال دیوید دپتولا بازنشسته نیروی هوایی گفت: «به یاد داشته باشید که دشمن رای می‌آورد مهم است. «حتی اگر ما تحقیقات خودمختاری و سایر توسعه‌های هوش مصنوعی نظامی را متوقف کنیم، چینی‌ها و تا حدی روس‌ها مطمئناً تحقیقات هوش مصنوعی خود را ادامه خواهند داد. هر دو کشور علاقه چندانی به پیگیری توافقات آتی کنترل تسلیحات نشان نداده اند.»

این نامه سرگشاده تنها آخرین شواهدی بود از چیزی که تنها می‌توان آن را یک وحشت گسترده نامید، از زمانی که ChatGPT در اواخر پاییز گذشته در صحنه ظاهر شد و شرکت‌های بزرگ فناوری تلاش کردند تا سیستم‌های هوش مصنوعی خود را با به اصطلاح هوش رقابتی انسان معرفی کنند.

 در نامه آمده است که مسائل در خطر برای تمدن بشری اساسی است: « آیا باید اجازه دهیم ماشین‌ها کانال‌های اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ آیا باید تمام مشاغل، از جمله کارهای انجام‌دهنده را خودکار کنیم؟

 آیا باید ذهن‌های غیرانسانی را پرورش دهیم که ممکن است در نهایت از تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را داشته باشیم؟»

اما نکته اصلی این بود: اگر شرکت‌هایی که آزمایشگاه‌های هوش مصنوعی را تأمین مالی می‌کنند با چنین مکثی موافقت نمی‌کنند، «دولت‌ها باید وارد عمل شوند و یک مهلت قانونی وضع کنند».

با این حال، در سال 2017، ولادیمیر پوتین، رئیس‌جمهور روسیه اعلام کرد که «کسی که در این حوزه [هوش مصنوعی] رهبر شود، فرمانروای جهان خواهد بود» و جنگ‌های آینده «زمانی که پهپادهای یک طرف نابود شوند» تصمیم‌گیری خواهد شد. توسط پهپادهای دیگری.»

شاو، در مورد ابتکار تهدید هسته ای، گفت که بزرگترین مشکل این است که “ما واقعاً در مورد آنچه در آینده خواهد آمد گفتگو نمی کنیم.”

بسیاری دیگر موافقند. دارپا – آژانس پروژه های تحقیقاتی پیشرفته دفاعی پنتاگون – در حال اجرای یک برنامه تحقیقاتی گسترده به نام AI Forward است .

 مت تورک، سخنگوی دارپا اخیرا گفت که سیستم‌های هوش مصنوعی مولد مانند ChatGPT مسائل جدیدی را در مورد «سطح قابلیت اطمینانی که احتمالاً برای تصمیم‌گیری مرگ یا زندگی به آن نیاز داریم» مطرح کرده‌اند.

چگونه هوش مصنوعی جنگ را متحول خواهد کرد

مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است. مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است.
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا