اینترنت اشیاتسلیحاتفناوریهوش مصنوعی

آیا می‌توان فن‌آوری‌های نظامی پیشرفته را قبل از دیر شدن رام کرد؟

 در 27 نوامبر 2020، در اقدامی که جهان را بهت زده کرد، مقامات اطلاعاتی اسرائیل این دانشمند را ترور کردند .

 شهید فخری زاده و همسرش سواحل خزر را ترک کرده بودند و با کاروانی متشکل از چهار خودرو به سمت خانه خانوادگی خود در حومه ایران در حال حرکت بودند.

 با نزدیک شدن به یک دوربرگردان، آبشاری از گلوله ها شیشه جلوی آنها را شکست و بارها به فخری زاده اصابت کرد.

عامل اسرائیلی که این ترور را انجام داد، مجبور به فرار از صحنه نبود: تیرانداز از مسلسل کنترل از راه دور استفاده کرده بود که از فاصله بیش از 1000 مایلی منفجر می شد.

 موساد یک تفنگ ساخت بلژیک را با یک دستگاه روباتیک پیشرفته سفارشی کرده بود که در بستر یک کامیون وانت قرار می گرفت و به مجموعه ای از دوربین ها مجهز بود که دید کاملی از هدف و محیط اطراف را فراهم می کرد.

 برای محاسبه تأخیر در ارسال سیگنال به سلاح، موساد از نرم‌افزار هوش مصنوعی برای محاسبه تأخیر زمانی، لرزش کامیون با شلیک هر گلوله و سرعت خودروی فخری‌زاده استفاده کرد.

این عملیات به‌جای اینکه به‌عنوان یک عملیات دور از دسترس باشد، منادی نوآوری در آینده بوده است.

 کشورهای بزرگ و کوچک برای به دست آوردن پهپادهای پیشرفته، ترکیب تجزیه و تحلیل هدف گیری الگوریتمی، و توسعه مجموعه ای از سلاح های زمینی و دریایی خودمختار، همه با نظارت یا محدودیت کمی، در حال رقابت هستند.

 به این ترتیب، کشورها در مورد قوانین مشترک در مورد توسعه، استقرار و استفاده از این ابزارها در جنگ به توافق برسند.

برای تقویت نظارت و پیش بینی پذیری، کارشناسان و سیاست گذاران باید در نظر داشته باشند که قدرت های پیشرو هوش مصنوعی چه گام هایی را می توانند بردارند.

 ایالات متحده می‌تواند با تعهد به نظارت بر توسعه سلاح‌های هوش مصنوعی پیشرو باشد.

 همچنین می‌تواند با کشورهای دیگر گروهی برای نظارت متخصص ایجاد کند که نحوه استفاده از هوش مصنوعی در جنگ را زیر نظر داشته باشد.

 در نهایت، کشورها باید پای میز مذاکره بیایند تا در مورد هنجارهای استفاده از فناوری نظامی نوظهور تصمیم بگیرند – قبل از اینکه خیلی دیر شود.

از اوکراین تا غزه . سیستم‌های هوش مصنوعی مرتبط با امنیت ملی طیف وسیعی از کاربردها را در بر می‌گیرند، اما می‌توانند به طور گسترده طبقه‌بندی شوند به وظایف بالادستی (اطلاعات، نظارت و شناسایی، فرماندهی و کنترل، مدیریت اطلاعات، لجستیک و آموزش) و وظایف پایین دستی (انتخاب هدف و تعامل) طبقه‌بندی شوند.

 به طور مشخص، برنامه‌های کاربردی هوش مصنوعی به ارتش این امکان را می‌دهد تا ظرفیت تحلیلی بیشتری – برای جمع‌آوری و تجزیه و تحلیل داده‌های میدان نبرد و افزایش ظرفیت عملیاتی – برای حملات موشکی و استقرار پهپادهای خودکار مجهز به هوش مصنوعی.

برخی از کارشناسان استدلال می کنند که ایالات متحده نمی تواند مانع از پیشرفت به سمت توسعه سلاح های کاملا خودمختار شود تا مبادا چین یا روس ها از تلاش های خود پیشی بگیرند. و مطمئناً، قابلیت‌های هوش مصنوعی به سرعت در حال گسترش هستند.

 همانطور که جنگ اوکراین و خصومت‌ها در غزه نشان می‌دهد، بدون یک چارچوب مشترک و محدودیت‌های توافق شده، دولت‌ها در معرض خطر یک مسابقه تا ته هستند و سیستم‌های مخرب‌تر را با محدودیت‌های اندک مستقر می‌کنند.

آیا می‌توان فن‌آوری‌های نظامی پیشرفته را قبل از دیر شدن رام کرد؟

جنگ کنونی در اوکراین به عنوان یک ” آزمایشگاه فوق العاده اختراع ” توصیف شده است که به شرکت های فناوری و کارآفرینان فرصتی داده است تا ابزارهای جدید را مستقیماً در میدان جنگ آزمایش کنند.

 این درگیری تغییر عمده ای را در نحوه مبارزه آشکار کرده است. یکی از مهم‌ترین تغییرات، معرفی سیستم‌های مدیریت نبرد یکپارچه است که شفافیت لحظه به لحظه را در مورد حرکات نیروها و مکان‌ها ارائه می‌دهد – تا سطح واحدهای اولیه.

 سرلشکر وادیم اسکیبیتسکی، یک مقام ارشد در سرویس اطلاعات نظامی اوکراین، هشدار می دهد : «امروز، ستونی از تانک ها یا ستونی از سربازان در حال پیشروی را می توان در عرض سه تا پنج دقیقه کشف کرد و در سه دقیقه دیگر ضربه زد . “قابلیت بقا در حرکت بیش از 10 دقیقه نیست.”

خط مقدم اوکراین توسط هواپیماهای بدون سرنشین پر شده است که نه تنها نظارت مستمر بر تحولات میدان نبرد را فراهم می‌کنند، بلکه در صورت تطبیق با سیستم‌های هدف‌گیری مجهز به هوش مصنوعی، امکان نابودی تقریباً آنی دارایی‌های نظامی را نیز فراهم می‌کنند.

 طبیعتاً هم روس‌ها و هم اوکراینی‌ها به جنگ الکترونیک ضد پهپاد روی آورده‌اند تا تأثیر هواپیماهای بدون سرنشین را نفی کنند. اما این امر باعث پیشرفت دیگری شده است – فشار سریع برای خودمختاری کامل.

 همانطور که محقق نظامی TX Hammes می‌نویسد ، «پهپادهای خودران نه پیوند رادیویی آسیب‌پذیر به خلبانان خواهند داشت و نه به راهنمایی GPS نیاز دارند. خودمختاری همچنین تعداد پهپادهایی را که می‌توان در یک زمان به کار گرفت، بسیار افزایش می‌دهد.»

هوش مصنوعی نظامی نیز به طور مشابه جنگ در غزه را شکل می دهد. پس از اینکه شبه‌نظامیان حماس با خنثی کردن قابلیت‌های نظارتی پیشرفته « دیوار آهنی » این کشور – یک مانع فیزیکی به طول 40 مایل مجهز به دوربین‌های ویدیویی هوشمند، حسگرهای هدایت‌شونده لیزری و رادار پیشرفته – نیروهای اسرائیل را متحیر کردند- اسرائیل این ابتکار فناوری را پس گرفت.

 نیروهای دفاعی اسرائیل (IDF) از یک پلت فرم هدف گیری هوش مصنوعی موسوم به “انجیل” استفاده کرده اند. بر اساس گزارش‌ها ، این سیستم نقش اصلی را در تهاجم جاری بازی می‌کند و «توصیه‌های خودکار» را برای شناسایی و حمله به اهداف ارائه می‌کند.

 این سیستم اولین بار در سال 2021 و در جریان جنگ 11 روزه اسرائیل با حماس فعال شد.

 برای جنگ 2023، ارتش اسرائیل تخمین می زند که در 35 روز اول جنگ به 15000 هدف در غزه حمله کرده است. 

(در مقایسه، اسرائیل بین 5000 تا 6000 هدف را در درگیری 2014 غزه ، که 51 روز طول کشید، هدف قرار داد.) در حالی که انجیل قابلیت های نظامی حیاتی را ارائه می دهد، تلفات غیرنظامیان نگران کننده است.

 یک منبع پلت فرم را به عنوان یک ” کارخانه ترور دسته جمعی ” با تاکید بر کمیت اهداف بیش از کیفیت آنها توصیف می کند.

 همچنین این خطر وجود دارد که اتکای اسرائیل به هدف‌گیری هوش مصنوعی منجر به ” سوگیری اتوماسیون ” شود، که در آن اپراتورهای انسانی مستعد پذیرش توصیه‌های تولید شده توسط ماشین در شرایطی هستند که در آن انسان‌ها به نتایج متفاوتی می‌رسیدند.

آیا اجماع بین المللی امکان پذیر است؟ همانطور که جنگ در اوکراین و غزه نشان می دهد، ارتش های رقیب با وجود اجماع اندک در مورد مرزهای اخلاقی برای استقرار فناوری های آزمایش نشده در میدان نبرد، برای استقرار ابزارهای خودکار در حال رقابت هستند.

 تحقیقات من نشان می‌دهد که قدرت‌های پیشرو مانند ایالات متحده متعهد به استفاده از «سیستم‌های منسجم و مستقل در همه حوزه‌ها» هستند.

 به عبارت دیگر، ارتش های بزرگ در حال تجدید نظر در احکام اساسی در مورد چگونگی جنگ و تکیه بر فناوری های جدید هستند.

آیا می‌توان فن‌آوری‌های نظامی پیشرفته را قبل از دیر شدن رام کرد؟

آیا می‌توان فن‌آوری‌های نظامی پیشرفته را قبل از دیر شدن رام کرد؟
آیا می‌توان فن‌آوری‌های نظامی پیشرفته را قبل از دیر شدن رام کرد؟

 این پیشرفت‌ها به‌ویژه در پرتو پرسش‌های حل‌نشده متعدد نگران‌کننده هستند: هنگام استفاده از هواپیماهای بدون سرنشین خودران یا مسلسل‌های روباتی در مناطق پرجمعیت، قوانین دقیقاً چیست؟ چه تدابیری لازم است و چه کسی در صورت آسیب دیدن غیرنظامیان مقصر است؟

همانطور که کشورهای بیشتری متقاعد می شوند که سلاح های هوش مصنوعی کلید آینده جنگ را دارند، آنها انگیزه خواهند داشت تا منابع را برای توسعه و تکثیر این فناوری ها اختصاص دهند.

 اگرچه ممکن است ممنوعیت سلاح‌های خودمختار مرگبار یا محدود کردن ابزارهای مجهز به هوش مصنوعی غیرعملی باشد، اما این بدان معنا نیست که کشورها نمی‌توانند ابتکار عمل بیشتری برای شکل دادن به نحوه استفاده از آنها داشته باشند.

ایالات متحده در این زمینه پیام های متفاوتی ارسال کرده است. در حالی که دولت بایدن مجموعه‌ای از سیاست‌ها را منتشر کرده است که استفاده مسئولانه از سلاح‌های خودمختار را مشخص می‌کند و از کشورها می‌خواهد که اصول مشترک مسئولیت سلاح‌های هوش مصنوعی را اجرا کنند، ایالات متحده نیز در مجامع بین‌المللی مانع از پیشرفت شده است.

 در یک چرخش طعنه آمیز، در نشست اخیر کمیته سازمان ملل متحد در مورد سلاح های خودمختار، هیئت روسی در واقع موضع آمریکا را تایید کرد ، که استدلال می کرد که قرار دادن سلاح های خودمختار تحت “کنترل معنادار انسانی” بسیار محدود کننده است.

سیاست گذاران آمریکایی می توانند بهتر عمل کنند، با سه ایده که ارزش بررسی دارد.

اول، ایالات متحده باید متعهد به نظارت معنادار در مورد توسعه سلاح های خودمختار و هوش مصنوعی پنتاگون باشد. فرمان اجرایی جدید کاخ سفید در مورد هوش مصنوعی ، تدوین یک یادداشت امنیت ملی را برای تشریح چگونگی برخورد دولت با خطرات امنیت ملی ناشی از این فناوری، الزامی می کند.

 یکی از ایده‌های این یادداشت ایجاد یک هیئت هوش مصنوعی امنیت ملی غیرنظامی است که احتمالاً از هیئت نظارت بر حریم خصوصی و آزادی‌های مدنی (سازمانی که وظیفه دارد اطمینان حاصل کند که دولت فدرال تلاش‌های پیشگیری از تروریسم را با حفاظت از آزادی‌های مدنی متعادل می‌کند) الگوبرداری شده است.

 به چنین نهادی می‌توان مسئولیت‌های نظارتی برای پوشش برنامه‌های هوش مصنوعی که فرض می‌شود بر امنیت و حقوق تأثیر می‌گذارند، و همچنین وظیفه نظارت بر فرآیندهای در حال انجام هوش مصنوعی – چه در مورد گروه ویژه هوش مصنوعی مولد وزارت دفاع یا ارائه مشاوره به پنتاگون در مورد هوش مصنوعی بر عهده داشته باشد.

محصولات و سیستم های در دست توسعه با بخش خصوصی. یک ایده مرتبط این است که آژانس های امنیت ملی تیم های مستقل ارزیابی ریسک هوش مصنوعی ایجاد کنند .

 این واحدها بر عملکردهای ارزیابی یکپارچه، طراحی، یادگیری و ارزیابی ریسک نظارت خواهند داشت که دستورالعمل‌ها و پادمان‌های عملیاتی را ایجاد می‌کنند، خطرات را آزمایش می‌کنند، فعالیت‌های تیم قرمز هوش مصنوعی را هدایت می‌کنند و بازبینی‌های پس از اقدام را انجام می‌دهند.

دوم، ایالات متحده و دموکراسی‌های همفکر خود باید برای ایجاد یک گروه متخصص مستقل مورد تحریم بین‌المللی برای نظارت بر اثرات مستمر ابزارهای هوش مصنوعی که در جنگ استفاده می‌شوند، تلاش کنند.

 به عنوان مثال، اگر گزارش‌ها مبنی بر اینکه 90 درصد از اهداف مورد اصابت قرار گرفته‌اند در درگیری غزه به دلیل توصیه‌های ایجاد شده توسط هوش مصنوعی صحت داشته باشد، سیاستگذاران باید درک دقیق‌تری از خطرات و مزایای چنین سیستم‌هایی داشته باشند.

 تأثیرات غیرنظامی این سکوهای هدف گیری چیست؟ چه پارامترهایی استفاده می‌شوند و چه سطحی از نظارت بر الگوریتم‌های هدف‌گیری اعمال می‌شود؟ چه نوع رویه های پاسخگویی وجود دارد؟ هدف این گروه توجه به حوزه‌های فعالیت و ارائه توصیه‌هایی برای دولت‌ها و سازمان‌های بین‌المللی در مورد چگونگی اصلاح مشکلات نوظهور خواهد بود.

در نهایت، دولت ها باید در مورد ایجاد یک طبقه برای رفتار برای نحوه استفاده ارتش از فناوری های نوظهور در جنگ توافق کنند.

 یک کیفیت غرب وحشی وجود دارد که چگونه کشورها از فناوری های جدید برای پیشبرد منافع امنیتی خود استفاده می کنند.

 خطر این است که کشورها، به‌ویژه رژیم‌های غیردموکراتیک، مسابقه‌ای را آغاز کنند و از ترکیب‌های مرگبارتری از ابزارها برای تأثیرات مخرب استفاده کنند.

 دولت‌ها می‌توانند بر روی پارامترهای اساسی – وام گرفتن از اصول هوش مصنوعی نظامی که ایالات متحده و سایر کشورها پیشنهاد کرده‌اند – به توافق برسند تا اطمینان حاصل کنند که استفاده از سلاح‌های هوش مصنوعی با قوانین بشردوستانه بین‌المللی مطابقت دارد و تدابیر امنیتی برای کاهش خطر تشدید غیرعمدی وجود دارد. و شکست های فاجعه بار

این اولین باری نیست که رهبران بین المللی با پتانسیل ویرانگر فناوری های جدید روبرو می شوند.

 همانطور که رهبران جهانی پس از جنگ جهانی دوم برای ایجاد حفاظ رفتار از طریق کنوانسیون ژنو به اجماع رسیدند، رهبران بین‌المللی نیز باید تلاش مشابهی را برای فناوری‌های هوش مصنوعی انجام دهند.

 لیبرال دموکراسی ها می توانند نقش بسیار بیشتری در تعیین هنجارها و شرایط پایه برای استقرار این فناوری های جدید قدرتمند جنگ ایفا کنند.

آیا می‌توان فن‌آوری‌های نظامی پیشرفته را قبل از دیر شدن رام کرد؟

مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است. مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است.
منبع
منبع
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا