تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند
تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند -پیشرفت تکنولوژی باعث پیدایش ماشینهایی شده است که بدون کنترل انسان میتوانند جان انسانها را بگیرند.اینها تهدیدی بی سابقه برای نوع بشر است.
این مقاله از مثالی از سلاحهای شیمیایی که اکنون در سراسر جهان توسط پروتکل ژنو ممنوع شدهاند شروع میشود تا نشان دهد که چگونه توسعه فناوری که در ابتدا به نفع نوع بشر بود، در نهایت چیزی را تولید کرد که اکنون «سلاحسازی هوش مصنوعی» (AI) نامیده میشود.
سیستمهای تسلیحاتی خودمختار (AWS) اصول به اصطلاح تبعیض را شکست میدهند، با این حال، عموم مردم تا حد زیادی از این مشکل بیاطلاع هستند.
با توجه به اینکه تحقیقات علمی در حال انجام در مورد AWS، که در بخش نظامی انجام میشود، عموماً در دسترس عموم قرار نمیگیرد، بسیاری از دیدگاههای مربوط به این موضوع، که در رسانههای مختلف بیان شدهاند، به جای شواهد علمی به عقل سلیم استناد میکنند.
با این حال، پیامدهای یک سلاح بالقوه کار ما به عنوان دانشمندان، به ویژه در زمینه هوش مصنوعی، فراتر از آن چیزی است که برخی ممکن است فکر کنند.
عواقب بالقوه استقرار AWS برای ذینفعان شهروند غیرقابل قیاس است، و زمان آن فرا رسیده است که آگاهی در حوزه عمومی در مورد نوع تهدیدات بالقوه شناسایی شده افزایش یابد و سیاست های قانونی تشویق شود تا اطمینان حاصل شود که این تهدیدات محقق نمی شوند.
کلمات کلیدی: هوش مصنوعی، تسلیح سازی، سیستم های تسلیحاتی خودمختار، پروتکل ژنو، اصل تبعیض، نظریه های جنگ عادلانه، هک دشمن ، قانون هوش مصنوعی اروپا
در اول ماه مه 1915، کلارا هابر (فریدریش و هافمن، )، خواهرزاده ایمروار، خودکشی کرد.
یک هفته قبل از مرگ همسرش، دانشمند آلمانی فریتز هابر، اولین حمله گاز کلر را در Ypres در بلژیک سازماندهی کرده بود که هدف آن شکستن بن بست نظامی به نفع آلمان بود.
ده سال قبل از آن، در سال 1905، هابر به آنچه دیگر همسالان قبل از او بیهوده تلاش کرده بودند، دست یافت.
هابر با استفاده از فشار بالا و یک کاتالیزور توانست یک واکنش مستقیم بین گاز نیتروژن و گاز هیدروژن برای ایجاد آمونیاک ایجاد کند.
این فرآیند به عنوان یکی از مهمترین پیشرفتهای فنآوری قرن بیستم در نظر گرفته میشود، زیرا تولید انبوه کودهای کشاورزی را قادر ساخت که نیمی از پایه غذایی جهان را پشتیبانی میکنند و منجر به افزایش گسترده رشد محصولات برای مصرف انسان میشوند.
در طول جنگ جهانی اول، هابر سلاح جدیدی به نام گاز سمی (که اولین آن گاز کلر بود) توسعه داد و بر استقرار اولیه آن در جبهه غربی در Ypres در بلژیک نظارت کرد و در نتیجه به «پدر جنگ شیمیایی» تبدیل شد (فیتزجرالد) که اعتقاد بر این است که در سال 1915 باعث خودکشی همسرش شد که خود شیمیدان بود.
در سال 1918، هابر جایزه نوبل شیمی را به دلیل سنتز آمونیاک از عناصر آن دریافت کرد. در دنیای امروز، سلاح های شیمیایی به عنوان سلاح های کشتار جمعی تلقی می شوند و استفاده از آنها در درگیری های مسلحانه نقض قوانین بین المللی است.
کنوانسیون سلاح های شیمیایی ( 2021 )، که توسط 145 کشور تصویب شده و از سال 1997 در حال اجرا است، تولید، ذخیره یا استفاده از مواد شیمیایی سمی را به عنوان سلاح جنگی به شدت ممنوع می کند.
سلاح های شیمیایی سلاح های کشتار جمعی هستند و یک سیاست تحمل صفر برای آنها در سطح بین المللی در پروتکل ژنو سازمان ملل متحد تصریح شده است (دفتر سازمان ملل متحد برای امور خلع سلاح، 1925 ).
با این حال، پیشرفتهای علمی اخیر در زمینههای سنتز آلی و طراحی شیمیایی (لی و همکاران، دنگ و همکاران)، اکنون چالشهایی را برای این کنوانسیونها ایجاد کرده و ممکن است ادامه اجرای آنها را در آینده به خطر بیندازند.
علاوه بر این، پیشرفت تکنولوژی در زمینه هوش مصنوعی (AI) باعث پیدایش ماشینهایی شده است که توانایی گرفتن جان انسانها را بدون کنترل انسان دارند، با امکان ترکیب نوآوری در طراحی شیمیایی با ربات هایی که توسط هوش مصنوعی کنترل می شوند.
این امر تولید و استقرار نسل کاملاً جدیدی از تسلیحات خودمختار را تقویت کرده است که تهدیدی بیسابقه برای بشریت است که در حال حاضر هیچ چارچوب قانونی برای آن وجود ندارد .
خطر ظهور اشکال بدیع سلاح های کشتار جمعی در شکلی کاملاً متفاوت، پیچیده تر و مخرب، اکنون واقعی شده است.
سلاحهای جدید کشتار جمعی با حداکثر خطر میتوانند ازدحام پهپادها و سلاحهای CBRN (شیمیایی، بیولوژیکی، رادیولوژیکی، هستهای) مستقل باشند که شامل پهپادهای کوچک حشرات میشود که به دستگاههای غیرقابل تشخیصی تبدیل میشوند که قادر به مدیریت مواد بیوشیمیایی کشنده از طریق نیش خود هستند.
علم و جامعه با چنین توسعه فناوری بیسابقهای به چالش کشیده میشوند، زیرا تغییراتی را ایجاد میکند که در آن خطوط واضحی که علم بنیادی را از کاربرد، منافع از خطرات، و استقرار مسئولانه ناشی از سوء استفاده جدا میکند، دیگر نمیتوان ترسیم کرد.
برای علم و تحقیق در هوش مصنوعی، مشکل اصلی در اینجا، توسعه فنی مسئولانه است. سیستمهای تسلیحاتی خودمختار (AWS) بهعنوان سومین انقلاب در جنگ به عموم معرفی شدهاند (گزارشهای انجمن آمریکایی برای پیشرفت علم در واشنگتن دی سی، 2019 ).
با این حال، پیامدهای این انقلاب برای بشریت، یا سؤالات اساسی آن در رابطه با توسعه فناوری مسئولانه در زمینههای هوش مصنوعی، روباتیک، هواپیماهای بدون سرنشین، یا وسایل نقلیه و جوخههای خودران، چندان در حوزه عمومی مورد بحث قرار نمیگیرد.
اگرچه به طور سیستماتیک به استقرار AWS تعمیم داده نشده است، اما اصول طراحی، الگوریتمها و فناوری تولید شده در هر یک از این زمینهها در علم میتواند مستقیماً به یک راهحل جدید برای توسعه بیشتر AWS تبدیل شود.
این موضوع یکی از مهم ترین مشکلات کنونی در علم و فناوری را به وجود آورده است. بینش اخلاقی و بحث مفید و ضروری است، اما بعید است که راه حل های فوری مورد نیاز برای به حداقل رساندن خطرات مرتبط را ایجاد کند.
انواع مختلفی از سیستم های تسلیحاتی خودمختار (AWS) در حال حاضر وجود دارد، به عنوان مثال، در حال حاضر در حال توسعه و/یا در حال استفاده هستند.
سطوح مختلف استقلال آنها در اینجا به اختصار خلاصه می شود. این با توضیح مختصری از معمای «عادلانه» در مقابل «جنگهای ناعادلانه» در اخلاق و در نهایت، خلاصهای از خطرات سلاحهای خودمختار برای نوع بشر و نیاز متعاقب آن به سیاست گذاری در سطح بین المللی
اولین نمونه از یک وسیله نقلیه خودمختار، The American Wonder بود که در سال 1925 توسعه یافت، که در خیابان های شهر نیویورک از راه دور توسط وسیله نقلیه دیگری کنترل می شد که به دنبال آن بود، یک نمایش اولیه از جوخه آتش.
به عنوان مثال، تشکیل هماهنگ وسایل نقلیه در حال حرکت در یک ناوگان تحت کنترل خودکار مشترک. از آن زمان، پیشرفتهای فناوری، قابلیتهایی مانند کروز کنترل تطبیقی و پیشبینی را همراه با رادار، LIDAR، دوربینهای 360 درجه با وضوح بالا و در نهایت هوش مصنوعی را ممکن کرد.
دانشمندان و کارشناسان شروع به بلند کردن صدای خود در برابر خطرات مرتبط با این پیشرفتهای تکنولوژیکی و سلاحسازی آنها برای نوع بشر کردهاند.
سلاحهای خودران مرگبار و AWS که در حال حاضر از هوش مصنوعی بهرهبرداری میکنند، در حال توسعه و/یا قبلاً به کار گرفته شدهاند، شامل تفنگهای نگهبانی ثابت و ایستگاههای تسلیحاتی از راه دور که برای شلیک به سمت انسانها و وسایل نقلیه برنامهریزی شدهاند، رباتهای قاتل (که «رباتهای سلاخی» نیز نامیده میشوند)، و پهپادها و ازدحام پهپادها هستند. با قابلیت هدف گیری مستقل
اسلحه های نگهبان ثابت ثابت
اسلحه نگهبانی یک سلاح از راه دور است که به طور خودکار به سمت اهدافی که توسط حسگرها شناسایی می شوند هدف گرفته و شلیک می شود.
اولین اسلحههای نگهبانی نظامی، سلاحهای دفاعی نزدیک به نقطه بودند که برای شناسایی و انهدام موشکهای ورودی کوتاه برد و هواپیماهای دشمن استفاده میشدند.
اینها ابتدا به طور انحصاری در کشتی ها مورد استفاده قرار می گرفتند، اما در حال حاضر به عنوان دفاع زمینی نیز استفاده می شوند.
اولین در نوع خود که دارای یک سیستم یکپارچه شامل نظارت، ردیابی، شلیک و تشخیص صدا است، SGR-A1 است که به طور مشترک توسط هوافضای Hanwha و دانشگاه کره برای کمک به سربازان کره جنوبی در منطقه غیرنظامی کره در یک منطقه کاملا طبقه بندی شده توسعه یافته است.
تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند
ربات های قاتل خودمختار
روباتهای قاتل یا «رباتهای سلاخی»، سیستمهای روباتیک مستقلی هستند که قادر به انتخاب و حمله به اهداف بدون دخالت اپراتور انسانی هستند.
در حالی که در برخی از این سیستمها، فرمان اولیه حمله توسط یک انسان داده میشود و سپس ربات دارای درجهای از “انتخاب” مستقل برای عمل است، سیستمهای دیگر بدون هیچ انسانی در حلقه در حال حاضر در چندین کشور آزمایش میشوند.
در آنجا، تصمیم برای استقرار نیروی کشنده به یک ماشین واگذار می شود. چنین توسعه گسترده ای اساساً جنگ آینده را تغییر خواهد داد.
عملکرد انتخاب خودکار و حمله به اهداف می تواند در پلت فرم های مختلف مانند تانک های جنگی، جت های جنگنده یا کشتی ها اعمال شود.
اصطلاح دیگری که برای توصیف این سلاح ها استفاده می شود، سیستم های تسلیحات خودکار مرگبار (LAWS) است.
علاوه بر این، هنگامی که به حسگرهای پیشرفته و هوش مصنوعی مجهز میشوند، سلاحهای خودمختار میتوانند برای عملیات در جوخههای هماهنگ برای غلبه بر مدافعان دشمن، در گروههای اقدام جنگ سطحی یا کشتیهای جنگ الکترونیک، که همگی بدون سرنشین و به طور مستقل عمل میکنند، آموزش ببینند.
پهپادها و ازدحام های خودمختار
تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند
در اکتبر 2013، دفتر قابلیت های استراتژیک ایالات متحده 103 پهپاد پردیکس را راه اندازی کرد که با استفاده از “مغز توزیع شده” ارتباط برقرار می کردند تا در یک ساختار پیچیده جمع شوند، در یک میدان جنگ حرکت کنند، یا دوباره در یک ساختار جدید جمع شوند.
این ازدحام توسط دانشجویان مهندسی MIT با استفاده از اجزای تجاری و طراحی موجود ایجاد شد. در تئوری، ازدحام پهپادها را میتوان به دهها هزار پهپاد برای ایجاد یک سلاح خودمختار شبیه به یک دستگاه هستهای در مقیاس پایین تقسیم کرد.
ازدحام پهپادهای مسلح و کاملاً خودمختار به سلاحهای کشتار جمعی در آینده تبدیل میشوند، زیرا آنها دو ویژگی منحصر به فرد سلاحهای کشتار جمعی سنتی را ترکیب میکنند: آسیب جمعی و عدم کنترل انسانی برای اطمینان از اینکه این سلاحها به غیرنظامیان آسیب نمیرسانند.
کارشناسان تردید دارند که هر سلاح خودگردانی بتواند به اندازه کافی بین اهداف غیرنظامی و نظامی تمایز قائل شود، و با وجود هزاران یا ده ها هزار پهپاد، این خطر غیرقابل قیاس می شود.
به طور خلاصه، AWS دستگاههای کشندهای هستند که اهداف بالقوه دشمن را شناسایی میکنند و به طور مستقل حمله به آن اهداف را بر اساس الگوریتمها و هوش مصنوعی انتخاب میکنند.
AWS به غیر از اسلحه های نگهبانی ثابت نیاز به ادغام چندین عنصر اصلی دارد: یک پلت فرم جنگی متحرک، سنسورهای انواع مختلف برای بررسی دقیق محیط اطراف پلت فرم، یک سیستم پردازش برای طبقه بندی اشیاء کشف شده توسط سنسورها، و الگوریتم هایی که سیستم را وادار می کند تا زمانی که حمله را آغاز کند. هدف مجاز شناسایی می شود.
وزارت دفاع ایالات متحده یک سیستم تسلیحاتی خودمختار را به عنوان “سیستم تسلیحاتی که پس از فعال شدن، می تواند اهداف را بدون مداخله بیشتر توسط اپراتور انسانی انتخاب کرده و درگیر کند” توصیف کرد.
در حالی که در حال حاضر هیچ توافق بین المللی در مورد تعریف AWS وجود ندارد، آنها بر اساس سطح استقلال آنها از کنترل انسانی رتبه بندی شده اند.
مفهوم استقلال در زمینه AWS ممکن است به عنوان توانایی سیستم برای اجرای یک کار یا مجموعه ای از عملیات بدون ورودی انسان از طریق عمل یا تعامل با محیط خود که توسط الگوریتم ها تعیین و کنترل می شود، تعریف شود.
به نظر می رسد آنچه برای تعریف AWS اهمیت دارد، نوع تصمیم یا عملکردی است که با عدم کنترل یک اپراتور انسانی، مستقل می شود.
تحت این فرض، سه سطح افزایش استقلال ممکن است برای AWS پیشنهاد شود:
- سلاح خودمختار نظارت شده یا سیستم “انسان در حلقه”، یک سیستم تسلیحاتی خودمختار است که برای ارائه توانایی مداخله و پایان دادن به درگیری ها قبل از وقوع سطوح غیرقابل قبول آسیب، به اپراتورهای انسانی طراحی شده است. نمونهها شامل سیستمهای تسلیحاتی دفاعی است که برای حمله استفاده میشوند، که به طور مستقل اهداف را مطابق برنامه خود انتخاب و به آنها حمله میکنند در حالی که یک انسان نظارت کامل بر تمام عملیاتها را حفظ میکند و در صورت لزوم میتواند در یک بازه زمانی محدود سیستم را نادیده بگیرد.
- سلاح نیمه خودمختار یا سیستم “انسان در حلقه”، پس از فعال شدن، تنها برای درگیری با اهداف فردی یا گروه های هدف خاصی است که توسط اپراتور انسانی انتخاب شده اند. به عنوان مثال می توان به مهمات خانگی اشاره کرد که پس از پرتاب به یک مکان هدف خاص، دسته های از پیش برنامه ریزی شده اهداف را در منطقه جستجو کرده و به آنها حمله می کنند.
- سلاح کاملاً خودمختار یا سیستم “انسان خارج از حلقه”، پس از فعال شدن، می تواند اهداف را بدون مداخله بیشتر توسط اپراتور انسانی انتخاب کرده و درگیر کند. نمونهها عبارتند از سلاحهای «سرگردان» که پس از پرتاب، اهداف مورد نظر خود را در یک منطقه مشخص بدون دخالت بیشتر انسانی جستجو کرده و به آنها حمله میکنند، یا سیستمهای تسلیحاتی که به طور مستقل از «پارهسازی» الکترونیکی برای مختل کردن ارتباطات استفاده میکنند.
برخی از عملکردهای حیاتی چنین سیستمهای تسلیحاتی سالهاست که خودکار شدهاند.
یک سیستم تسلیحاتی برای خود مختار بودن لزوماً نیازی به پیچیدگی بالایی ندارد، که این امر توسط سیستمهای سلاح ضد نفر موجود که حالتهای مستقلی دارند، مانند تفنگهای نگهبانی، نشان داده میشود (نگاه کنید به اینجا در بالا).
ادعا میشود که سیستمهای تسلیحاتی خودمختار که امروزه مورد استفاده قرار میگیرند، خود مختار، نیمه خودمختار، یا بر اساس تعاریف ارائهشده در بالا نظارت میشوند، از چندین جنبه محدود هستند.
اولاً، ادعا میشود که آنها در وظایفی که برای آنها به کار میروند محدود هستند، مثلاً با اقدامات دفاعی در برابر حملات موشکی، یا اقدامات تهاجمی علیه تأسیسات نظامی خاص مانند رادار.
دوم، ادعا می شود که آنها در انواع اهدافی که مورد حمله قرار می دهند محدود هستند، که به جای غیرنظامیان به وسایل نقلیه یا اشیاء کاهش می یابد.
سوم، ادعا می شود که آنها در محیط های نسبتاً ساده و قابل پیش بینی مانند در دریای آزاد یا در مناطق خشکی که از مناطق پرجمعیت دور هستند استفاده می شوند.
با این حال، پتانسیل AWS برای تبدیل شدن به سلاح های کشتار جمعی واقعی است و دانشمندان، کارشناسان و روزنامه نگاران در سراسر جهان نگرانی خود را در مورد ماهیت اساساً غیراخلاقی توسعه و/یا استقرار AWS ابراز می کنند .
از نقطه نظر اخلاقی، AWS در هر سطحی از خودمختاری واجد شرایط نیستند، زیرا همه آنها در ارضای اصل تبعیض مندرج در چارچوب اخلاق نظامی معاصر تحت فرض تئوری های جنگ عادلانه شکست می خورند.
سیستمهای تسلیحاتی خودمختار سوالات و نگرانیهای زیادی را ایجاد میکنند.
پرداختن به آنها نیازمند تلاش پژوهشی چند رشته ای از یک سو و بحث های عمومی درباره مسئولیت اخلاقی و اخلاقی از سوی دیگر است.
در حالی که استانداردهای اخلاقی برای تصمیمگیری تا حدی در رابطه با تحقیق و توسعه وسایل نقلیه خودران و هواپیماهای بدون سرنشین مورد مطالعه قرار میگیرند، این استانداردها هنوز به طور گسترده به AWS گسترش نیافتهاند.
در واقع، پیشنهاد استانداردهای اخلاقی برای قضاوت اخلاقی یا تصمیم گیری در مورد توسعه و/یا استقرار AWS مستلزم در نظر گرفتن قوانین اخلاقی جنگ است.
در تاریخ فرهنگ ها و جامعه، آگوستین مقدس اولین فردی در مسیحیت بود که نظریه ای را در مورد جنگ و عدالت ارائه کرد که اصطلاحاً به آن نظریه جنگ عادلانه می گویند. او به کتاب مقدس اشاره کرد و ادعا کرد که برخی از جنگ ها برای مبارزه با شیطان ضروری است.
تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند
سنت توماس آکویناس نظریه آگوستین را اصلاح کرد و معیارهای متعددی را برای یک جنگ عادلانه پیشنهاد کرد: این جنگ باید توسط یک مقام مشروع به راه انداخته شود، یک دلیل عادلانه داشته باشد، از نیات درست پیروی کند، احتمال موفقیت معقولی داشته باشد، کشورهای درگیر در جنگ باید از آن اجتناب کنند.
اقدام نظامی نامتناسب، فقط از مقدار نیروی کاملاً ضروری استفاده می کند و استفاده از زور باید بین شبه نظامیان و غیرنظامیان تمایز قائل شود. این اصل آخر، اصل تبعیض در اخلاق نظامی معاصر نامیده می شود.
این برای اطمینان از این است که شهروندان بی گناه هدف جنگ قرار نگیرند و از کشتار غیرنظامیان به هر قیمتی جلوگیری شود.
نظریه جنگ عادلانه در اخلاق معاصر بر اساس این اصول به عنوان مجموعه ای از قوانین برای نبرد نظامی است که در آن کنوانسیون ها قرار است به عنوان راهنمای عمل انسانی عمل کنند.
در حالی که صلحطلبان آبی واقعی، جنگ را به هر شکلی غیراخلاقی رد میکنند، و در نتیجه به این نکته اشاره میکنند که تمام اعمال در داخل جنگ غیراخلاقی و غیرقابل توجیه هستند و نظامیگرایان واقعی بر این باورند که در جنگ «همه چیز عادلانه است»، نظریهپردازان جنگ عادلانه موضع عملگرایانهای اتخاذ میکنند که اگر جنگ شکسته شود.
به هر دلیلی، ملاحظات مربوط به توجیه آن ضروری است، و قوانین و رویههایی باید دنبال شود تا اطمینان حاصل شود که پناهگاههای خاصی از پیامدهای وحشتناک جنگ حفظ و محافظت میشوند.
نظریه جنگ عادلانه معاصر (برو و همکاران ) نتیجه می گیرد که استفاده از فناوری های خودمختار نه از نظر اخلاقی کاملاً قابل قبول است و نه از نظر اخلاقی غیرقابل قبول است .
هر تکنولوژی جنگی بسته به شرایط می تواند عادلانه یا ناعادلانه باشد زیرا آنچه در جنگ قابل قبول است و نمی شود در نهایت یک قرارداد است .
با این حال، در حالی که چنین نظریههایی برگرفته از قراردادهای پیشنهادی سنت آگوستین و سنت توماس آکویناس در تلاش برای مقابله با فناوریهای جدیدی مانند AWS هستند، اما در حد حدس و گمان باقی میمانند.
همچنین اصول جنگ اخلاقی در نظریه جنگ عدالت «غیرقابل مذاکره» یعنی زمانی که یکی از این اصول توسط رویه نوعی از سلاح نقض شود، اصولاً بحث اخلاقی در مورد دومی حل می شود.
ایراد اخلاقی اصلی علیه AWS این واقعیت است که، هر سطحی از استقلال آنها باشد، همه آنها از اصل تبعیض به این معنا که نمی توان اطمینان حاصل کرد که به غیرنظامیان آسیب نمی رساند، نادیده می گیرند.
بنابراین، مورد AWS به قلمرو قوانین بینالمللی و سیاستگذاری تعلق دارد و بر جامعه بینالمللی است که مجموعه جدیدی از کنوانسیونها را برای تنظیم استفاده از آنها از طریق قوانین و معاهدات بینالمللی تنظیم کند.
چنین فرآیندی میتواند توسط تئوری اخلاق برای روشن کردن مبانی اخلاقی برای کنترل AWS تحت پرتو حقوق فردی یا سایر زمینههای اخلاقی محکم، مطلع شود.
با این حال، در حالی که تئوری اخلاقی ممکن است بر کنترل عملی این فناوری از طریق قوانین بینالمللی تأثیر مثبت بگذارد، یک بحث اخلاقی به خودی خود نمیتواند مشکل بسیاری از تهدیدات AWS را برای نوع بشر حل کند.
علاوه بر این تهدیدها، سیاره ما در حال اتمام منابع است. جنگ ها (به هر شکلی که ممکن است داشته باشند) گران هستند.
دولتها بهجای هدر دادن منابع گرانبها برای انواع جدیدی از تسلیحات که فراتر از عدم رعایت اصل تبعیض، در جنبههای دیگر ناامن هستند، فوراً باید بر توسعه فناوری برای پایداری تمرکز کنند.
چیزی به نام یک سیستم خودمختار که نتوان آن را هک کرد وجود ندارد و این خطر که بازیگران غیر دولتی کنترل AWS را از طریق هک متخاصم به دست گیرند، واقعی است.
در زمینههایی از رباتیک و هوش مصنوعی گرفته تا علوم مواد و زیستی، دهههای آینده میتواند نوآوری و پیشرفت علمی را به همراه داشته باشد که باید به ما در ترویج صلح، محافظت از سیارهمان و حل علل ریشهای فقر و رنج در سراسر جهان کمک کند.
با توانایی تعامل از طریق فضای مجازی برای انتشار و تبادل اطلاعات، و تقویت توسعه فناوری برای صلح و پایداری در دنیایی که به طور فزاینده شبکهای میشود، این هدف بهشدت توسط ناملایمات ناشی از منابع مختلف به خطر میافتد.
در صورت وقوع جنگ، شکست AWS، صرف نظر از سطح استقلال آنها، در ارضای اصل تبعیض به عنوان یک تهدید بزرگ، با خطرات دیگری ترکیب میشود که منجر به منع توسعه و/یا استقرار AWS توسط قانون میشود.
استقرار AWS می تواند برای انتساب اعمال خصمانه مشکلاتی ایجاد کند و منجر به تشدید ناخواسته درگیری ها شود.
علاوه بر این، بازیگران غیردولتی مانند گروههای تروریستی و شبکههای جنایتکار بینالمللی میتوانند از طریق آنچه که هک دشمن نامیده میشود، از فناوری در خدمت برنامههای خود استفاده کنند یا خرابکاری کنند .
این خطر واقعی است و مربوط به AWS با هر سطحی از خودمختاری است (به فصل 3 در اینجا بالا مراجعه کنید)، از جمله سیستمهای “انسان روی حلقه” یا سیستمهای خودمختار تحت نظارت، که میتوانند به طور مستقل عمل کنند اما تحت نظارت هستند. نظارت بر انسانی که قرار است در صورت “مشکلی” مداخله کند.
در سادهترین تعریف، هک دشمن ، اقدامی با هدف مخرب است که توسط شخص یا گروهی برای به خطر انداختن یک سیستم یا منابع سایبری مورد استفاده توسط آن سیستم انجام میشود. گزارش گروه وظیفه هیئت علمی دفاعی ایالات متحده در مورد سیستم های نظامی انعطاف پذیر و تهدیدات سایبری پیشرفته (وزارت دفاع ایالات متحده، 2012 ) منابع بالقوه حملات متخاصم ( دشمنان ) را به سه دسته عمده تقسیم می کند:
- دشمنانی که از ابزارهای خارج از قفسه استفاده می کنند که از آسیب پذیری های سیستم سوء استفاده می کنند.
- دشمنانی که منابع و قابلیتهایی برای کشف آسیبپذیریهای جدید و نامشخص دارند.
- دشمنانی که می توانند میلیاردها دلار و زمان نامحدود برای توسعه ابزارهای جدید برای ایجاد آسیب پذیری های جدید سرمایه گذاری کنند.
تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند
ممکن است کسی نتواند میزان منابعی را که دشمنان دسته سه میتوانند برای حملاتی که بر قابلیتهای سایبری هر AWS استفاده میکنند، تصور کند.
حملات هک دشمن می تواند هر سطحی از چنین سیستم هایی را هدف قرار دهد، از زیرساخت هایی که اطلاعات وضعیت را ثبت/اندازه گیری می کند تا الگوریتم ها و فرآیندهای حاکم بر سیستم های کنترل خودکار، خواه تحت نظارت اپراتورهای انسانی باشد یا خیر.
دشمنان حساس به سیستم ممکن است برای خراب کردن اطلاعات وضعیت، قطع ارتباطات یا تغییر سیستم های کنترل خودکار AWS اقدام کنند.
این می تواند پویایی و/یا ساختار کل شبکه فیزیکی آنها را تغییر دهد. سپس ممکن است دشمنان بتوانند به اطلاعات محلی و سراسری شبکه دسترسی پیدا کرده و آنها را خراب کنند و باعث ایجاد اختلالات محلی یا سراسر شبکه در شبکه فیزیکی شوند.
نتایج هک دشمن میتواند انواع ناشناختهای از انواع مختلف حمله را به یک سیستم AWS ایجاد کند که در بهترین حالت باعث خرابی سیستم میشود، یا سناریوهایی را ایجاد میکند که در آن سیستم برای انجام کاری که قرار نیست (یعنی کشتن غیرنظامیان) خراب شده است. ، مثلا).
تاریخ نمونه های بسیاری دارد که در آن پیشرفت علمی و نوآوری در ابتدا به نفع نوع بشر بود و سپس برای جنگ به کار رفت.
بینش علمی در مورد اصلاح و سنتز بیولوژیکی که برای کمک به دانشمندان در درک بهتر بیماری طراحی شده است، می تواند برای افزایش قدرت عوامل عفونی استفاده شده توسط AWS مورد سوء استفاده قرار گیرد.
علاوه بر این، چنین تسلیحاتی نگرانی های جدی در مورد سوء استفاده احتمالی آنها توسط بازیگران غیردولتی ایجاد می کند.
فضای سایبری زیرساخت های حیاتی را برای AWS ارائه می دهد، اما مکان امنی نیست.
Tegmark در کتاب خود در سال 2017 در مورد پیامدهای جنگ توسط هوش مصنوعی و اینکه چگونه علم می تواند اطمینان حاصل کند که ما هوش مصنوعی را برای نوع بشر مفید نگه داریم، بحث کرد.
با این حال، در این بین، تسلیحات هوش مصنوعی واقعی شده و AWS را تولید کرده است، که برخی از آنها بدون هیچ انسانی در حلقه کار می کنند، که می تواند عواقب ناخواسته، پیش بینی نشده و بی سابقه ای ویرانگر برای نوع بشر داشته باشد.
اولین قدم برای محدود کردن تسلیحات هوش مصنوعی با توسعه یا استقرار سلاحهای خودمختار مرگبار، افزایش آگاهی در حوزه عمومی است.
جامعه علمی باید مسئولیت این فرآیند را بر عهده بگیرد. اشکال جدید جنگ توسط تسلیحات کنترل شده با هوش مصنوعی با پتانسیل برای کشتار جمعی، اثربخشی مداوم کنوانسیون های موجود مانند پروتکل ژنو را تهدید می کند.
این یک معضل جدید ایجاد کرده است که تنها با قوانین بین المللی و سیاست گذاری نمی توان آن را با بحث اخلاقی حل کرد. یک استراتژی هوش مصنوعی اروپایی در یک کاغذ سفید توسط کمیسیون اروپا ( 2020) حک شده است).
هدف این استراتژی تضمین این است که هوش مصنوعی انسان محور و قابل اعتماد است. چنین هدفی به رویکرد اروپایی به تعالی و اعتماد از طریق قوانین و اقدامات مشخص همانطور که در قانون هوش مصنوعی تصریح شده است، تبدیل می شود که در آن کمیسیون و کشورهای عضو اتحادیه اروپا بسته هوش مصنوعی خود را (با کشورهای عضو اتحادیه اروپا) با پیشنهادی برای قوانین نظارتی و هماهنگ ارائه می کنند.
هوش مصنوعی با ارزیابی تاثیر مرتبط قانون مقررات هوش مصنوعی کمیسیون اروپا (قانون هوش مصنوعی اروپا) اولین موردی است که تلاشی را برای یک چارچوب قانونی فراملی در مورد هوش مصنوعی پیشنهاد می کند.
این برنامه کاربردهای هوش مصنوعی را به صورت دلخواه به سه دسته از یک هرم خطر اختصاص می دهد، با حفره ها و استثناهای فراوان.
برنامههایی که به صراحت در فهرست «خطر بالا» قرار نگرفتهاند، از جمله سیستمهای تسلیحاتی خودمختار، عمدتاً کنترل نشدهاند.
چنین کاستی هایی توانایی قانون را برای اطمینان از هوش مصنوعی به عنوان یک نیروی خوب در زندگی شهروندان محدود می کند.
علاوه بر این، قانون از بسیاری جهات انعطاف ناپذیر است. به عنوان مثال، اگر چند سال دیگر از یک برنامه هوش مصنوعی غیرمجاز اما خطرناک در یک بخش غیرقابل پیشبینی مانند ارتش استفاده شود، قانون هیچ مکانیزمی برای برچسب زدن آن به عنوان «پرخطر» ارائه نمیکند.
پس از اصلاحات و بحثهای متعدد، کشورهای عضو اتحادیه اروپا و شورای اتحادیه اروپا در 6 دسامبر 2022 نسخهای از قانون پیشنهادی اولیه هوش مصنوعی (AI) را تصویب کردند.
روند طولانی به رسمیت شناختن سیاست های بین المللی فراتر از اروپا. کنوانسیون ژنو از ضرورت ارتقای صلح و امنیت منطقه ای و بین المللی و رهایی جهان از آفت و بار سلاح های کشتار جمعی ناشی می شود.
در حالی که نیاز به رویکردی جامع در قبال سلاحها به شیوهای متعادل و بدون تبعیض را به عنوان کمکی به صلح و امنیت بینالمللی میداند، در حال حاضر هیچ سندی برای تصویب در مورد هوش مصنوعی برای نسل نوظهور سلاحهای خودمختار و استقرار آنها در خدمت جنگ وجود ندارد.