اینترنت اشیاتسلیحاتهوش مصنوعی

تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند

کلمات کلیدی: هوش مصنوعی، تسلیح سازی، سیستم های تسلیحاتی خودمختار، پروتکل ژنو، اصل تبعیض، نظریه های جنگ عادلانه، هک دشمن ، قانون هوش مصنوعی اروپا

پیامدهای یک سلاح بالقوه کار ما به عنوان دانشمندان، به ویژه در زمینه هوش مصنوعی، فراتر از آن چیزی است که برخی ممکن است فکر کنند.
پیامدهای یک سلاح بالقوه کار ما به عنوان دانشمندان، به ویژه در زمینه هوش مصنوعی، فراتر از آن چیزی است که برخی ممکن است فکر کنند.

در اول ماه مه 1915، کلارا هابر (فریدریش و هافمن، )، خواهرزاده ایمروار، خودکشی کرد.

 یک هفته قبل از مرگ همسرش، دانشمند آلمانی فریتز هابر، اولین حمله گاز کلر را در Ypres در بلژیک سازماندهی کرده بود که هدف آن شکستن بن بست نظامی به نفع آلمان بود.

 ده سال قبل از آن، در سال 1905، هابر به آنچه دیگر همسالان قبل از او بیهوده تلاش کرده بودند، دست یافت.

 هابر با استفاده از فشار بالا و یک کاتالیزور توانست یک واکنش مستقیم بین گاز نیتروژن و گاز هیدروژن برای ایجاد آمونیاک ایجاد کند.

 این فرآیند به عنوان یکی از مهم‌ترین پیشرفت‌های فن‌آوری قرن بیستم در نظر گرفته می‌شود، زیرا تولید انبوه کودهای کشاورزی را قادر ساخت که نیمی از پایه غذایی جهان را پشتیبانی می‌کنند و منجر به افزایش گسترده رشد محصولات برای مصرف انسان می‌شوند.

 در طول جنگ جهانی اول، هابر سلاح جدیدی به نام گاز سمی (که اولین آن گاز کلر بود) توسعه داد و بر استقرار اولیه آن در جبهه غربی در Ypres در بلژیک نظارت کرد و در نتیجه به «پدر جنگ شیمیایی» تبدیل شد (فیتزجرالد) که اعتقاد بر این است که در سال 1915 باعث خودکشی همسرش شد که خود شیمیدان بود.

 در سال 1918، هابر جایزه نوبل شیمی را به دلیل سنتز آمونیاک از عناصر آن دریافت کرد. در دنیای امروز، سلاح های شیمیایی به عنوان سلاح های کشتار جمعی تلقی می شوند و استفاده از آنها در درگیری های مسلحانه نقض قوانین بین المللی است.

 کنوانسیون سلاح های شیمیایی ( 2021 )، که توسط 145 کشور تصویب شده و از سال 1997 در حال اجرا است، تولید، ذخیره یا استفاده از مواد شیمیایی سمی را به عنوان سلاح جنگی به شدت ممنوع می کند.

 سلاح های شیمیایی سلاح های کشتار جمعی هستند و یک سیاست تحمل صفر برای آنها در سطح بین المللی در پروتکل ژنو سازمان ملل متحد تصریح شده است (دفتر سازمان ملل متحد برای امور خلع سلاح، 1925 ).

 با این حال، پیشرفت‌های علمی اخیر در زمینه‌های سنتز آلی و طراحی شیمیایی (لی و همکاران، دنگ و همکاران)، اکنون چالش‌هایی را برای این کنوانسیون‌ها ایجاد کرده و ممکن است ادامه اجرای آنها را در آینده به خطر بیندازند.

 علاوه بر این، پیشرفت تکنولوژی در زمینه هوش مصنوعی (AI) باعث پیدایش ماشین‌هایی شده است که توانایی گرفتن جان انسان‌ها را بدون کنترل انسان دارند، با امکان ترکیب نوآوری در طراحی شیمیایی با ربات هایی که توسط هوش مصنوعی کنترل می شوند.

 این امر تولید و استقرار نسل کاملاً جدیدی از تسلیحات خودمختار را تقویت کرده است که تهدیدی بی‌سابقه برای بشریت است که در حال حاضر هیچ چارچوب قانونی برای آن وجود ندارد .

 خطر ظهور اشکال بدیع سلاح های کشتار جمعی در شکلی کاملاً متفاوت، پیچیده تر و مخرب، اکنون واقعی شده است.

 سلاح‌های جدید کشتار جمعی با حداکثر خطر می‌توانند ازدحام پهپادها و سلاح‌های CBRN (شیمیایی، بیولوژیکی، رادیولوژیکی، هسته‌ای) مستقل باشند که شامل پهپادهای کوچک حشرات می‌شود که به دستگاه‌های غیرقابل تشخیصی تبدیل می‌شوند که قادر به مدیریت مواد بیوشیمیایی کشنده از طریق نیش خود هستند.

 علم و جامعه با چنین توسعه فناوری بی‌سابقه‌ای به چالش کشیده می‌شوند، زیرا تغییراتی را ایجاد می‌کند که در آن خطوط واضحی که علم بنیادی را از کاربرد، منافع از خطرات، و استقرار مسئولانه ناشی از سوء استفاده جدا می‌کند، دیگر نمی‌توان ترسیم کرد.

 برای علم و تحقیق در هوش مصنوعی، مشکل اصلی در اینجا، توسعه فنی مسئولانه است. سیستم‌های تسلیحاتی خودمختار (AWS) به‌عنوان سومین انقلاب در جنگ به عموم معرفی شده‌اند (گزارش‌های انجمن آمریکایی برای پیشرفت علم در واشنگتن دی سی، 2019 ).

 با این حال، پیامدهای این انقلاب برای بشریت، یا سؤالات اساسی آن در رابطه با توسعه فناوری مسئولانه در زمینه‌های هوش مصنوعی، روباتیک، هواپیماهای بدون سرنشین، یا وسایل نقلیه و جوخه‌های خودران، چندان در حوزه عمومی مورد بحث قرار نمی‌گیرد.

 اگرچه به طور سیستماتیک به استقرار AWS تعمیم داده نشده است، اما اصول طراحی، الگوریتم‌ها و فناوری تولید شده در هر یک از این زمینه‌ها در علم می‌تواند مستقیماً به یک راه‌حل جدید برای توسعه بیشتر AWS تبدیل شود.

 این موضوع یکی از مهم ترین مشکلات کنونی در علم و فناوری را به وجود آورده است. بینش اخلاقی و بحث مفید و ضروری است، اما بعید است که راه حل های فوری مورد نیاز برای به حداقل رساندن خطرات مرتبط را ایجاد کند.

 انواع مختلفی از سیستم های تسلیحاتی خودمختار (AWS) در حال حاضر وجود دارد، به عنوان مثال، در حال حاضر در حال توسعه و/یا در حال استفاده هستند.

 سطوح مختلف استقلال آنها در اینجا به اختصار خلاصه می شود. این با توضیح مختصری از معمای «عادلانه» در مقابل «جنگ‌های ناعادلانه» در اخلاق و در نهایت، خلاصه‌ای از خطرات سلاح‌های خودمختار برای نوع بشر و نیاز متعاقب آن به سیاست گذاری در سطح بین المللی

اولین نمونه از یک وسیله نقلیه خودمختار، The American Wonder بود که در سال 1925 توسعه یافت، که در خیابان های شهر نیویورک از راه دور توسط وسیله نقلیه دیگری کنترل می شد که به دنبال آن بود، یک نمایش اولیه از جوخه آتش.

به عنوان مثال، تشکیل هماهنگ وسایل نقلیه در حال حرکت در یک ناوگان تحت کنترل خودکار مشترک. از آن زمان، پیشرفت‌های فناوری، قابلیت‌هایی مانند کروز کنترل تطبیقی ​​و پیش‌بینی را همراه با رادار، LIDAR، دوربین‌های 360 درجه با وضوح بالا و در نهایت هوش مصنوعی را ممکن کرد.

 دانشمندان و کارشناسان شروع به بلند کردن صدای خود در برابر خطرات مرتبط با این پیشرفت‌های تکنولوژیکی و سلاح‌سازی آن‌ها برای نوع بشر کرده‌اند.

 سلاح‌های خودران مرگبار و AWS که در حال حاضر از هوش مصنوعی بهره‌برداری می‌کنند، در حال توسعه و/یا قبلاً به کار گرفته شده‌اند، شامل تفنگ‌های نگهبانی ثابت و ایستگاه‌های تسلیحاتی از راه دور که برای شلیک به سمت انسان‌ها و وسایل نقلیه برنامه‌ریزی شده‌اند، ربات‌های قاتل (که «ربات‌های سلاخی» نیز نامیده می‌شوند)، و پهپادها و ازدحام پهپادها هستند. با قابلیت هدف گیری مستقل

اسلحه های نگهبان ثابت ثابت

 دانشمندان و کارشناسان شروع به بلند کردن صدای خود در برابر خطرات مرتبط با این پیشرفت‌های تکنولوژیکی و سلاح‌سازی آن‌ها برای نوع بشر کرده‌اند.
 دانشمندان و کارشناسان شروع به بلند کردن صدای خود در برابر خطرات مرتبط با این پیشرفت‌های تکنولوژیکی و سلاح‌سازی آن‌ها برای نوع بشر کرده‌اند.

اسلحه نگهبانی یک سلاح از راه دور است که به طور خودکار به سمت اهدافی که توسط حسگرها شناسایی می شوند هدف گرفته و شلیک می شود.

 اولین اسلحه‌های نگهبانی نظامی، سلاح‌های دفاعی نزدیک به نقطه بودند که برای شناسایی و انهدام موشک‌های ورودی کوتاه برد و هواپیماهای دشمن استفاده می‌شدند.

 اینها ابتدا به طور انحصاری در کشتی ها مورد استفاده قرار می گرفتند، اما در حال حاضر به عنوان دفاع زمینی نیز استفاده می شوند.

 اولین در نوع خود که دارای یک سیستم یکپارچه شامل نظارت، ردیابی، شلیک و تشخیص صدا است، SGR-A1 است که به طور مشترک توسط هوافضای Hanwha و دانشگاه کره برای کمک به سربازان کره جنوبی در منطقه غیرنظامی کره در یک منطقه کاملا طبقه بندی شده توسعه یافته است.

تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند

ربات های قاتل خودمختار

ربات های قاتل خودمختار
ربات های قاتل خودمختار

روبات‌های قاتل یا «ربات‌های سلاخی»، سیستم‌های روباتیک مستقلی هستند که قادر به انتخاب و حمله به اهداف بدون دخالت اپراتور انسانی هستند.

 در حالی که در برخی از این سیستم‌ها، فرمان اولیه حمله توسط یک انسان داده می‌شود و سپس ربات دارای درجه‌ای از “انتخاب” مستقل برای عمل است، سیستم‌های دیگر بدون هیچ انسانی در حلقه در حال حاضر در چندین کشور آزمایش می‌شوند.

 در آنجا، تصمیم برای استقرار نیروی کشنده به یک ماشین واگذار می شود. چنین توسعه گسترده ای اساساً جنگ آینده را تغییر خواهد داد.

 عملکرد انتخاب خودکار و حمله به اهداف می تواند در پلت فرم های مختلف مانند تانک های جنگی، جت های جنگنده یا کشتی ها اعمال شود.

 اصطلاح دیگری که برای توصیف این سلاح ها استفاده می شود، سیستم های تسلیحات خودکار مرگبار (LAWS) است.

 علاوه بر این، هنگامی که به حسگرهای پیشرفته و هوش مصنوعی مجهز می‌شوند، سلاح‌های خودمختار می‌توانند برای عملیات در جوخه‌های هماهنگ برای غلبه بر مدافعان دشمن، در گروه‌های اقدام جنگ سطحی یا کشتی‌های جنگ الکترونیک، که همگی بدون سرنشین و به طور مستقل عمل می‌کنند، آموزش ببینند.

پهپادها و ازدحام های خودمختار

پهپادها و ازدحام های خودمختار
پهپادها و ازدحام های خودمختار

تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند

در اکتبر 2013، دفتر قابلیت های استراتژیک ایالات متحده 103 پهپاد پردیکس را راه اندازی کرد که با استفاده از “مغز توزیع شده” ارتباط برقرار می کردند تا در یک ساختار پیچیده جمع شوند، در یک میدان جنگ حرکت کنند، یا دوباره در یک ساختار جدید جمع شوند.

 این ازدحام توسط دانشجویان مهندسی MIT با استفاده از اجزای تجاری و طراحی موجود ایجاد شد. در تئوری، ازدحام پهپادها را می‌توان به ده‌ها هزار پهپاد برای ایجاد یک سلاح خودمختار شبیه به یک دستگاه هسته‌ای در مقیاس پایین تقسیم کرد.

 ازدحام پهپادهای مسلح و کاملاً خودمختار به سلاح‌های کشتار جمعی در آینده تبدیل می‌شوند، زیرا آنها دو ویژگی منحصر به فرد سلاح‌های کشتار جمعی سنتی را ترکیب می‌کنند: آسیب جمعی و عدم کنترل انسانی برای اطمینان از اینکه این سلاح‌ها به غیرنظامیان آسیب نمی‌رسانند.

 کارشناسان تردید دارند که هر سلاح خودگردانی بتواند به اندازه کافی بین اهداف غیرنظامی و نظامی تمایز قائل شود، و با وجود هزاران یا ده ها هزار پهپاد، این خطر غیرقابل قیاس می شود.

به طور خلاصه، AWS دستگاه‌های کشنده‌ای هستند که اهداف بالقوه دشمن را شناسایی می‌کنند و به طور مستقل حمله به آن اهداف را بر اساس الگوریتم‌ها و هوش مصنوعی انتخاب می‌کنند.

 AWS به غیر از اسلحه های نگهبانی ثابت نیاز به ادغام چندین عنصر اصلی دارد: یک پلت فرم جنگی متحرک، سنسورهای انواع مختلف برای بررسی دقیق محیط اطراف پلت فرم، یک سیستم پردازش برای طبقه بندی اشیاء کشف شده توسط سنسورها، و الگوریتم هایی که سیستم را وادار می کند تا زمانی که حمله را آغاز کند. هدف مجاز شناسایی می شود.

 وزارت دفاع ایالات متحده یک سیستم تسلیحاتی خودمختار را به عنوان “سیستم تسلیحاتی که پس از فعال شدن، می تواند اهداف را بدون مداخله بیشتر توسط اپراتور انسانی انتخاب کرده و درگیر کند” توصیف کرد.

 در حالی که در حال حاضر هیچ توافق بین المللی در مورد تعریف AWS وجود ندارد، آنها بر اساس سطح استقلال آنها از کنترل انسانی رتبه بندی شده اند.

 مفهوم استقلال در زمینه AWS ممکن است به عنوان توانایی سیستم برای اجرای یک کار یا مجموعه ای از عملیات بدون ورودی انسان از طریق عمل یا تعامل با محیط خود که توسط الگوریتم ها تعیین و کنترل می شود، تعریف شود.

 به نظر می رسد آنچه برای تعریف AWS اهمیت دارد، نوع تصمیم یا عملکردی است که با عدم کنترل یک اپراتور انسانی، مستقل می شود.

 تحت این فرض، سه سطح افزایش استقلال ممکن است برای AWS پیشنهاد شود:

  • سلاح خودمختار نظارت شده یا سیستم “انسان در حلقه”، یک سیستم تسلیحاتی خودمختار است که برای ارائه توانایی مداخله و پایان دادن به درگیری ها قبل از وقوع سطوح غیرقابل قبول آسیب، به اپراتورهای انسانی طراحی شده است. نمونه‌ها شامل سیستم‌های تسلیحاتی دفاعی است که برای حمله استفاده می‌شوند، که به طور مستقل اهداف را مطابق برنامه خود انتخاب و به آنها حمله می‌کنند در حالی که یک انسان نظارت کامل بر تمام عملیات‌ها را حفظ می‌کند و در صورت لزوم می‌تواند در یک بازه زمانی محدود سیستم را نادیده بگیرد.
  • سلاح نیمه خودمختار یا سیستم “انسان در حلقه”، پس از فعال شدن، تنها برای درگیری با اهداف فردی یا گروه های هدف خاصی است که توسط اپراتور انسانی انتخاب شده اند. به عنوان مثال می توان به مهمات خانگی اشاره کرد که پس از پرتاب به یک مکان هدف خاص، دسته های از پیش برنامه ریزی شده اهداف را در منطقه جستجو کرده و به آنها حمله می کنند.
  • سلاح کاملاً خودمختار یا سیستم “انسان خارج از حلقه”، پس از فعال شدن، می تواند اهداف را بدون مداخله بیشتر توسط اپراتور انسانی انتخاب کرده و درگیر کند. نمونه‌ها عبارتند از سلاح‌های «سرگردان» که پس از پرتاب، اهداف مورد نظر خود را در یک منطقه مشخص بدون دخالت بیشتر انسانی جستجو کرده و به آنها حمله می‌کنند، یا سیستم‌های تسلیحاتی که به طور مستقل از «پاره‌سازی» الکترونیکی برای مختل کردن ارتباطات استفاده می‌کنند.

برخی از عملکردهای حیاتی چنین سیستم‌های تسلیحاتی سال‌هاست که خودکار شده‌اند.

 یک سیستم تسلیحاتی برای خود مختار بودن لزوماً نیازی به پیچیدگی بالایی ندارد، که این امر توسط سیستم‌های سلاح ضد نفر موجود که حالت‌های مستقلی دارند، مانند تفنگ‌های نگهبانی، نشان داده می‌شود (نگاه کنید به اینجا در بالا).

 ادعا می‌شود که سیستم‌های تسلیحاتی خودمختار که امروزه مورد استفاده قرار می‌گیرند، خود مختار، نیمه خودمختار، یا بر اساس تعاریف ارائه‌شده در بالا نظارت می‌شوند، از چندین جنبه محدود هستند.

 اولاً، ادعا می‌شود که آنها در وظایفی که برای آنها به کار می‌روند محدود هستند، مثلاً با اقدامات دفاعی در برابر حملات موشکی، یا اقدامات تهاجمی علیه تأسیسات نظامی خاص مانند رادار.

 دوم، ادعا می شود که آنها در انواع اهدافی که مورد حمله قرار می دهند محدود هستند، که به جای غیرنظامیان به وسایل نقلیه یا اشیاء کاهش می یابد.

 سوم، ادعا می شود که آنها در محیط های نسبتاً ساده و قابل پیش بینی مانند در دریای آزاد یا در مناطق خشکی که از مناطق پرجمعیت دور هستند استفاده می شوند.

 با این حال، پتانسیل AWS برای تبدیل شدن به سلاح های کشتار جمعی واقعی است و دانشمندان، کارشناسان و روزنامه نگاران در سراسر جهان نگرانی خود را در مورد ماهیت اساساً غیراخلاقی توسعه و/یا استقرار AWS ابراز می کنند .

 از نقطه نظر اخلاقی، AWS در هر سطحی از خودمختاری واجد شرایط نیستند، زیرا همه آنها در ارضای اصل تبعیض مندرج در چارچوب اخلاق نظامی معاصر تحت فرض تئوری های جنگ عادلانه شکست می خورند.

سیستم‌های تسلیحاتی خودمختار سوالات و نگرانی‌های زیادی را ایجاد می‌کنند.

 پرداختن به آنها نیازمند تلاش پژوهشی چند رشته ای از یک سو و بحث های عمومی درباره مسئولیت اخلاقی و اخلاقی از سوی دیگر است.

 در حالی که استانداردهای اخلاقی برای تصمیم‌گیری تا حدی در رابطه با تحقیق و توسعه وسایل نقلیه خودران و هواپیماهای بدون سرنشین مورد مطالعه قرار می‌گیرند، این استانداردها هنوز به طور گسترده به AWS گسترش نیافته‌اند.

 در واقع، پیشنهاد استانداردهای اخلاقی برای قضاوت اخلاقی یا تصمیم گیری در مورد توسعه و/یا استقرار AWS مستلزم در نظر گرفتن قوانین اخلاقی جنگ است.

 در تاریخ فرهنگ ها و جامعه، آگوستین مقدس اولین فردی در مسیحیت بود که نظریه ای را در مورد جنگ و عدالت ارائه کرد که اصطلاحاً به آن نظریه جنگ عادلانه می گویند. او به کتاب مقدس اشاره کرد و ادعا کرد که برخی از جنگ ها برای مبارزه با شیطان ضروری است.

تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند

 سنت توماس آکویناس نظریه آگوستین را اصلاح کرد و معیارهای متعددی را برای یک جنگ عادلانه پیشنهاد کرد: این جنگ باید توسط یک مقام مشروع به راه انداخته شود، یک دلیل عادلانه داشته باشد، از نیات درست پیروی کند، احتمال موفقیت معقولی داشته باشد، کشورهای درگیر در جنگ باید از آن اجتناب کنند.

اقدام نظامی نامتناسب، فقط از مقدار نیروی کاملاً ضروری استفاده می کند و استفاده از زور باید بین شبه نظامیان و غیرنظامیان تمایز قائل شود. این اصل آخر، اصل تبعیض در اخلاق نظامی معاصر نامیده می شود.

 این برای اطمینان از این است که شهروندان بی گناه هدف جنگ قرار نگیرند و از کشتار غیرنظامیان به هر قیمتی جلوگیری شود.

 نظریه جنگ عادلانه در اخلاق معاصر بر اساس این اصول به عنوان مجموعه ای از قوانین برای نبرد نظامی است که در آن کنوانسیون ها قرار است به عنوان راهنمای عمل انسانی عمل کنند.

 در حالی که صلح‌طلبان آبی واقعی، جنگ را به هر شکلی غیراخلاقی رد می‌کنند، و در نتیجه به این نکته اشاره می‌کنند که تمام اعمال در داخل جنگ غیراخلاقی و غیرقابل توجیه هستند و نظامی‌گرایان واقعی بر این باورند که در جنگ «همه چیز عادلانه است»، نظریه‌پردازان جنگ عادلانه موضع عمل‌گرایانه‌ای اتخاذ می‌کنند که اگر جنگ شکسته شود.

به هر دلیلی، ملاحظات مربوط به توجیه آن ضروری است، و قوانین و رویه‌هایی باید دنبال شود تا اطمینان حاصل شود که پناهگاه‌های خاصی از پیامدهای وحشتناک جنگ حفظ و محافظت می‌شوند.

 نظریه جنگ عادلانه معاصر (برو و همکاران ) نتیجه می گیرد که استفاده از فناوری های خودمختار نه از نظر اخلاقی کاملاً قابل قبول است و نه از نظر اخلاقی غیرقابل قبول است .

 هر تکنولوژی جنگی بسته به شرایط می تواند عادلانه یا ناعادلانه باشد زیرا آنچه در جنگ قابل قبول است و نمی شود در نهایت یک قرارداد است .

 با این حال، در حالی که چنین نظریه‌هایی برگرفته از قراردادهای پیشنهادی سنت آگوستین و سنت توماس آکویناس در تلاش برای مقابله با فناوری‌های جدیدی مانند AWS هستند، اما در حد حدس و گمان باقی می‌مانند.

 همچنین اصول جنگ اخلاقی در نظریه جنگ عدالت «غیرقابل مذاکره» یعنی زمانی که یکی از این اصول توسط رویه نوعی از سلاح نقض شود، اصولاً بحث اخلاقی در مورد دومی حل می شود.

 ایراد اخلاقی اصلی علیه AWS این واقعیت است که، هر سطحی از استقلال آنها باشد، همه آنها از اصل تبعیض به این معنا که نمی توان اطمینان حاصل کرد که به غیرنظامیان آسیب نمی رساند، نادیده می گیرند.

 بنابراین، مورد AWS به قلمرو قوانین بین‌المللی و سیاست‌گذاری تعلق دارد و بر جامعه بین‌المللی است که مجموعه جدیدی از کنوانسیون‌ها را برای تنظیم استفاده از آنها از طریق قوانین و معاهدات بین‌المللی تنظیم کند.

 چنین فرآیندی می‌تواند توسط تئوری اخلاق برای روشن کردن مبانی اخلاقی برای کنترل AWS تحت پرتو حقوق فردی یا سایر زمینه‌های اخلاقی محکم، مطلع شود.

 با این حال، در حالی که تئوری اخلاقی ممکن است بر کنترل عملی این فناوری از طریق قوانین بین‌المللی تأثیر مثبت بگذارد، یک بحث اخلاقی به خودی خود نمی‌تواند مشکل بسیاری از تهدیدات AWS را برای نوع بشر حل کند.

 علاوه بر این تهدیدها، سیاره ما در حال اتمام منابع است. جنگ ها (به هر شکلی که ممکن است داشته باشند) گران هستند.

 دولت‌ها به‌جای هدر دادن منابع گرانبها برای انواع جدیدی از تسلیحات که فراتر از عدم رعایت اصل تبعیض، در جنبه‌های دیگر ناامن هستند، فوراً باید بر توسعه فناوری برای پایداری تمرکز کنند.

 چیزی به نام یک سیستم خودمختار که نتوان آن را هک کرد وجود ندارد و این خطر که بازیگران غیر دولتی کنترل AWS را از طریق هک متخاصم به دست گیرند، واقعی است.

 در زمینه‌هایی از رباتیک و هوش مصنوعی گرفته تا علوم مواد و زیستی، دهه‌های آینده می‌تواند نوآوری و پیشرفت علمی را به همراه داشته باشد که باید به ما در ترویج صلح، محافظت از سیاره‌مان و حل علل ریشه‌ای فقر و رنج در سراسر جهان کمک کند.

 با توانایی تعامل از طریق فضای مجازی برای انتشار و تبادل اطلاعات، و تقویت توسعه فناوری برای صلح و پایداری در دنیایی که به طور فزاینده شبکه‌ای می‌شود، این هدف به‌شدت توسط ناملایمات ناشی از منابع مختلف به خطر می‌افتد.

 در صورت وقوع جنگ، شکست AWS، صرف نظر از سطح استقلال آنها، در ارضای اصل تبعیض به عنوان یک تهدید بزرگ، با خطرات دیگری ترکیب می‌شود که منجر به منع توسعه و/یا استقرار AWS توسط قانون می‌شود.

 استقرار AWS می تواند برای انتساب اعمال خصمانه مشکلاتی ایجاد کند و منجر به تشدید ناخواسته درگیری ها شود.

 علاوه بر این، بازیگران غیردولتی مانند گروه‌های تروریستی و شبکه‌های جنایتکار بین‌المللی می‌توانند از طریق آنچه که هک دشمن نامیده می‌شود، از فناوری در خدمت برنامه‌های خود استفاده کنند یا خرابکاری کنند .

 این خطر واقعی است و مربوط به AWS با هر سطحی از خودمختاری است (به فصل 3 در اینجا بالا مراجعه کنید)، از جمله سیستم‌های “انسان روی حلقه” یا سیستم‌های خودمختار تحت نظارت، که می‌توانند به طور مستقل عمل کنند اما تحت نظارت هستند. نظارت بر انسانی که قرار است در صورت “مشکلی” مداخله کند.

در ساده‌ترین تعریف، هک دشمن ، اقدامی با هدف مخرب است که توسط شخص یا گروهی برای به خطر انداختن یک سیستم یا منابع سایبری مورد استفاده توسط آن سیستم انجام می‌شود. گزارش گروه وظیفه هیئت علمی دفاعی ایالات متحده در مورد سیستم های نظامی انعطاف پذیر و تهدیدات سایبری پیشرفته (وزارت دفاع ایالات متحده، 2012 ) منابع بالقوه حملات متخاصم ( دشمنان ) را به سه دسته عمده تقسیم می کند:

  1. دشمنانی که از ابزارهای خارج از قفسه استفاده می کنند که از آسیب پذیری های سیستم سوء استفاده می کنند.
  2. دشمنانی که منابع و قابلیت‌هایی برای کشف آسیب‌پذیری‌های جدید و نامشخص دارند.
  3. دشمنانی که می توانند میلیاردها دلار و زمان نامحدود برای توسعه ابزارهای جدید برای ایجاد آسیب پذیری های جدید سرمایه گذاری کنند.

تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند

ممکن است کسی نتواند میزان منابعی را که دشمنان دسته سه می‌توانند برای حملاتی که بر قابلیت‌های سایبری هر AWS استفاده می‌کنند، تصور کند.

 حملات هک دشمن می تواند هر سطحی از چنین سیستم هایی را هدف قرار دهد، از زیرساخت هایی که اطلاعات وضعیت را ثبت/اندازه گیری می کند تا الگوریتم ها و فرآیندهای حاکم بر سیستم های کنترل خودکار، خواه تحت نظارت اپراتورهای انسانی باشد یا خیر.

 دشمنان حساس به سیستم ممکن است برای خراب کردن اطلاعات وضعیت، قطع ارتباطات یا تغییر سیستم های کنترل خودکار AWS اقدام کنند.

 این می تواند پویایی و/یا ساختار کل شبکه فیزیکی آنها را تغییر دهد. سپس ممکن است دشمنان بتوانند به اطلاعات محلی و سراسری شبکه دسترسی پیدا کرده و آنها را خراب کنند و باعث ایجاد اختلالات محلی یا سراسر شبکه در شبکه فیزیکی شوند.

 نتایج هک دشمن می‌تواند انواع ناشناخته‌ای از انواع مختلف حمله را به یک سیستم AWS ایجاد کند که در بهترین حالت باعث خرابی سیستم می‌شود، یا سناریوهایی را ایجاد می‌کند که در آن سیستم برای انجام کاری که قرار نیست (یعنی کشتن غیرنظامیان) خراب شده است. ، مثلا).

تاریخ نمونه های بسیاری دارد که در آن پیشرفت علمی و نوآوری در ابتدا به نفع نوع بشر بود و سپس برای جنگ به کار رفت.

 بینش علمی در مورد اصلاح و سنتز بیولوژیکی که برای کمک به دانشمندان در درک بهتر بیماری طراحی شده است، می تواند برای افزایش قدرت عوامل عفونی استفاده شده توسط AWS مورد سوء استفاده قرار گیرد.

 علاوه بر این، چنین تسلیحاتی نگرانی های جدی در مورد سوء استفاده احتمالی آنها توسط بازیگران غیردولتی ایجاد می کند.

 فضای سایبری زیرساخت های حیاتی را برای AWS ارائه می دهد، اما مکان امنی نیست.

Tegmark در کتاب خود در سال 2017 در مورد پیامدهای جنگ توسط هوش مصنوعی و اینکه چگونه علم می تواند اطمینان حاصل کند که ما هوش مصنوعی را برای نوع بشر مفید نگه داریم، بحث کرد.

 با این حال، در این بین، تسلیحات هوش مصنوعی واقعی شده و AWS را تولید کرده است، که برخی از آنها بدون هیچ انسانی در حلقه کار می کنند، که می تواند عواقب ناخواسته، پیش بینی نشده و بی سابقه ای ویرانگر برای نوع بشر داشته باشد.

 اولین قدم برای محدود کردن تسلیحات هوش مصنوعی با توسعه یا استقرار سلاح‌های خودمختار مرگبار، افزایش آگاهی در حوزه عمومی است.

 جامعه علمی باید مسئولیت این فرآیند را بر عهده بگیرد. اشکال جدید جنگ توسط تسلیحات کنترل شده با هوش مصنوعی با پتانسیل برای کشتار جمعی، اثربخشی مداوم کنوانسیون های موجود مانند پروتکل ژنو را تهدید می کند.

 این یک معضل جدید ایجاد کرده است که تنها با قوانین بین المللی و سیاست گذاری نمی توان آن را با بحث اخلاقی حل کرد. یک استراتژی هوش مصنوعی اروپایی در یک کاغذ سفید توسط کمیسیون اروپا ( 2020) حک شده است). 

هدف این استراتژی تضمین این است که هوش مصنوعی انسان محور و قابل اعتماد است. چنین هدفی به رویکرد اروپایی به تعالی و اعتماد از طریق قوانین و اقدامات مشخص همانطور که در قانون هوش مصنوعی تصریح شده است، تبدیل می شود که در آن کمیسیون و کشورهای عضو اتحادیه اروپا بسته هوش مصنوعی خود را (با کشورهای عضو اتحادیه اروپا) با پیشنهادی برای قوانین نظارتی و هماهنگ ارائه می کنند.

هوش مصنوعی با ارزیابی تاثیر مرتبط قانون مقررات هوش مصنوعی کمیسیون اروپا (قانون هوش مصنوعی اروپا) اولین موردی است که تلاشی را برای یک چارچوب قانونی فراملی در مورد هوش مصنوعی پیشنهاد می کند.

 این برنامه کاربردهای هوش مصنوعی را به صورت دلخواه به سه دسته از یک هرم خطر اختصاص می دهد، با حفره ها و استثناهای فراوان.

 برنامه‌هایی که به صراحت در فهرست «خطر بالا» قرار نگرفته‌اند، از جمله سیستم‌های تسلیحاتی خودمختار، عمدتاً کنترل نشده‌اند.

 چنین کاستی هایی توانایی قانون را برای اطمینان از هوش مصنوعی به عنوان یک نیروی خوب در زندگی شهروندان محدود می کند.

 علاوه بر این، قانون از بسیاری جهات انعطاف ناپذیر است. به عنوان مثال، اگر چند سال دیگر از یک برنامه هوش مصنوعی غیرمجاز اما خطرناک در یک بخش غیرقابل پیش‌بینی مانند ارتش استفاده شود، قانون هیچ مکانیزمی برای برچسب زدن آن به عنوان «پرخطر» ارائه نمی‌کند.

 پس از اصلاحات و بحث‌های متعدد، کشورهای عضو اتحادیه اروپا و شورای اتحادیه اروپا در 6 دسامبر 2022 نسخه‌ای از قانون پیشنهادی اولیه هوش مصنوعی (AI) را تصویب کردند.

روند طولانی به رسمیت شناختن سیاست های بین المللی فراتر از اروپا. کنوانسیون ژنو از ضرورت ارتقای صلح و امنیت منطقه ای و بین المللی و رهایی جهان از آفت و بار سلاح های کشتار جمعی ناشی می شود.

 در حالی که نیاز به رویکردی جامع در قبال سلاح‌ها به شیوه‌ای متعادل و بدون تبعیض را به عنوان کمکی به صلح و امنیت بین‌المللی می‌داند، در حال حاضر هیچ سندی برای تصویب در مورد هوش مصنوعی برای نسل نوظهور سلاح‌های خودمختار و استقرار آنها در خدمت جنگ وجود ندارد.

تسلیحات هوش مصنوعی: آنچه مردم باید از آن آگاه باشند

مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است. مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است.
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا