چگونه رژیم اسرائیل از هوش مصنوعی برای بمباران در غزه استفاده می کند
چگونه رژیم اسرائیل از هوش مصنوعی برای بمباران در غزه استفاده می کند – نگرانی در مورد “کارخانه کشتار” مبتنی بر داده که به طور قابل توجهی تعداد اهداف برای حملات در خاک فلسطین را افزایش می دهد.
به نوشته روزنامه گاردین ارتش اسرائیل شدت بمباران نوار غزه را پنهان نکرده است. در روزهای اولیه تهاجم، رئیس نیروی هوایی آن از حملات هوایی بی امان «شور ساعته» صحبت کرد.
او گفت که نیروهای او فقط به اهداف نظامی حمله می کردند، اما او اضافه کرد: “ما جراحی نمی کنیم.”
با این حال، توجه نسبتاً کمی به روشهای مورد استفاده توسط نیروهای دفاعی اسرائیل (IDF) برای انتخاب اهداف در غزه و نقش هوش مصنوعی در کمپین بمباران آنها شده است.
در حالی که اسرائیل حملات خود را پس از یک آتش بس هفت روزه از سر گرفته است، نگرانی های فزاینده ای در مورد رویکرد هدف گیری ارتش اسرائیل در جنگ علیه حماس وجود دارد که به گفته وزارت بهداشت در غزه تحت کنترل حماس، تاکنون بیش از 15000 نفر در این منطقه شهید شده اند. .
ارتش اسرائیل مدت هاست که شهرت خود را به دلیل مهارت فنی حفظ کرده است و قبلاً ادعاهای جسورانه اما غیرقابل تأیید در مورد استفاده از فناوری جدید داشته است.
پس از جنگ 11 روزه غزه در ماه مه 2021، مقامات گفتند که اسرائیل “اولین جنگ هوش مصنوعی” خود را با استفاده از یادگیری ماشینی و محاسبات پیشرفته انجام داده است.
آخرین جنگ رژیم و حماس فرصت بی سابقهای را برای ارتش اسرائیل فراهم کرده است تا از چنین ابزارهایی در صحنه عملیاتی بسیار گسترده تر و به ویژه برای استقرار یک پلتفرم ایجاد هدف هوش مصنوعی به نام «انجیل» استفاده کند، که به طور قابل توجهی سرعت مرگ آور را افزایش داده است. خط تولید اهدافی که مسئولان آن را با یک «کارخانه نسل کشی» مقایسه کرده اند.
گاردین می تواند با استفاده از مصاحبه با منابع اطلاعاتی و اظهارات کم توجه ارتش اسرائیل و مقامات بازنشسته، جزئیات جدیدی درباره انجیل و نقش مرکزی آن در جنگ اسرائیل در غزه فاش کند.
این مقاله همچنین بر اساس شهادتهای منتشر شده توسط نشریه اسرائیلی-فلسطینی +972 Magazine و رسانه عبری زبان Local Call است که با چندین منبع فعلی و سابق در جامعه اطلاعاتی اسرائیل که از پلتفرم انجیل اطلاع دارند، مصاحبه کرده است.
نظرات آنها نگاهی اجمالی به داخل یک واحد اطلاعات نظامی مخفی و با تسهیلات هوش مصنوعی دارد که نقش مهمی در واکنش اسرائیل به قتل عام حماس در جنوب اسرائیل در 7 اکتبر ایفا می کند.
تصویری که به آرامی در حال ظهور است از نحوه استفاده ارتش اسرائیل از هوش مصنوعی در برابر پس زمینه نگرانی های فزاینده در مورد خطرات ناشی از غیرنظامیان به وجود می آید زیرا ارتش های پیشرفته در سراسر جهان استفاده از سیستم های خودکار پیچیده و غیر شفاف را در میدان جنگ گسترش می دهند.
یکی از مقامات امنیتی سابق کاخ سفید که با استفاده ارتش ایالات متحده از سیستم های خودمختار آشناست، گفت: «ایالت های دیگر به تماشا و یادگیری خواهند پرداخت.
آنها گفتند که جنگ اسرائیل و حماس “لحظه مهمی خواهد بود اگر ارتش اسرائیل از هوش مصنوعی به طور قابل توجهی برای انتخاب هدف گیری با پیامدهای مرگ و زندگی استفاده کند”.
از 50 هدف در سال تا 100 هدف در روز
در اوایل نوامبر، ارتش اسرائیل اعلام کرد که “بیش از 12000” هدف در غزه توسط بخش مدیریت هدف آن شناسایی شده است.
یک مقام مسئول در تشریح روند هدف گیری این یگان گفت: «ما بدون مصالحه در تعیین اینکه دشمن کیست و چیست کار می کنیم.
عوامل حماس در امان نیستند – مهم نیست کجا پنهان شوند.
فعالیتهای این بخش که در سال 2019 در اداره اطلاعات ارتش اسرائیل تشکیل شد، طبقهبندی شده است.
با این حال، بیانیه کوتاهی در وبسایت ارتش اسرائیل مدعی شد که از یک سیستم مبتنی بر هوش مصنوعی به نام Habsora (انجیل به زبان انگلیسی) در جنگ علیه حماس برای «تولید اهداف با سرعت سریع» استفاده میکند.
ارتش اسرائیل گفت که «از طریق استخراج سریع و خودکار اطلاعات»، انجیل توصیههای هدفگیری را برای محققان خود «با هدف تطبیق کامل بین توصیههای دستگاه و شناسایی انجامشده توسط یک فرد» ارائه کرد.
منابع متعددی که با فرآیندهای هدفگیری ارتش اسرائیل آشنا هستند، وجود انجیل به +972/تماس محلی را تأیید کردند و گفتند که از آن برای تهیه توصیههای خودکار برای حمله به اهدافی مانند خانههای شخصی افراد مظنون به عضویت در حماس یا جهاد اسلامی استفاده شده است.
در سال های اخیر، لشکر هدف به ارتش اسرائیل کمک کرده است تا پایگاه داده ای از آنچه که منابع گفته اند بین 30000 تا 40000 شبه نظامی مظنون را تشکیل دهد، بسازد.
به گفته آنها، سیستم هایی مانند انجیل، نقش مهمی در تهیه لیست افراد مجاز برای ترور داشتند.
آویو کوچاوی که تا ژانویه به عنوان رئیس ارتش اسرائیل خدمت کرد، گفته است که لشکر هدف “با قابلیت های هوش مصنوعی” و شامل صدها افسر و سرباز است.
او در مصاحبهای که قبل از جنگ منتشر شد ، گفت: «ماشینی است که حجم وسیعی از دادهها را مؤثرتر از هر انسان دیگری تولید میکند و آنها را به اهدافی برای ترور تبدیل میکند».
به گفته کوچاوی، زمانی که این ماشین در جنگ 11 روزه اسرائیل با حماس در ماه می 2021 فعال شد، روزانه 100 هدف تولید می کرد.
برای در نظر گرفتن این موضوع، در گذشته ما سالانه 50 هدف در غزه تولید می کردیم.
اکنون این دستگاه روزانه 100 هدف تولید می کند که 50 درصد آنها مورد حمله قرار می گیرند.
دقیقاً مشخص نیست که چه اشکالی از داده ها در انجیل گنجانده شده است.
اما کارشناسان می گویند سیستم های پشتیبانی تصمیم مبتنی بر هوش مصنوعی برای هدف گیری معمولاً مجموعه های بزرگی از اطلاعات را از طیف وسیعی از منابع، مانند فیلم های پهپاد، ارتباطات رهگیری شده، داده های نظارتی و اطلاعات به دست آمده از نظارت بر حرکات و الگوهای رفتاری افراد و گروه های بزرگ تجزیه و تحلیل می کنند.
لشکر هدف برای رسیدگی به یک مشکل مزمن برای ارتش اسرائیل ایجاد شد: در عملیات های قبلی در غزه، نیروی هوایی مکرراً اهدافی را برای حمله تمام کرد.
منابع گفتند، از آنجایی که مقامات ارشد حماس در آغاز هر حمله جدید در تونل ها ناپدید شدند، سیستم ها یی مانند انجیل به ارتش اسرائیل اجازه دادند تا مجموعه بزرگتری از عملیات های کوچکتر را پیدا کرده و به آنها حمله کنند.
یکی از مقامات که در عملیات های قبلی غزه روی هدف گیری تصمیمات کار می کرد، گفت که ارتش اسرائیل قبلا خانه های اعضای کوچک حماس را برای بمباران هدف قرار نداده بود.
آنها گفتند که بر این باورند که برای درگیری کنونی تغییر کرده است و خانه های مظنونان عملیات حماس بدون در نظر گرفتن رتبه هدف قرار گرفته است.
این مقام به تماس محلی +972 گفت: «این خانههای زیادی است. «اعضای حماس که واقعاً هیچ معنایی ندارند در خانه های سراسر غزه زندگی می کنند. بنابراین خانه را علامت گذاری می کنند و خانه را بمباران می کنند و همه را در آنجا می کشند.»
چگونه رژیم اسرائیل از هوش مصنوعی برای بمباران در غزه استفاده می کند
اهداف برای تعداد احتمالی تلفات غیرنظامیان “امتیاز” داده شده است
در بیانیه کوتاه ارتش رژیم درباره لشکر هدف خود، یک مقام ارشد گفت که این یگان «حملات دقیقی را به زیر ساخت های مرتبط با حماس انجام می دهد در حالی که خسارت زیادی به دشمن وارد می کند و کمترین آسیب را به غیر نظامیان وارد می کند».
دقت حملات توصیه شده توسط “بانک هدف هوش مصنوعی” در گزارش های متعدد رسانه های اسرائیلی مورد تاکید قرار گرفته است.
روزنامه یدیعوت آحارونوت گزارش داد که این واحد “تا آنجا که ممکن است مطمئن می شود که آسیبی به غیر نظامیان غیر درگیر وارد نمی شود”. البته این روزنامه اشاره نکرده که چرا تعداد نزدیک به پنج هزار کودک و نوزاد کشته شده اند.
یک منبع ارشد سابق ارتش رژیم به گاردین گفت که نیروهای عملیاتی از یک اندازه گیری «بسیار دقیق» از میزان تخلیه غیر نظامیان یک ساختمان کمی قبل از حمله استفاده می کنند.
ما از الگوریتمی برای ارزیابی تعداد غیر نظامیان باقی مانده استفاده می کنیم. به ما یک رنگ سبز، زرد، قرمز، مانند یک علامت راهنمایی و رانندگی می دهد.
با این حال، کارشناسان هوش مصنوعی و درگیری های مسلحانه که با گاردین صحبت کردند، گفتند که نسبت به این ادعا که سیستم های مبتنی بر هوش مصنوعی با تشویق هدف گیری دقیقتر، آسیب غیرنظامی را کاهش می دهند، تردید دارند.
وکیلی که به دولت ها در مورد هوش مصنوعی و رعایت قوانین بشردوستانه مشاوره می دهد، گفت که “شواهد تجربی کمی” برای حمایت از چنین ادعاهایی وجود دارد. برخی دیگر به تأثیر قابل مشاهده بمباران اشاره کردند.
ریچارد مویز، محققی که سرپرستی ماده 36 را بر عهده دارد، گفت: «به چشم انداز فیزیکی غزه نگاه کنید.»
ما شاهد تسطیح گسترده یک منطقه شهری با تسلیحات انفجاری سنگین هستیم، بنابراین ادعای اینکه دقت و محدودیت نیرویی اعمال میشود، با واقعیت قابل اثبات نیست.»
بر اساس آمار منتشر شده توسط ارتش اسرائیل در ماه نوامبر، اسرائیل در طول 35 روز اول جنگ به 15000 هدف در غزه حمله کرد، رقمی که به طور قابل توجهی بیشتر از عملیات نظامی قبلی در مناطق پرجمعیت ساحلی است.
در مقایسه، در جنگ سال 2014 که 51 روز به طول انجامید، ارتش اسرائیل بین 5000 تا 6000 هدف را هدف قرار داد.
چندین منبع به گاردین و تماس محلی +972 گفتند که وقتی اجازه حمله به خانههای شخصی افراد فعال حماس یا جهاد اسلامی صادر شد، محققان هدف از قبل از تعداد غیرنظامیانی که انتظار میرفت کشته شوند، اطلاع داشتند.
آنها گفتند که هر هدف دارای پرونده ای بود که حاوی امتیاز خسارت جانبی بود که تعداد غیرنظامیان احتمال کشته شدن در یک حمله را مشخص می کرد.
یکی از منابعی که تا سال 2021 روی برنامهریزی حملات برای ارتش اسرائیل کار میکرد، گفت: «تصمیم برای حمله توسط فرمانده یگان وظیفه گرفته میشود» که برخی از آنها «خوشحالتر از دیگران بودند».
این منبع گفت که مواردی وجود داشته است که “در مورد یک هدف تردید وجود داشت” و “ما آنچه را که فکر می کردم تعداد نامتناسبی از غیرنظامیان بود را کشتیم”.
یک سخنگوی ارتش اسرائیل گفت: «در پاسخ به حملات وحشیانه حماس، ارتش اسرائیل برای از بین بردن قابلیتهای نظامی و اداری حماس عمل میکند.
برخلاف حملات عمدی حماس به مردان، زنان و کودکان اسرائیلی، ارتش اسرائیل از قوانین بین المللی پیروی می کند و اقدامات احتیاطی ممکن را برای کاهش آسیب غیر نظامیان انجام می دهد.
چگونه رژیم اسرائیل از هوش مصنوعی برای بمباران در غزه استفاده می کند
کارخانه کشتار دسته جمعی
منابع آشنا با نحوه ادغام سیستم های مبتنی بر هوش مصنوعی در عملیات ارتش اسرائیل گفتند که چنین ابزارهایی به طور قابل توجهی روند ایجاد هدف را سرعت بخشیده اند.
منبعی که قبلاً در بخش هدف کار می کرد به +972/Local Call گفت: “ما اهداف را به طور خودکار آماده می کنیم و طبق یک چک لیست کار می کنیم.” «این واقعاً مانند یک کارخانه است.
ما به سرعت کار می کنیم و زمانی برای کاوش عمیق در هدف وجود ندارد. دیدگاه این است که ما بر اساس تعداد اهدافی که می توانیم ایجاد کنیم قضاوت می کنیم.»
یک منبع جداگانه به این نشریه گفت که انجیل به ارتش اسرائیل اجازه داده است تا یک “کارخانه ترور دسته جمعی” را راه اندازی کند که در آن “تاکید بر کمیت است نه بر کیفیت”.
آنها گفتند که یک چشم انسان “قبل از هر حمله از روی اهداف می گذرد، اما نیازی به صرف زمان زیادی برای آنها نیست”.
برای برخی از کارشناسانی که در زمینه هوش مصنوعی و حقوق بشردوستانه بینالمللی تحقیق میکنند، شتابی از این نوع نگرانیهایی را ایجاد میکند.
دکتر مارتا بو، محقق مؤسسه تحقیقات صلح بینالمللی استکهلم، گفت که حتی زمانی که «انسانها در جریان هستند» این خطر وجود دارد که «سوگیری اتوماسیون» ایجاد کنند و «بیش از حد به سیستمهایی تکیه کنند که تأثیر زیادی روی تصمیمات پیچیده انسانی».
مویس، از ماده 36، گفت که هنگام تکیه بر ابزارهایی مانند انجیل، به یک فرمانده “فهرستی از اهدافی که یک رایانه تولید کرده است به او تحویل داده می شود” و آنها “لزوما نمی دانند که لیست چگونه ایجاد شده است یا توانایی انجام آن را ندارند.” به اندازه کافی توصیههای هدفگیری را مورد بازجویی و زیر سوال بردن قرار دهید.»
او افزود: «این خطر وجود دارد که وقتی انسان ها به این سیستم ها تکیه می کنند، در یک فرآیند مکانیزه تبدیل به چرخ گوشت می شوند و توانایی در نظر گرفتن خطر آسیب غیرنظامی را به شیوه ای معنی دار از دست می دهند.»