انجیل “: اسرائیل چگونه از هوش مصنوعی برای انتخاب اهداف بمباران در غزه استفاده می کند؟

  1. گاردین در این تحلیل به چگونگی استفاده اسرائیل از هوش مصنوعی در جنگ را مورد واکاوی قرار داده‌است.
  2. تحلیلگر این گزارش اشاره می‌کند که ارتش اسرائیل در ابتدای جنگ غزه توجه ویژه ای به استفاده از هوش مصنوعی برای انتخاب مناطقی که بمباران می‌کرده نداشته است.
  3. تحلیلگر گاردین با اشاره به ادعای ادعای اسرائیل در مه 2021 مبنی بر اینکه می تواند برای اولین بار با هوش مصنوعی بجگند، شرایط فعلی را بهترین فرصت برای اثبات ادعای آنها خواند.
  4. وی اضافه کرد: « یک پلتفرم خلق هدف هوش مصنوعی به نام “انجیل” وجود دارد که به طور قابل‌توجهی خط تولید اهداف مرگبارکه مقامات آن را با یک کارخانه مقایسه کرده‌اند، تسریع کرده است.»
  5. این تحلیلگر با اذعان به اینکه صحنه جنگ فرصت مناسبی برای تست و ارتقا سطح تکونولوژی ارتش‌هاست اضافه کرد: « تصویری که به آرامی در حال ظهور است حاکی از نحوه استفاده ارتش اسرائیل از هوش مصنوعی در برابر پس زمینه نگرانی های فزاینده در مورد خطرات ناشی از آسیب به غیرنظامیان را به وجود می‌آورد زیرا ارتش های پیشرفته در سراسر جهان استفاده از سیستم های خودکار پیچیده و غیر شفاف را در میدان جنگ گسترش می دهد.»
  6. یک مقام امنیتی سابق کاخ سفید که با استفاده ارتش آمریکا با سیستم های خودمختار آشنا است، گفت: «کشورهای دیگر در حال تماشا و یادگیری هستند.» به گفته آن ها، اگر ارتش رژیم از هوش مصنوعی به شیوه ای قابل توجه برای هدف قرار دادن انتخاب هایی با پیامدهای مرگ و زندگی استفاده کند، جنگ اسرائیل و حماس “لحظه مهمی خواهد بود “.
  7. یک بیانیه کوتاه در وب سایت ارتش رژیم ادعا کرد که از یک سیستم مبتنی بر هوش مصنوعی به نام “انجیل” در جنگ علیه حماس برای “تولید اهداف با سرعت بالا” استفاده می کند. انجیل “از طریق استخراج سریع و خودکار اطلاعات”، توصیه های هدف گیری را برای محققان خود “با هدف تطابق کامل بین توصیه دستگاه و شناسایی انجام شده توسط یک فرد” تولید می کند.
  8. در سال های اخیر، این بخش هدف به ارتش کمک کرده است تا یک پایگاه داده از آنچه منابع گفته اند بین ۳۰،۰۰۰ تا ۴۰،۰۰۰ ستیزه جوی مظنون است، بسازد. به گفته آن ها، سیستم هایی مانند انجیل نقش مهمی در ساخت فهرست افرادی که مجاز به ترور بودند، ایفا کرده بودند.
  9. به گفته کوچاوی، رئیس سابقارتش رژیم “زمانی که این ماشین در جنگ ۱۱ روزه اسرائیل با حماس در ماه مه ۲۰۲۱ فعال شد، روزانه ۱۰۰ هدف تولید می کرد”. اکنون این ماشین روزانه ۱۰۰ هدف را تولید می کند که ۵۰ درصد آن ها مورد حمله قرار می گیرند.”
  10. دقیقا مشخص نیست که چه نوع داده هایی وارد انجیل می شود اما کارشناسان می گویند سیستم های پشتیبانی تصمیم گیری مبتنی بر هوش مصنوعی برای هدف گیری معمولا مجموعه بزرگی از اطلاعات را از منابع مختلف مانند؛ تصاویر هواپیماهای بدون سرنشین، ارتباطات رهگیری شده، داده های نظارتی و اطلاعات حاصل از نظارت بر حرکات و الگوهای رفتاری افراد و گروه های بزرگ تجزیه و تحلیل می شوند.
  11. منابع آشنا با نحوه ادغام سیستم های مبتنی بر هوش مصنوعی در عملیات ارتش رژیم گفتند که چنین ابزارهایی به طور قابل توجهی به روند ایجاد هدف سرعت بخشیده اند.
  12. منبعی که قبلا در بخش هدف کار می کرد گفت: ” ما اهداف را به صورت خودکار آماده می کنیم و براساس یک چک لیست کار می کنیم. این واقعاً مانند یک کارخانه است.
  13. تحلیگر گاردین با مصاحبه و تحقیق ادعای رژیم مبنی بر اینکه این هوش مصنوعی قادر به تشخیص مناطق نظامی و غیرنظامی می باشد، را زیر سوال برده و اشاره می‌کند که: «براساس گفته یکی از فرماندهان مواردی وجود داشته است که در مورد یک هدف تردید وجود داشتیم و خیلی بیشتر از آنکه فکر می کردم غیرنظامیان را کشته ایم”.
  14. گاردین ضمن تصریح اینکه ارتش اسرائیل با این سیستم به ساخت یک “کارخانه ترور جمعی” دست زده گفت: «انجیل به ارتش اجازه داده است تا یک “کارخانه ترور جمعی” راه اندازی کند که در آن “تاکید بر کمیت است و نه بر کیفیت.» به عبارتی آنها با استفاده از هوش مصنوعی سرعت شناسایی مناطق و افراد و همچنین سرعت کشتار را چندین برابر کرده‌اند.

گاردین؛ ارتش اسرائیل شدت بمباران نوار غزه را پنهان نکرده است. در روزهای نخست حمله، رئیس نیروی هوایی این کشور از حملات هوایی “۲۴ ساعته” صحبت می کرد. او گفته بود که نیروهایش تنها به اهداف نظامی حمله می کنند. با این حال، توجه نسبتا کمی به روش های مورد استفاده توسط نیروهای دفاعی اسرائیل (IDF)برای انتخاب اهداف در غزه و نقش هوش مصنوعی در کمپین بمباران آن ها شده است.

در حالی که اسرائیل پس از هفت روز آتش بس حملات خود را ازسر می گیرد، نگرانی های فزاینده ای در مورد رویکرد هدف قرار دادن IDF در جنگی علیه حماس وجود دارد.  به گفته وزارت بهداشت در غزه تاکنون بیش از ۱۵ هزار نفر را در این منطقه کشته است.

IDF مدتهاست که شهرت خود را به دلیل مهارت فنی حفظ کرده است و پیش تر ادعاهای جسورانه اما غیرقابل تاییدی را در مورد بهره برداری از فن آوری‌های جدید مطرح کرده است. پس از جنگ ۱۱ روزه در غزه در ماه مه ۲۰۲۱، مقامات گفتند که اسرائیل با استفاده از یادگیری ماشین و محاسبات پیشرفته با “اولین جنگ هوش مصنوعی” خود مبارزه کرده است.

جنگ اخیر اسرائیل و حماس فرصت بی سابقه ای را برای IDF فراهم کرده است تا از چنین ابزارهایی در صحنه وسیع تری از عملیات استفاده کند و به طور خاص، یک پلتفرم خلق هدف هوش مصنوعی به نام “انجیل” وجود دارد  که به طور قابل‌توجهی خط تولید اهداف مرگبارکه مقامات آن را با یک کارخانه مقایسه کرده‌اند، تسریع کرده است.

گاردین می تواند با استفاده از مصاحبه با منابع اطلاعاتی و اظهارات کم تر مورد توجه IDF و مقامات بازنشسته، جزئیات جدیدی را درباره انجیل و نقش اصلی آن در جنگ اسرائیل در غزه فاش کند.

این مقاله همچنین از شهادت های منتشر شده توسط نشریه اسرائیلی – فلسطینی + ۹۷۲ Magazine و نشریه عبری زبان Local Call استفاده می کند که با چندین منبع فعلی و سابق در جامعه اطلاعاتی اسرائیل که از خط مشی انجیل اطلاع دارند، مصاحبه کرده اند.

نظرات آن ها نگاهی اجمالی به درون یک واحد اطلاعاتی نظامی محرمانه و مجهز به هوش مصنوعی است که نقش مهمی در واکنش اسرائیل به قتل عام حماس در جنوب اسرائیل در ۷ اکتبر ایفا می کند.
تصویری که به آرامی در حال ظهور است حاکی از نحوه استفاده ارتش اسرائیل از هوش مصنوعی در برابر پس زمینه نگرانی های فزاینده در مورد خطرات ناشی از آسیب به غیرنظامیان را به وجود می‌آورد   زیرا ارتش های پیشرفته در سراسر جهان استفاده از سیستم های خودکار پیچیده و غیر شفاف را در میدان جنگ گسترش می دهد.

یک مقام امنیتی سابق کاخ سفید که با استفاده ارتش آمریکا از سیستم های خودمختار آشنا است، گفت: کشورهای دیگر در حال تماشا و یادگیری هستند.”

به گفته آن ها، جنگ اسرائیل و حماس “لحظه مهمی خواهد بود اگر IDF از هوش مصنوعی به شیوه ای قابل توجه برای هدف قرار دادن انتخاب هایی با پیامدهای مرگ و زندگی استفاده کند”.

از ۵۰ هدف در سال تا ۱۰۰ هدف در روز

در اوایل نوامبر، IDF گفت که “بیش از ۱۲۰۰۰” هدف در غزه توسط بخش مدیریت هدف آن شناسایی شده است.

یک مقام مسئول در تشریح روند هدف گیری این واحد گفت: ” ما بدون مصالحه در تعریف اینکه دشمن چه کسی و چه چیزی است، کار می کنیم. عاملان حماس مصون نیستند – مهم نیست کجا پنهان می شوند.”

فعالیت های این بخش که در سال ۲۰۱۹ در اداره اطلاعات IDF شکل گرفت، طبقه بندی می شود. با این حال یک بیانیه کوتاه در وب سایت IDF ادعا کرد که از یک سیستم مبتنی بر هوش مصنوعی به نام “انجیل” در جنگ علیه حماس برای “تولید اهداف با سرعت بالا” استفاده می کند.

IDF گفت که “از طریق استخراج سریع و خودکار اطلاعات”، انجیل توصیه های هدف گیری را برای محققان خود “با هدف تطابق کامل بین توصیه دستگاه و شناسایی انجام شده توسط یک فرد” تولید می کند.

منابع متعدد آشنا با فرآیندهای هدف گیری IDF وجود انجیل به شماره ۹۷۲ / تماس محلی را تایید کردند و گفتند که از آن برای تولید توصیه های خودکار برای حمله به اهداف، مانند خانه های شخصی افراد مظنون به حماس یا فعالان جهاد اسلامی استفاده شده است.

در سال های اخیر، این بخش هدف به IDF کمک کرده است تا یک پایگاه داده از آنچه منابع گفته اند بین ۳۰،۰۰۰ تا ۴۰،۰۰۰ ستیزه جوی مظنون است، بسازد. به گفته آن ها، سیستم هایی مانند انجیل نقش مهمی در ساخت فهرست افرادی که مجاز به ترور بودند، ایفا کرده بودند.

آویو کوچاوی که تا ماه ژانویه به عنوان رئیس IDF خدمت می کرد، گفته است که بخش هدف “با قابلیت های هوش مصنوعی کار می کند” و شامل صدها افسر و سرباز است. او در مصاحبه ای که پیش از جنگ منتشر شد، گفت که “ماشینی است که حجم عظیمی از داده ها را موثرتر از هر انسانی تولید می کند و آن را به اهدافی برای حمله تبدیل می کند”.

به گفته کوچاوی، “زمانی که این ماشین در جنگ ۱۱ روزه اسرائیل با حماس در ماه مه ۲۰۲۱ فعال شد، روزانه ۱۰۰ هدف تولید می کرد”. اکنون این ماشین روزانه ۱۰۰ هدف را تولید می کند که ۵۰ درصد آن ها مورد حمله قرار می گیرند.”

دقیقا مشخص نیست که چه نوع داده هایی به انجیل وارد می شوند. اما کارشناسان می گویند سیستم های پشتیبانی تصمیم گیری مبتنی بر هوش مصنوعی برای هدف گیری معمولا مجموعه بزرگی از اطلاعات را از منابع مختلف مانند تصاویر هواپیماهای بدون سرنشین، ارتباطات رهگیری شده، داده های نظارتی و اطلاعات حاصل از نظارت بر حرکات و الگوهای رفتاری افراد و گروه های بزرگ تجزیه و تحلیل می کنند.

بخش هدف برای حل یک مشکل مزمن برای IDF ایجاد شد: در عملیات های قبلی در غزه، نیروی هوایی مکرراً اهدافی را برای حمله تمام کرد. از آنجا که مقامات ارشد حماس در آغاز هر حمله جدید در تونل ها ناپدید شدند، منابع گفتند، سیستم هایی مانند انجیل به IDF اجازه داد تا مجموعه بسیار بزرگتری از فعالان جوان تر را پیدا کرده و به آن ها حمله کند.

یکی از مقامات که بر روی هدف قرار دادن تصمیمات در عملیات های قبلی غزه کار می کرد، گفت که IDF قبلا خانه های اعضای جوان حماس را برای بمب گذاری هدف قرار نداده بود. آن ها گفتند که بر این باور هستند که این مساله برای درگیری های کنونی تغییر کرده است و خانه های عوامل حماس بدون توجه به رتبه هدف قرار گرفته اند.

این مقام به + ۹۷۲  تماس محلی گفت: ” این خانه های زیادی است.” اعضای حماس که واقعا معنایی ندارند در خانه های سراسر غزه زندگی می کنند. بنابراین خانه را علامت گذاری می کنند و خانه را بمباران می کنند و همه را آنجا می کشند.”

اهداف برای تعداد احتمالی تلفات غیرنظامیان “امتیاز” داده شده است

در بیانیه کوتاه IDF در مورد بخش هدف، یک مقام ارشد گفت که این واحد ” حملات دقیقی به زیرساخت های مرتبط با حماس انجام می دهد در حالی که آسیب زیادی به دشمن وارد می کند و کم ترین آسیب را به غیر رزمندگان وارد می کند.”

دقت حملات توصیه شده توسط “بانک هدف هوش مصنوعی” در گزارش های متعددی در رسانه های اسرائیلی مورد تاکید قرار گرفته است. روزنامه یدیعوت آحارونوت گزارش داد که این واحد “تا حد امکان اطمینان حاصل می کند که هیچ آسیبی به غیرنظامیان غیر درگیر وارد نخواهد شد”.

یک منبع ارشد سابق ارتش اسرائیل به گاردین گفت که نیروهای عملیاتی از یک اندازه گیری «بسیار دقیق» از میزان تخلیه غیرنظامیان یک ساختمان کمی قبل از حمله استفاده می کنند. ما از الگوریتمی برای ارزیابی تعداد غیرنظامیان باقی مانده استفاده می کنیم. به ما یک رنگ سبز، زرد، قرمز، مانند یک علامت راهنمایی و رانندگی می دهد

با این حال، کارشناسان هوش مصنوعی و درگیری های مسلحانه که با گاردین صحبت می کردند، گفتند که نسبت به اظهاراتی که سیستم های مبتنی بر هوش مصنوعی با تشویق به هدف گیری دقیق تر، آسیب غیرنظامیان را کاهش می دهند، تردید دارند.

وکیلی که به دولت ها در زمینه هوش مصنوعی و رعایت قوانین بشردوستانه مشاوره می دهد، گفت که “شواهد تجربی کمی” برای حمایت از چنین ادعاهایی وجود دارد. برخی دیگر به تاثیر مشهود بمباران اشاره کردند.

به چشم انداز فیزیکی غزه نگاه کنید،ریچارد مویز، پژوهشگری که ریاست ماده ۳۶ را بر عهده دارد، می گوید: گروهی که برای کاهش آسیب ناشی از سلاح فعالیت می کنند.

” ما شاهد مسطح شدن گسترده یک منطقه شهری با سلاح های انفجاری سنگین هستیم، بنابراین ادعای اینکه دقت و باریکی نیروی اعمال شده با حقایق همخوانی ندارد.”

براساس آمار منتشر شده توسط IDF در ماه نوامبر، در طول ۳۵ روز اول جنگ اسرائیل به ۱۵ هزار هدف در غزه حمله کرد، رقمی که به طور قابل توجهی بیشتر از عملیات های نظامی قبلی در مناطق پرجمعیت ساحلی است. در مقایسه، در جنگ ۲۰۱۴ که ۵۱ روز به طول انجامید، IDF بین ۵۰۰۰ تا ۶۰۰۰ هدف را مورد حمله قرار داد.

منابع متعدد به گاردین و + ۹۷۲ / تماس محلی گفتند که هنگامی که حمله به خانه های شخصی افراد شناسایی شده به عنوان فعالان حماس یا جهاد اسلامی مجاز شد، محققان هدف از قبل از تعداد غیرنظامیانی که انتظار می رفت کشته شوند اطلاع داشتند.

آن ها گفتند که هر هدف پرونده ای حاوی نمره خسارت جانبی داشت که تصریح می کرد چه تعداد غیرنظامی احتمالا در یک حمله کشته خواهند شد.

یکی از منابعی که تا سال ۲۰۲۱ برای برنامه ریزی اعتصاب برای IDF کار می کرد، گفت: “تصمیم اعتصاب توسط فرمانده واحد وظیفه گرفته شده است” که برخی از آن ها “خوشحال تر از بقیه بودند”.

این منبع گفت که مواردی وجود داشته است که “در مورد یک هدف تردید وجود داشته است” و “ما آنچه را که فکر می کردم مقدار نامتناسبی از غیرنظامیان بوده است را کشته ایم”.

سخنگوی ارتش اسرائیل گفت: ” در پاسخ به حملات وحشیانه حماس، IDF برای از بین بردن توانایی های نظامی و اداری حماس فعالیت می کند. در تضاد کامل با حملات عمدی حماس به مردان، زنان و کودکان اسرائیلی، IDF از قوانین بین المللی پیروی می کند و اقدامات احتیاطی عملی را برای کاهش آسیب غیرنظامیان انجام می دهد.”

کارخانه ترور جمعی “

منابع آشنا با نحوه ادغام سیستم های مبتنی بر هوش مصنوعی در عملیات IDF گفتند که چنین ابزارهایی به طور قابل توجهی  به روند ایجاد هدف سرعت بخشیده اند.

منبعی که قبلا در بخش هدف کار می کرد به + ۹۷۲ / Local Call گفت: ” ما اهداف را به صورت خودکار آماده می کنیم و براساس یک چک لیست کار می کنیم. این واقعاً مانند یک کارخانه است. ما به سرعت کار می کنیم و زمانی برای کاوش عمیق در هدف وجود ندارد. دیدگاه این است که ما بر اساس تعداد اهدافی که می‌توانیم ایجاد کنیم قضاوت می‌کنیم.

یک منبع جداگانه به این نشریه گفت که انجیل به IDF اجازه داده است تا یک “کارخانه ترور جمعی” راه اندازی کند که در آن “تاکید بر کمیت است و نه بر کیفیت”. آن ها گفتند که چشم انسان ” قبل از هر حمله از روی اهداف عبور خواهد کرد، اما نیازی نیست که زمان زیادی را صرف آن ها کند.”

برای برخی از کارشناسانی که در زمینه هوش مصنوعی و حقوق بشردوستانه بین المللی تحقیق می کنند، تسریع در این زمینه نگرانی هایی را به همراه دارد. دکتر مارتا بو، محقق موسسه تحقیقات صلح بین المللی استکهلم، گفت که حتی زمانی که “انسان ها در حلقه هستند” این خطر وجود دارد که “سوگیری اتوماسیون” و “وابستگی بیش از حد به سیستم هایی که تاثیر زیادی بر تصمیمات پیچیده انسانی دارند” را توسعه دهند.

مویس، از ماده ۳۶، گفت که هنگام تکیه بر ابزارهایی مانند انجیل، یک فرمانده “فهرستی از اهدافی را که یک کامپیوتر ایجاد کرده است، به دست می دهد” و آن ها “لزوما نمی دانند که این فهرست چگونه ایجاد شده است یا توانایی بازجویی مناسب و زیر سوال بردن توصیه های هدف گیری را دارند”.

وی افزود: ” این خطر وجود دارد که وقتی انسان ها به این سیستم ها تکیه می کنند، در یک فرآیند مکانیزه به دام بیفتند و توانایی در نظر گرفتن خطر آسیب غیرنظامیان را به شیوه ای معنادار از دست بدهند.”

 

https://www.theguardian.com/world/2023/dec/01/the-gospel-how-israel-uses-ai-to-select-bombing-targets

 

منبع: گاردین

ترجمه و تلخیص: دنیای تحلیل

دیدگاهتان را بنویسید