ماشین این کار را بی‌رحمانه انجام داد”: اسرائیل از هوش مصنوعی برای شناسایی ۳۷,۰۰۰ هدف حماس استفاده کرد

• گاردین سال گذشته این گزارش را درباره استفاده رژیم از هوش مصنوعی در جنگ اسرائیل و غزه منشرکرده اما باتوجه به اینکه امکان دارد از این سیستم برای ترور فرماندهان و دانشمندان ایرانب هم استفاده کرده باشد، حائز اهمیت است.
• در جنگ غزه، ارتش اسرائیل از سیستم هوش مصنوعی پیشرفته‌ای به نام لاوندر برای شناسایی و هدف‌گیری سریع شبه‌نظامیان استفاده کرد. این سیستم مبتنی بر یادگیری ماشینی، قادر بود که میلیون‌ها داده جمع‌آوری شده از منابع مختلف را تجزیه و تحلیل کند و فهرستی از اهداف بالقوه ایجاد کند که می‌توانستند به گروه‌های مسلح مرتبط با حماس و جهاد اسلامی فلسطین (PIJ) مرتبط باشند. در اوج جنگ، لاوندر توانست ۳۷,۰۰۰ نفر را به عنوان اهداف احتمالی شناسایی کند.
• سیستم لاوندر از الگوریتم‌های یادگیری ماشینی برای تحلیل داده‌ها شامل تصاویر ماهواره‌ای، اطلاعات نظارتی و مصاحبه‌ها استفاده می‌کرد. ابتدا به شناسایی شبه‌نظامیان ارشد حماس می‌پرداخت، اما در طول جنگ، حتی افراد کم‌اهمیت‌تر مانند پلیس و کارکنان دفاع مدنی هم هدف قرار می‌گرفتند.
• این سیستم به دلیل پردازش خودکار داده‌ها، قادر به شناسایی ده‌ها هدف در روز با سرعت بالا بود. در این فرآیند، نقش انسان بیشتر محدود به تأیید نهایی اهداف بود، و ماشین‌ها بیشتر از انسان‌ها تصمیم می‌گرفتند.
• پس از حملات ۷ اکتبر، ارتش اسرائیل تصمیم گرفت که هر مرد فلسطینی که با حماس یا PIJ ارتباط داشت، هدف بالقوه محسوب شود. این تغییرات به افزایش تلفات غیرنظامیان منجر شد.
• استفاده از هوش مصنوعی باعث تسریع و دقت در عملیات شد، اما نگرانی‌هایی درباره اخلاقی بودن و قانونی بودن این شیوه‌ها در حقوق بین‌الملل به وجود آورد.

گاردین؛ حملات هوایی ارتش اسرائیل در غزه از پایگاه داده‌ای مبتنی بر هوش مصنوعی استفاده کرد که قبلاً فاش نشده بود و در یکی از مراحل جنگ، ۳۷,۰۰۰ هدف احتمالی را بر اساس ارتباط ظاهری آنها با حماس شناسایی کرد، به گفته منابع اطلاعاتی که در جنگ مشارکت داشتند.
علاوه بر صحبت درباره استفاده از سیستم هوش مصنوعی به نام «لاوندر»، منابع اطلاعاتی ادعا می‌کنند که مقامات نظامی اسرائیل اجازه دادند که شمار زیادی از غیرنظامیان فلسطینی کشته شوند، به ویژه در اوایل هفته‌ها و ماه‌های درگیری.
گزارش صریح و بی‌سابقه آنها، نگاهی نادر به تجربیات دست‌اول مقامات اطلاعاتی اسرائیل می‌اندازد که از سیستم‌های یادگیری ماشینی برای کمک به شناسایی اهداف در طول جنگ شش‌ماهه استفاده کرده‌اند.
استفاده اسرائیل از سیستم‌های قدرتمند هوش مصنوعی در جنگ علیه حماس وارد قلمروی ناشناخته‌ای برای جنگ پیشرفته شده است، که سوالات قانونی و اخلاقی زیادی را مطرح کرده و رابطه بین پرسنل نظامی و ماشین‌ها را دگرگون کرده است.
یکی از افسران اطلاعاتی که از سیستم لاوندر استفاده کرده بود، گفت: “این بی‌سابقه است، حداقل در حافظه من.” او افزود که آنها به “مکانیزم آماری” بیشتر از یک سرباز سوگوار اعتماد داشتند. “همه‌ی کسانی که آنجا بودند، از جمله من، در روز ۷ اکتبر افرادی را از دست دادند. ماشین این کار را به‌طور بی‌رحمانه انجام داد. و این کار را آسان‌تر کرد.”
یکی دیگر از کاربران سیستم لاوندر پرسید که آیا نقش انسان‌ها در فرآیند انتخاب اهداف معنای خاصی داشت یا خیر. او گفت: “در این مرحله، من برای هر هدف ۲۰ ثانیه وقت می‌گذاشتم و هر روز ده‌ها مورد را بررسی می‌کردم. هیچ ارزشی به عنوان انسان نداشتم، جز تأیید آن. این کار خیلی وقت را صرفه‌جویی کرد.”
شهادت شش افسر اطلاعاتی، که همگی در استفاده از سیستم‌های هوش مصنوعی برای شناسایی اهداف حماس و جهاد اسلامی فلسطین (PIJ) در جنگ مشارکت داشته‌اند، به خبرنگار یوال آبراهام داده شد که گزارشی را برای نشریه اسرائیلی-فلسطینی +972 Magazine و رسانه عبری‌زبان Local Call منتشر کرد.
گزارش‌های آنها به‌طور انحصاری پیش از انتشار با گاردین به اشتراک گذاشته شد. همه شش نفر گفتند که سیستم «لاوندر» نقش مرکزی در جنگ ایفا کرده است، با پردازش حجم زیادی از داده‌ها برای شناسایی سریع “عملیات‌چی‌های پایین‌رتبه” که باید هدف قرار می‌گرفتند. چهار نفر از منابع گفتند که در یکی از مراحل اولیه جنگ، سیستم لاوندر تا ۳۷,۰۰۰ مرد فلسطینی را که توسط سیستم هوش مصنوعی به حماس یا PIJ مرتبط شده بودند، فهرست کرده بود.
سیستم لاوندر توسط دوره اطلاعاتی نخبه ارتش اسرائیل، واحد ۸۲۰۰ توسعه یافته است، که معادل آژانس امنیت ملی ایالات متحده (NSA) یا GCHQ در بریتانیا است.
چند نفر از منابع توضیح دادند که برای برخی از دسته‌های اهداف، ارتش اسرائیل اجازه‌های پیش‌تصویب‌شده‌ای برای تعداد تخمینی غیرنظامیانی که می‌توانند در حملات هوایی کشته شوند، قبل از مجوز دادن به حمله داشت.
دو منبع گفتند که در اوایل هفته‌های جنگ، اجازه داشتند که در حملات هوایی علیه شبه‌نظامیان کم‌رتبه، ۱۵ یا ۲۰ غیرنظامی کشته شوند. حملات به این اهداف معمولاً با استفاده از مهمات هدایت‌نشده معروف به “بمب‌های ساده” انجام می‌شد، که موجب تخریب کامل خانه‌ها و کشته شدن تمامی ساکنان آنها می‌شد.
یکی از افسران اطلاعاتی گفت: «نمی‌خواهید بمب‌های گران‌قیمت را روی افراد بی‌اهمیت هدر بدهید – این برای کشور خیلی گران است و کمبود [این بمب‌ها] وجود دارد.» یکی دیگر از آنها گفت که سوال اصلی که با آن روبرو بودند این بود که آیا “آسیب جانبی” به غیرنظامیان مجاز است تا حمله انجام شود یا نه.
او توضیح داد: «چون معمولاً حملات را با بمب‌های ساده انجام می‌دادیم، و این به معنای ریختن کل خانه روی ساکنانش بود. اما حتی اگر یک حمله اجتناب شود، اهمیتی ندارد – شما فوراً به هدف بعدی می‌روید. به دلیل سیستم، هدف‌ها هیچ‌گاه تمام نمی‌شوند. ۳۶,۰۰۰ هدف دیگر در انتظار هستند.»
طبق گفته کارشناسان درگیری، اگر اسرائیل از بمب‌های ساده برای صاف کردن خانه‌های هزاران فلسطینی استفاده کرده باشد که با کمک هوش مصنوعی به گروه‌های مسلح در غزه مرتبط بودند، این می‌تواند به توضیح تلفات شوکه‌کننده در جنگ کمک کند.
وزارت بهداشت در سرزمین‌های تحت کنترل حماس می‌گوید که در شش ماه گذشته، ۳۳,۰۰۰ فلسطینی در این درگیری کشته شده‌اند. داده‌های سازمان ملل نشان می‌دهد که در تنها یک ماه اول جنگ، ۱,۳۴۰ خانواده دچار تلفات متعدد شده‌اند، که ۳۱۲ خانواده بیش از ۱۰ نفر از اعضای خود را از دست داده‌اند.
این قسمت از گزارش شامل شاهدی از افسران اطلاعاتی است که در استفاده از سیستم هوش مصنوعی لاوندر (Lavender) در جنگ غزه با اسرائیل همکاری کرده‌اند و نحوه تنظیم دسترسی آن را توضیح داده‌اند. به گفته یکی از منابع، در اوج کارکرد این سیستم، لاوندر ۳۷,۰۰۰ نفر را به‌عنوان هدف‌های بالقوه انسانی شناسایی کرده است. اما این تعداد همواره تغییر می‌کند زیرا بسته به تعریف “عملیات‌چی حماس”، داده‌ها ممکن است به سرعت تغییر کنند. این منابع همچنین اشاره کرده‌اند که در برخی مواقع، تعریف یک «عملیات‌چی حماس» به‌طور گسترده‌تر بود که در نتیجه، سیستم به شناسایی کارکنان دفاع مدنی، افسران پلیس و افراد مشابه پرداخت که حتی به گفته آنان «مناسب نبود که بمب بر روی آنها انداخته شود.»
سیاست‌های جدید هدف‌گیری
پس از حمله ۷ اکتبر حماس به اسرائیل، که در آن تقریباً ۱,۲۰۰ اسرائیلی کشته شدند و ۲۴۰ نفر به گروگان گرفته شدند، ارتش اسرائیل تصمیم گرفت تا فلسطینیانی که با بخش نظامی حماس ارتباط دارند را به‌عنوان هدف‌های بالقوه تلقی کند، بدون توجه به رتبه یا اهمیت آنها. در این دوران، فرایندهای هدف‌گیری ارتش اسرائیل در اوج بمباران‌ها تسهیل شد. یکی از منابع گفته است که در این مرحله، یک سیاست کاملاً مجاز در مورد تلفات غیرنظامیان وجود داشت، به‌گونه‌ای که برخی افسران آن را به «یک عمل انتقامی» تعبیر کرده‌اند.
استفاده از AI برای شناسایی شبه‌نظامیان
همچنین در این گزارش آمده که هدف‌گذاری اهداف پایین‌رتبه حماس و جهاد اسلامی فلسطین (PIJ) به‌ویژه زمانی که تصور می‌شد که آنها در خانه‌هایشان هستند، ترجیح داده می‌شد. یک منبع گفت: «ما علاقه‌مند به کشتن افراد حماس تنها زمانی که در یک ساختمان نظامی یا درگیر در فعالیت‌های نظامی بودند، نبودیم. بمباران خانه یک خانواده بسیار راحت‌تر است. سیستم طوری طراحی شده که آنها را در این شرایط شناسایی کند.»
تلفات غیرنظامی و نظارت
این استراتژی خطر تلفات غیرنظامیان بیشتر را به همراه داشت و منابع گفته‌اند که ارتش اسرائیل محدودیت‌های از پیش مجاز برای تعداد غیرنظامیان که می‌توانستند در حمله به یک شبه‌نظامی کشته شوند، تعیین کرده بود. به گفته منابع، این نسبت‌ها با گذشت زمان تغییر می‌کرد و بسته به رده مقام هدف، متفاوت بود. به‌عنوان مثال، برای حمله به یک مقام ارشد حماس، تا ۱۰۰ غیرنظامی قابل کشته شدن بود.
اظهارنظرهای کارشناسان حقوق بین‌الملل
متخصصان حقوق بشری و حقوق بین‌الملل که با گاردین صحبت کردند، نسبت به مجاز بودن چنین تلفات غیرنظامی بالا، به‌ویژه برای شبه‌نظامیان رده پایین، ابراز نگرانی کرده‌اند. به گفته یکی از کارشناسان، هیچگاه چنین نسبتی برای غیرنظامیان قابل قبول نبوده است. برخی دیگر تأکید کردند که هیچ‌گاه نمی‌توان یک عدد ثابت را برای هر دسته از اهداف مشخص کرد و این برای هر حمله باید به‌طور فردی ارزیابی شود.
سوالات اخلاقی و قانونی
با وجود استراتژی بمباران اسرائیل، برخی از افسران اطلاعاتی اسرائیل به‌طور خاص در حال بازنگری در رویکرد فرماندهان خود هستند. یکی از آنها گفته است که هیچ‌کس به این فکر نکرد که پس از پایان جنگ چه اتفاقی خواهد افتاد و چگونه می‌توان در غزه زندگی کرد. برخی دیگر اشاره کرده‌اند که پس از حملات ۷ اکتبر، جو در ارتش اسرائیل «دردناک و تلافی‌جویانه» شده بود و حس ناهمخوانی در بین افسران احساس می‌شد.
نتیجه‌گیری
این گزارش، که به طور خاص با استفاده از هوش مصنوعی و «لاوندر» در بمباران‌ها پرداخته، نگرانی‌هایی را در خصوص میزان تلفات انسانی، مسائل اخلاقی و نقض احتمالی قوانین بین‌المللی مطرح می‌کند. به‌ویژه در مورد استفاده از این فناوری‌ها برای شناسایی هدف‌ها، که پرسش‌های جدی درباره‌ی اصول تناسب، محافظت از غیرنظامیان و همچنین اثرات طولانی‌مدت آن بر منطقه ایجاد کرده است.

دیدگاهتان را بنویسید