• گاردین سال گذشته این گزارش را درباره استفاده رژیم از هوش مصنوعی در جنگ اسرائیل و غزه منشرکرده اما باتوجه به اینکه امکان دارد از این سیستم برای ترور فرماندهان و دانشمندان ایرانب هم استفاده کرده باشد، حائز اهمیت است.
• در جنگ غزه، ارتش اسرائیل از سیستم هوش مصنوعی پیشرفتهای به نام لاوندر برای شناسایی و هدفگیری سریع شبهنظامیان استفاده کرد. این سیستم مبتنی بر یادگیری ماشینی، قادر بود که میلیونها داده جمعآوری شده از منابع مختلف را تجزیه و تحلیل کند و فهرستی از اهداف بالقوه ایجاد کند که میتوانستند به گروههای مسلح مرتبط با حماس و جهاد اسلامی فلسطین (PIJ) مرتبط باشند. در اوج جنگ، لاوندر توانست ۳۷,۰۰۰ نفر را به عنوان اهداف احتمالی شناسایی کند.
• سیستم لاوندر از الگوریتمهای یادگیری ماشینی برای تحلیل دادهها شامل تصاویر ماهوارهای، اطلاعات نظارتی و مصاحبهها استفاده میکرد. ابتدا به شناسایی شبهنظامیان ارشد حماس میپرداخت، اما در طول جنگ، حتی افراد کماهمیتتر مانند پلیس و کارکنان دفاع مدنی هم هدف قرار میگرفتند.
• این سیستم به دلیل پردازش خودکار دادهها، قادر به شناسایی دهها هدف در روز با سرعت بالا بود. در این فرآیند، نقش انسان بیشتر محدود به تأیید نهایی اهداف بود، و ماشینها بیشتر از انسانها تصمیم میگرفتند.
• پس از حملات ۷ اکتبر، ارتش اسرائیل تصمیم گرفت که هر مرد فلسطینی که با حماس یا PIJ ارتباط داشت، هدف بالقوه محسوب شود. این تغییرات به افزایش تلفات غیرنظامیان منجر شد.
• استفاده از هوش مصنوعی باعث تسریع و دقت در عملیات شد، اما نگرانیهایی درباره اخلاقی بودن و قانونی بودن این شیوهها در حقوق بینالملل به وجود آورد.
گاردین؛ حملات هوایی ارتش اسرائیل در غزه از پایگاه دادهای مبتنی بر هوش مصنوعی استفاده کرد که قبلاً فاش نشده بود و در یکی از مراحل جنگ، ۳۷,۰۰۰ هدف احتمالی را بر اساس ارتباط ظاهری آنها با حماس شناسایی کرد، به گفته منابع اطلاعاتی که در جنگ مشارکت داشتند.
علاوه بر صحبت درباره استفاده از سیستم هوش مصنوعی به نام «لاوندر»، منابع اطلاعاتی ادعا میکنند که مقامات نظامی اسرائیل اجازه دادند که شمار زیادی از غیرنظامیان فلسطینی کشته شوند، به ویژه در اوایل هفتهها و ماههای درگیری.
گزارش صریح و بیسابقه آنها، نگاهی نادر به تجربیات دستاول مقامات اطلاعاتی اسرائیل میاندازد که از سیستمهای یادگیری ماشینی برای کمک به شناسایی اهداف در طول جنگ ششماهه استفاده کردهاند.
استفاده اسرائیل از سیستمهای قدرتمند هوش مصنوعی در جنگ علیه حماس وارد قلمروی ناشناختهای برای جنگ پیشرفته شده است، که سوالات قانونی و اخلاقی زیادی را مطرح کرده و رابطه بین پرسنل نظامی و ماشینها را دگرگون کرده است.
یکی از افسران اطلاعاتی که از سیستم لاوندر استفاده کرده بود، گفت: “این بیسابقه است، حداقل در حافظه من.” او افزود که آنها به “مکانیزم آماری” بیشتر از یک سرباز سوگوار اعتماد داشتند. “همهی کسانی که آنجا بودند، از جمله من، در روز ۷ اکتبر افرادی را از دست دادند. ماشین این کار را بهطور بیرحمانه انجام داد. و این کار را آسانتر کرد.”
یکی دیگر از کاربران سیستم لاوندر پرسید که آیا نقش انسانها در فرآیند انتخاب اهداف معنای خاصی داشت یا خیر. او گفت: “در این مرحله، من برای هر هدف ۲۰ ثانیه وقت میگذاشتم و هر روز دهها مورد را بررسی میکردم. هیچ ارزشی به عنوان انسان نداشتم، جز تأیید آن. این کار خیلی وقت را صرفهجویی کرد.”
شهادت شش افسر اطلاعاتی، که همگی در استفاده از سیستمهای هوش مصنوعی برای شناسایی اهداف حماس و جهاد اسلامی فلسطین (PIJ) در جنگ مشارکت داشتهاند، به خبرنگار یوال آبراهام داده شد که گزارشی را برای نشریه اسرائیلی-فلسطینی +972 Magazine و رسانه عبریزبان Local Call منتشر کرد.
گزارشهای آنها بهطور انحصاری پیش از انتشار با گاردین به اشتراک گذاشته شد. همه شش نفر گفتند که سیستم «لاوندر» نقش مرکزی در جنگ ایفا کرده است، با پردازش حجم زیادی از دادهها برای شناسایی سریع “عملیاتچیهای پایینرتبه” که باید هدف قرار میگرفتند. چهار نفر از منابع گفتند که در یکی از مراحل اولیه جنگ، سیستم لاوندر تا ۳۷,۰۰۰ مرد فلسطینی را که توسط سیستم هوش مصنوعی به حماس یا PIJ مرتبط شده بودند، فهرست کرده بود.
سیستم لاوندر توسط دوره اطلاعاتی نخبه ارتش اسرائیل، واحد ۸۲۰۰ توسعه یافته است، که معادل آژانس امنیت ملی ایالات متحده (NSA) یا GCHQ در بریتانیا است.
چند نفر از منابع توضیح دادند که برای برخی از دستههای اهداف، ارتش اسرائیل اجازههای پیشتصویبشدهای برای تعداد تخمینی غیرنظامیانی که میتوانند در حملات هوایی کشته شوند، قبل از مجوز دادن به حمله داشت.
دو منبع گفتند که در اوایل هفتههای جنگ، اجازه داشتند که در حملات هوایی علیه شبهنظامیان کمرتبه، ۱۵ یا ۲۰ غیرنظامی کشته شوند. حملات به این اهداف معمولاً با استفاده از مهمات هدایتنشده معروف به “بمبهای ساده” انجام میشد، که موجب تخریب کامل خانهها و کشته شدن تمامی ساکنان آنها میشد.
یکی از افسران اطلاعاتی گفت: «نمیخواهید بمبهای گرانقیمت را روی افراد بیاهمیت هدر بدهید – این برای کشور خیلی گران است و کمبود [این بمبها] وجود دارد.» یکی دیگر از آنها گفت که سوال اصلی که با آن روبرو بودند این بود که آیا “آسیب جانبی” به غیرنظامیان مجاز است تا حمله انجام شود یا نه.
او توضیح داد: «چون معمولاً حملات را با بمبهای ساده انجام میدادیم، و این به معنای ریختن کل خانه روی ساکنانش بود. اما حتی اگر یک حمله اجتناب شود، اهمیتی ندارد – شما فوراً به هدف بعدی میروید. به دلیل سیستم، هدفها هیچگاه تمام نمیشوند. ۳۶,۰۰۰ هدف دیگر در انتظار هستند.»
طبق گفته کارشناسان درگیری، اگر اسرائیل از بمبهای ساده برای صاف کردن خانههای هزاران فلسطینی استفاده کرده باشد که با کمک هوش مصنوعی به گروههای مسلح در غزه مرتبط بودند، این میتواند به توضیح تلفات شوکهکننده در جنگ کمک کند.
وزارت بهداشت در سرزمینهای تحت کنترل حماس میگوید که در شش ماه گذشته، ۳۳,۰۰۰ فلسطینی در این درگیری کشته شدهاند. دادههای سازمان ملل نشان میدهد که در تنها یک ماه اول جنگ، ۱,۳۴۰ خانواده دچار تلفات متعدد شدهاند، که ۳۱۲ خانواده بیش از ۱۰ نفر از اعضای خود را از دست دادهاند.
این قسمت از گزارش شامل شاهدی از افسران اطلاعاتی است که در استفاده از سیستم هوش مصنوعی لاوندر (Lavender) در جنگ غزه با اسرائیل همکاری کردهاند و نحوه تنظیم دسترسی آن را توضیح دادهاند. به گفته یکی از منابع، در اوج کارکرد این سیستم، لاوندر ۳۷,۰۰۰ نفر را بهعنوان هدفهای بالقوه انسانی شناسایی کرده است. اما این تعداد همواره تغییر میکند زیرا بسته به تعریف “عملیاتچی حماس”، دادهها ممکن است به سرعت تغییر کنند. این منابع همچنین اشاره کردهاند که در برخی مواقع، تعریف یک «عملیاتچی حماس» بهطور گستردهتر بود که در نتیجه، سیستم به شناسایی کارکنان دفاع مدنی، افسران پلیس و افراد مشابه پرداخت که حتی به گفته آنان «مناسب نبود که بمب بر روی آنها انداخته شود.»
سیاستهای جدید هدفگیری
پس از حمله ۷ اکتبر حماس به اسرائیل، که در آن تقریباً ۱,۲۰۰ اسرائیلی کشته شدند و ۲۴۰ نفر به گروگان گرفته شدند، ارتش اسرائیل تصمیم گرفت تا فلسطینیانی که با بخش نظامی حماس ارتباط دارند را بهعنوان هدفهای بالقوه تلقی کند، بدون توجه به رتبه یا اهمیت آنها. در این دوران، فرایندهای هدفگیری ارتش اسرائیل در اوج بمبارانها تسهیل شد. یکی از منابع گفته است که در این مرحله، یک سیاست کاملاً مجاز در مورد تلفات غیرنظامیان وجود داشت، بهگونهای که برخی افسران آن را به «یک عمل انتقامی» تعبیر کردهاند.
استفاده از AI برای شناسایی شبهنظامیان
همچنین در این گزارش آمده که هدفگذاری اهداف پایینرتبه حماس و جهاد اسلامی فلسطین (PIJ) بهویژه زمانی که تصور میشد که آنها در خانههایشان هستند، ترجیح داده میشد. یک منبع گفت: «ما علاقهمند به کشتن افراد حماس تنها زمانی که در یک ساختمان نظامی یا درگیر در فعالیتهای نظامی بودند، نبودیم. بمباران خانه یک خانواده بسیار راحتتر است. سیستم طوری طراحی شده که آنها را در این شرایط شناسایی کند.»
تلفات غیرنظامی و نظارت
این استراتژی خطر تلفات غیرنظامیان بیشتر را به همراه داشت و منابع گفتهاند که ارتش اسرائیل محدودیتهای از پیش مجاز برای تعداد غیرنظامیان که میتوانستند در حمله به یک شبهنظامی کشته شوند، تعیین کرده بود. به گفته منابع، این نسبتها با گذشت زمان تغییر میکرد و بسته به رده مقام هدف، متفاوت بود. بهعنوان مثال، برای حمله به یک مقام ارشد حماس، تا ۱۰۰ غیرنظامی قابل کشته شدن بود.
اظهارنظرهای کارشناسان حقوق بینالملل
متخصصان حقوق بشری و حقوق بینالملل که با گاردین صحبت کردند، نسبت به مجاز بودن چنین تلفات غیرنظامی بالا، بهویژه برای شبهنظامیان رده پایین، ابراز نگرانی کردهاند. به گفته یکی از کارشناسان، هیچگاه چنین نسبتی برای غیرنظامیان قابل قبول نبوده است. برخی دیگر تأکید کردند که هیچگاه نمیتوان یک عدد ثابت را برای هر دسته از اهداف مشخص کرد و این برای هر حمله باید بهطور فردی ارزیابی شود.
سوالات اخلاقی و قانونی
با وجود استراتژی بمباران اسرائیل، برخی از افسران اطلاعاتی اسرائیل بهطور خاص در حال بازنگری در رویکرد فرماندهان خود هستند. یکی از آنها گفته است که هیچکس به این فکر نکرد که پس از پایان جنگ چه اتفاقی خواهد افتاد و چگونه میتوان در غزه زندگی کرد. برخی دیگر اشاره کردهاند که پس از حملات ۷ اکتبر، جو در ارتش اسرائیل «دردناک و تلافیجویانه» شده بود و حس ناهمخوانی در بین افسران احساس میشد.
نتیجهگیری
این گزارش، که به طور خاص با استفاده از هوش مصنوعی و «لاوندر» در بمبارانها پرداخته، نگرانیهایی را در خصوص میزان تلفات انسانی، مسائل اخلاقی و نقض احتمالی قوانین بینالمللی مطرح میکند. بهویژه در مورد استفاده از این فناوریها برای شناسایی هدفها، که پرسشهای جدی دربارهی اصول تناسب، محافظت از غیرنظامیان و همچنین اثرات طولانیمدت آن بر منطقه ایجاد کرده است.