روزنامهنگاری تحقیقاتی که در ماهآوریل توسط رسانههای اسرائیلی Local Call منتشر شد، نشان میدهد که ارتش اسرائیل یک برنامه ترور جمعی بیسابقهای را ایجاد کرده است که هدفگذاری الگوریتمی برای تحمل بالا مرگ و زخمی شدن ایجاد میکند.
اسرائیل سابقه طولانی در استفاده از کشتارهای هدفمند دارد. در طول سالهای خشونتآمیز انتفاضه دوم (۲۰۰۰-۲۰۰۵)، ترور به عنوان یک عمل نظامی نهادینه شد اما این عملیات نسبتاً نادر بود و اغلب شامل استفاده از مهمات یا حملات ویژهای بود که فقط مردم را در وسایل نقلیه هدف قرار میداد تا آسیب را به تماشاگران محدود کند. اما از زمان حمله حماس در 7 اکتبر ۲۰۲۳، ارتش اسرائیل تغییر کرده است. این روند قدیمی انتخاب دقیق هدف فرماندهان شبه نظامی را رد کرده و در عوض، بر پیشرفتهای مداوم در ابزارهای هوش مصنوعی (AI)، از جمله برای پیدا کردن اهداف، بنا شده است. سیستم جدید به طور خودکار مقدار زیادی از دادههای خام را بررسی میکند تا اهداف احتمالی را شناسایی کند و نام آنها را به تحلیلگران انسانی بدهد تا با آنچه که میخواهند انجام دهند. در بیشتر موارد، به نظر میرسد، آن تحلیلگران انسانی حمله هوایی را توصیه میکنند.
بر اساس تحقیقات مجله محلی کال و +۹۷۲، این روند جدید به این شکل عمل میکند: یک سیستم مبتنی بر هوش مصنوعی به نام لاوندر نام تقریباً هر فرد در غزه را ردیابی کرده است و طیف گستردهای از ورودیهای اطلاعاتی را ترکیب میکند. این به ارتش اسرائیل بستگی دارد که فرد مورد رصد را عضو گروههای مقاومت تشخیص دهد. پس از اینکه یک تحلیلگر انسانی حدود ۲۰ ثانیه برای بررسی آنها صرف کرد، اهدافی که این آستانه را برآورده کرده یا از آن فراتر رفتهاند به تیمهای عملیاتی منتقل میشوند.
سیستم دوم، به نام «پدر کجاست»، تعیین میکند که آیا اهداف در خانههایشان هستند یا نه. ارتش اسرائیل ترجیح میدهد اهداف را در خانههای خود هدف قرار دهد زیرا پیدا کردن آنها در آنجا بسیار آسانتر از زمانی است که آنها با ارتش اسرائیل در نبرد درگیر میشوند. خانوادهها و همسایگان این اعضای احتمالی حماس به عنوان آسیب جانبی ناچیز در نظر گرفته میشوند.
این برای کارشناسان حقوق بینالملل و اخلاق نظامی به دلیل نظریه اثر دوگانه مهم است، که اگر قانون مورد نظر به آسیبهای رخ داده بستگی نداشته باشد، آسیبهای قابل پیشبینی اما ناخواسته را مجاز میداند، مانند در مورد حمله هوایی علیه یک هدف قانونی که اتفاق میافتد، چه تماشاگران وجود داشته باشند یا نه. اما در مورد جنگ اسرائیل و حماس، اکثر وکلاً و اخلاقشناسان و ظاهراً برخی از افسران ارتش اسرائیل، این حملات را به عنوان عدم رعایت هر استاندارد منطقی تناسب در حالی که مفهوم تبعیض را فراتر از تفسیرهای منطقی گسترش میدهد، میبینند. محققان و متخصصان درباره «همکاری انسان و ماشین» به عنوان راهی برای مفهومسازی مرکزیت رو به رشد تعامل بین سیستمهای مبتنی بر هوش مصنوعی و اپراتورهای آنها در طول اقدامات نظامی بحث کردهاند.
استفاده اسرائیل از اسطوخودوس، پدر کجاست و دیگر سیستمهای هدفگیری الگوریتمی که قبلا آشکار شده بودند، مانند انجیل، نشان میدهد که چگونه همکاری انسان و ماشین میتواند به یک دستور العمل برای یک فاجعه استراتژیک و اخلاقی تبدیل شود.
سیاستهای اسرائیل، هنجارهای نوظهور استفاده مسئولانه از هوش مصنوعی را نقض میکند. آنها فضای عاطفی اضطراری و خشم را در داخل ارتش اسرائیل، وخامت نظم عملیاتی و آمادگی برای برون سپاری انطباق نظارتی به یک ماشین به نام کارایی ترکیب میکنند. این عوامل با هم نشان میدهند که چگونه یک سیستم الگوریتمی پتانسیل تبدیل شدن به یک «ماشین پاسخگویی» را دارد، که به ارتش اسرائیل اجازه میدهد تا هنجارهای نظامی را نه از طریق مجموعهای خاص از تصمیمات، بلکه با نسبت دادن سیستماتیک اقدامات جدید و بدون محدودیت به یک کامپیوتر به ظاهر عینی تغییر دهد.
رهبری سیاسی اسرائیل برای ارتش اسرائیل یک هدف غیرممکن یعنی نابودی کامل حماس را تعیین کرد. در آغاز جنگ، حماس حدود 30 تا 40 هزار جنگنده داشت. پس از نزدیک به دو دهه کنترل در نوار غزه، حماس در همه جا بود. در اکتبر 7، جنگجویان حماس تهدید وحشتناکی برای هر نیروی زمینی ارتش اسرائیل که وارد غزه میشود، ایجاد میکنند مگر اینکه تعداد آنها کاهش یابد و گردانهای آنها پراکنده یا تحت فشار قرار گیرند.
این واقعیت که لاوندر میتواند یک لیست تقریبا بیپایان از اهداف را تولید کند، به ارتش اسرائیل وسیلهای آشکار برای پاکسازی راه برای عملیات زمینی نهایی داد. تقریبا نیمی از کشته شدگان فلسطینی در طول شش هفته اولیه در یک بمب گذاری سنگین کشته شدهاند. در این مورد، همکاری انسان و ماشین، یک راه حل تاکتیکی قابل تکرار برای یک مشکل استراتژیک را ایجاد کرد.
ارتش اسرائیل بر مانع اصلی این راه حل غلبه کرد. تعداد زیادی از غیرنظامیان بیگناه که به طور متراکم در قلمرو کوچک نوار غزه جمع شده بودند چون در مسیر هدف اصلی بودند، کشته شدند. در حملات علیه فرماندهان ارشد حماس، ارتش اسرائیل تصمیم گرفت که کشتن «صدها» تماشاگر برای هر فرمانده کشته شده را مجاز بداند. برای جنگجویان جوان حماس، این تعداد پذیرفته شده از 15 تماشاگر شروع شد اما در مراحل مختلف جنگ کمی پایین و بالا رفت.
علاوه بر این، از آنجا که اهداف اغلب در خانههایی که تعداد ناشناختهای از مردم در آن پناه میگرفتند، هدف قرار میگرفتند، کل خانوادهها از بین رفتند. این نابودیهای خانوادگی احتمالا با پیوستن خویشاوندان اضافی یا افراد غیر مرتبط به ساکنان اصلی برای پناه موقت افزایش یافته است. به نظر نمیرسد که پرسنل اطلاعاتی ارتش اسرائیل به طور معمول تلاش کردهاند این را کشف کنند و تصمیمات عملیاتی خود را مطابق با آن به روز کنند.
اگرچه اسرائیل، ارتش خود را مطابق نمونهای با هنجارهای لیبرال و غربی معرفی میکند اما شیوهای که ارتش اسرائیل از هوش مصنوعی در غزه استفاده کرده است، کاملا با همان هنجارها در تضاد است. در آموزه نظامی ایالات متحده، تمام حملات باید تلاش کنند تا مرگ و میر تماشاگران را زیر «ارزش قطع تلفات غیر جنگی» (ncv) تعیین شده نگه دارند.
تماس محلی و +972 نشان داد که در ترور فرمانده گردان حماس، ویسام فرحت، در طول جنگ فعلی اسرائیل و حماس، دارای یک NCV بیش از 100 نفر بود و ارتش اسرائیل پیشبینی کرد که این تعداد را خواهد کشت. ارتش اسرائیل منطق زمان جنگ را پذیرفته است، که با آن نرخ بالاتر «خطاها» را در ازای اثربخشی تاکتیکی در حالی که فرماندهان آن خواستار انتقام از حماس هستند، قبول میکند. در عملیاتهای متوالی در سالهای 2008، 2012 و 2014—که به طور مشهور توسط نخست وزیر سابق اسرائیل نفتالی بنت «چمن زدن» نامیده میشود، اسرائیل به طور دورهای مهمات غیر دقیق را به تعداد قابل توجهی بر روی ساختمانها و سیستمهای تونلی که هدف حماس محسوب میشوند، رها کرده است. تلفات جنگنده به غیر جنگنده در این جنگها بین 1 تا 1 و 1 تا 3 بود که معمولا برای جنگ فعلی تخمین زده میشود.
درسهای بزرگتری برای یادگیری وجود دارد. مهمترین این موارد این است که هوش مصنوعی نمیتواند از استفاده از سلاحها در برابر نیروی فرماندهان، اپراتورها یا هنجارهای نهادی یکدست، انتقام جویانه یا بیتوجهی محافظت کند. در واقع، میتواند به عنوان سپر یا توجیه برای آنها عمل کند. وسوسهانگیز است که بوروکراسیها، نظامی یا غیر نظامی، قضاوتهای دشوار را که در زمانهای دشوار انجام میشود به ماشینها واگذار کنند، بنابراین اجازه میدهد تصمیمات خطرناک یا بحث برانگیز توسط هیچ کس گرفته شود. نظارت قانونی، اخلاقی و انضباطی را نمیتوان به کامپیوترها واگذار کرد.چنین سیستمهایی به طور خاص ساخته شدهاند و مقامات باید به یاد داشته باشند که حتی در شرایط اضطراری، آنها باید با احتیاط در هنگام گسترش فرکانس یا دامنه یک ابزار کامپیوتری ادامه دهند. همانطور که فاجعه در غزه نشان میدهد، هزینههای استراتژیک و اخلاقی میتواند قابل توجه باشد.