محیط شناسی روابط فرهنگی

کابوسی جدید: هوش مصنوعی است که تصمیم می‌گیرد چه کسی زنده بماند

شنبه ۱۴۰۳/۰۲/۲۲
نویسنده:

روزنامه‌نگاری تحقیقاتی که در ماه‌آوریل توسط رسانه‌های اسرائیلی Local Call  منتشر شد، نشان می‌دهد که ارتش اسرائیل یک برنامه ترور جمعی بی‌سابقه‌ای را ایجاد کرده است که هدف‌گذاری الگوریتمی برای تحمل بالا مرگ و زخمی شدن ایجاد می‌کند. اسرائیل سابقه طولانی در استفاده از کشتار‌های هدفمند دارد. در طول سال‌های…

منبع:

روزنامه‌نگاری تحقیقاتی که در ماه‌آوریل توسط رسانه‌های اسرائیلی Local Call  منتشر شد، نشان می‌دهد که ارتش اسرائیل یک برنامه ترور جمعی بی‌سابقه‌ای را ایجاد کرده است که هدف‌گذاری الگوریتمی برای تحمل بالا مرگ و زخمی شدن ایجاد می‌کند.

اسرائیل سابقه طولانی در استفاده از کشتار‌های هدفمند دارد. در طول سال‌های خشونت‌آمیز انتفاضه دوم (۲۰۰۰-۲۰۰۵)، ترور به عنوان یک عمل نظامی نهادینه شد اما این عملیات نسبتاً نادر بود و اغلب شامل استفاده از مهمات یا حملات ویژه‌ای بود که فقط مردم را در وسایل نقلیه هدف قرار می‌داد تا آسیب را به تماشاگران محدود کند. اما از زمان حمله حماس در 7 اکتبر  ۲۰۲۳، ارتش اسرائیل تغییر کرده است. این روند قدیمی انتخاب دقیق هدف فرماندهان شبه نظامی را رد کرده و در عوض، بر پیشرفت‌های مداوم در ابزار‌های هوش مصنوعی (AI)، از جمله برای پیدا کردن اهداف، بنا شده است. سیستم جدید به طور خودکار مقدار زیادی از داده‌های خام را بررسی می‌کند تا اهداف احتمالی را شناسایی کند و نام آن‌ها را به تحلیلگران انسانی بدهد تا با آنچه که می‌خواهند انجام دهند. در بیشتر موارد، به نظر می‌رسد، آن تحلیلگران انسانی حمله هوایی را توصیه می‌کنند.

بر اساس تحقیقات مجله محلی کال و +۹۷۲، این روند جدید به این شکل عمل می‌کند: یک سیستم مبتنی بر هوش مصنوعی به نام لاوندر نام تقریباً هر فرد در غزه را ردیابی کرده است و طیف گسترده‌ای از ورودی‌های اطلاعاتی را ترکیب می‌کند. این به ارتش اسرائیل بستگی دارد که فرد مورد رصد را عضو گروه‌های مقاومت تشخیص دهد. پس از اینکه یک تحلیلگر انسانی حدود ۲۰ ثانیه برای بررسی آن‌ها صرف کرد، اهدافی که این آستانه را برآورده کرده یا از آن فراتر رفته‌اند به تیم‌های عملیاتی منتقل می‌شوند.

سیستم دوم، به نام «پدر کجاست»، تعیین می‌کند که آیا اهداف در خانه‌هایشان هستند یا نه. ارتش اسرائیل ترجیح می‌دهد اهداف را در خانه‌های خود هدف قرار دهد زیرا پیدا کردن آن‌ها در آنجا بسیار آسان‌تر از زمانی است که آن‌ها با ارتش اسرائیل در نبرد درگیر می‌شوند. خانواده‌ها و همسایگان این اعضای احتمالی حماس به عنوان آسیب جانبی ناچیز در نظر گرفته می‌شوند.

این برای کارشناسان حقوق بین‌الملل و اخلاق نظامی به دلیل نظریه اثر دوگانه مهم است، که اگر قانون مورد نظر به آسیب‌های رخ داده بستگی نداشته باشد، آسیب‌های قابل پیش‌بینی اما ناخواسته را مجاز می‌داند، مانند در مورد حمله هوایی علیه یک هدف قانونی که اتفاق می‌افتد، چه تماشاگران وجود داشته باشند یا نه. اما در مورد جنگ اسرائیل و حماس، اکثر وکلاً و اخلاق‌شناسان و ظاهراً برخی از افسران ارتش اسرائیل، این حملات را به عنوان عدم رعایت هر استاندارد منطقی تناسب در حالی که مفهوم تبعیض را فراتر از تفسیر‌های منطقی گسترش می‌دهد، می‌بینند. محققان و متخصصان درباره «همکاری انسان و ماشین» به عنوان راهی برای مفهوم‌سازی مرکزیت رو به رشد تعامل بین سیستم‌های مبتنی بر هوش مصنوعی و اپراتور‌های آن‌ها در طول اقدامات نظامی بحث کرده‌اند.

استفاده اسرائیل از اسطوخودوس، پدر کجاست و دیگر سیستم‌های هدف‌گیری الگوریتمی که قبلا آشکار شده بودند، مانند انجیل، نشان می‌دهد که چگونه همکاری انسان و ماشین می‌تواند به یک دستور العمل برای یک فاجعه استراتژیک و اخلاقی تبدیل شود.

سیاست‌های اسرائیل، هنجارهای نوظهور استفاده مسئولانه از هوش مصنوعی را نقض می‌کند. آن‌ها فضای عاطفی اضطراری و خشم را در داخل ارتش اسرائیل، وخامت نظم عملیاتی و آمادگی برای برون سپاری انطباق نظارتی به یک ماشین به نام کارایی ترکیب می‌کنند. این عوامل با هم نشان می‌دهند که چگونه یک سیستم الگوریتمی پتانسیل تبدیل شدن به یک «ماشین پاسخگویی» را دارد، که به ارتش اسرائیل اجازه می‌دهد تا هنجارهای نظامی را نه از طریق مجموعه‌ای خاص از تصمیمات، بلکه با نسبت دادن سیستماتیک اقدامات جدید و بدون محدودیت به یک کامپیوتر به ظاهر عینی تغییر دهد.

رهبری سیاسی اسرائیل برای ارتش اسرائیل یک هدف غیرممکن یعنی نابودی کامل حماس را تعیین کرد. در آغاز جنگ، حماس حدود 30 تا 40 هزار جنگنده داشت. پس از نزدیک به دو دهه کنترل در نوار غزه، حماس در همه جا بود. در اکتبر 7، جنگجویان حماس تهدید وحشتناکی برای هر نیروی زمینی ارتش اسرائیل که وارد غزه می‌شود، ایجاد می‌کنند مگر اینکه تعداد آنها کاهش یابد و گردان‌های آنها پراکنده یا تحت فشار قرار گیرند.

این واقعیت که لاوندر می‌تواند یک لیست تقریبا بی‌پایان از اهداف را تولید کند، به ارتش اسرائیل وسیله‌ای آشکار برای پاکسازی راه برای عملیات زمینی نهایی داد. تقریبا نیمی از کشته شدگان فلسطینی در طول شش هفته اولیه در یک بمب گذاری سنگین کشته شده‌اند. در این مورد، همکاری انسان و ماشین، یک راه حل تاکتیکی قابل تکرار برای یک مشکل استراتژیک را ایجاد کرد.

ارتش اسرائیل بر مانع اصلی این راه حل غلبه کرد. تعداد زیادی از غیرنظامیان بی‌گناه که به طور متراکم در قلمرو کوچک نوار غزه جمع شده بودند چون در مسیر هدف اصلی بودند، کشته شدند. در حملات علیه فرماندهان ارشد حماس، ارتش اسرائیل تصمیم گرفت که کشتن «صدها» تماشاگر برای هر فرمانده کشته شده را مجاز بداند. برای جنگجویان جوان حماس، این تعداد پذیرفته شده از 15 تماشاگر شروع شد اما در مراحل مختلف جنگ کمی پایین و بالا رفت.

علاوه بر این، از آنجا که اهداف اغلب در خانه‌هایی که تعداد ناشناخته‌ای از مردم در آن پناه می‌گرفتند، هدف قرار می‌گرفتند، کل خانواده‌ها از بین رفتند. این نابودی‌های خانوادگی احتمالا با پیوستن خویشاوندان اضافی یا افراد غیر مرتبط به ساکنان اصلی برای پناه موقت افزایش یافته است. به نظر نمی‌رسد که پرسنل اطلاعاتی ارتش اسرائیل به طور معمول تلاش کرده‌اند این را کشف کنند و تصمیمات عملیاتی خود را مطابق با آن به روز کنند.

اگرچه اسرائیل، ارتش خود را مطابق نمونه‌ای با هنجارهای لیبرال و غربی معرفی می‌کند اما شیوه‌ای که ارتش اسرائیل از هوش مصنوعی در غزه استفاده کرده است، کاملا با همان هنجارها در تضاد است. در آموزه نظامی ایالات متحده، تمام حملات باید تلاش کنند تا مرگ و میر تماشاگران را زیر «ارزش قطع تلفات غیر جنگی» (ncv) تعیین شده نگه دارند.

تماس محلی و +972 نشان داد که در ترور فرمانده گردان حماس، ویسام فرحت، در طول جنگ فعلی اسرائیل و حماس، دارای یک NCV بیش از 100 نفر بود و ارتش اسرائیل پیش‌بینی کرد که این تعداد را خواهد کشت. ارتش اسرائیل منطق زمان جنگ را پذیرفته است، که با آن نرخ بالاتر «خطاها» را در ازای اثربخشی تاکتیکی در حالی که فرماندهان آن خواستار انتقام از حماس هستند، قبول می‌کند. در عملیات‌های متوالی در سال‌های 2008، 2012 و 2014—که به طور مشهور توسط نخست وزیر سابق اسرائیل نفتالی بنت «چمن زدن» نامیده می‌شود، اسرائیل به طور دوره‌ای مهمات غیر دقیق را به تعداد قابل توجهی بر روی ساختمان‌ها و سیستم‌های تونلی که هدف حماس محسوب می‌شوند، رها کرده است. تلفات جنگنده به غیر جنگنده در این جنگ‌ها بین 1 تا 1 و 1 تا 3 بود که معمولا برای جنگ فعلی تخمین زده می‌شود.

درس‌های بزرگتری برای یادگیری وجود دارد. مهمترین این موارد این است که هوش مصنوعی نمی‌تواند از استفاده از سلاح‌ها در برابر نیروی فرماندهان، اپراتورها یا هنجارهای نهادی یکدست، انتقام جویانه یا بی‌توجهی محافظت کند. در واقع، می‌تواند به عنوان سپر یا توجیه برای آنها عمل کند. وسوسه‌انگیز است که بوروکراسی‌ها، نظامی یا غیر نظامی، قضاوت‌های دشوار را که در زمان‌های دشوار انجام می‌شود به ماشین‌ها واگذار کنند، بنابراین اجازه می‌دهد تصمیمات خطرناک یا بحث برانگیز توسط هیچ کس گرفته شود. نظارت قانونی، اخلاقی و انضباطی را نمی‌توان به کامپیوتر‌ها واگذار کرد.چنین سیستم‌هایی به طور خاص ساخته شده‌اند و مقامات باید به یاد داشته باشند که حتی در شرایط اضطراری، آن‌ها باید با احتیاط در هنگام گسترش فرکانس یا دامنه یک ابزار کامپیوتری ادامه دهند. همانطور که فاجعه در غزه نشان می‌دهد، هزینه‌های استراتژیک و اخلاقی می‌تواند قابل توجه باشد.

0
تعداد بازدید:
تهران، خیابان انقلاب اسلامی، چهار راه ولیعصر(عج)
تماس: ۹۳۵۳۲۷۲۷۶۳
1282
بازدید سایت: 
محیط شناسی روابط فرهنگی