خطا

1 minute read

Published:

استفاده از AI در جنگ پدیده‌ای تازه نیست. پیش‌تر نیز نمونه‌هایی از آن را، برای مثال در جنگ غزه، دیده‌ایم. اما آن‌چه کاربرد AI را در جنگ اخیر میان آمریکا و اسرائیل با ایران متفاوت و در عین حال نگران‌کننده کرده است، نحوه به‌کارگیری و میزان دخالتش در تصمیم‌گیری‌های جنگ است. در این شیوه، AI فراتر از تحلیل داده‌ها، مستقیما در شکل‌دادن به تصمیم‌ها دخالت دارد و تعیین می‌کند چه کسی یا چه چیزی هدف قرار گیرد. به این ترتیب فرآیندهایی که پیش‌تر ساعت‌ها یا روزها طول می‌کشید، در چند ثانیه انجام می‌شوند و اهداف حمله مشخص می‌شوند. و در این میان «نظارت انسانی» عملا به مرور به کاری صوری تبدیل می‌شود. حمله اخیر به مدرسه در میناب، که در آن حدود ۱۷۰ جان عزیز از میان ما رفتند، از سوی برخی به‌عنوان یکی از پیامدهای این نوع تصمیم‌گیری یاد می‌شود (هرچند که نقش AI در این فاجعه هنوز به‌طور رسمی تایید نشده).

اما مهم نیست که دقیقا بدانیم که ریشه این خطا استفاده از AI بوده یا نه (البته اگر اصلا آن را خطا بدانیم)، مساله اصلی نادیده گرفته شدن جان انسان‌هاست. البته نه جان هر انسانی، بلکه جان انسان‌ها در این جغرافیای خاص، در ایران، فلسطین، لبنان، افغانستان و بسیاری از نقاطی که خارج از مرکز قدرت جهانی قرار دارند. جایی که جان انسان‌ها در برابر کارایی و سرعت، کم‌اهمیت‌تر می‌شود، جایی که انسان‌ها به عدد تقلیل می‌یابند و مرگ‌شان به «خطای قابل‌قبول» تبدیل می‌شود. مساله دقیقا همین‌جاست: شکلی از خشونت که نه تنها فیزیکی‌ست، بلکه معرفتی است. خشونتی که در لایه‌های تصمیم‌گیری و در خود این سیستم‌های AI نهادینه شده است.