تسلیحات دارای هوش مصنوعی در جنگ غزه

 

کارشناسان از افزایش استفاده از هوش مصنوعی در فن‌آوری‌های نظامی، به ویژه سلاح‌های خودمختار که می‌توانند اهداف را بدون نظارت انسان انتخاب کرده و درگیر شوند، نگران هستند.
این می‌تواند مسئولیت پذیری را تضعیف کند و خطر هدف قرار دادن غیرنظامیان را در نقض قوانین بین المللی به خطر بیندازد.
در حالی که دستورالعمل پنتاگون در مورد هوش مصنوعی با هدف به حداقل رساندن سوگیری ناخواسته، امکان توسعه و استقرار تسلیحات مستقل در شرایط اضطراری را فراهم می‌کند ولی برای همه آژانس‌های ایالات متحده اعمال نمی‌شود.
منتقدان می‌گویند که به اندازه کافی خطرات قانونی و اخلاقی را بررسی نمی‌کند.
پیمانکاران نظامی به طور فزاینده‌ای سلاح‌های خودمختار مانند پهپادها و سگ‌های روباتیک را توسعه می‌دهند و غزه به عنوان محل آزمایش برخی از سیستم‌های ساخت ایالات متحده عمل می‌کند.
این می‌تواند درگیری‌ها را گسترش داده و طولانی‌تر کند و در عین حال نیروها را از خطرات دور کند.
طرفداران معتقدند فناوری‌های جدید دقت را افزایش می‌دهند، اما منتقدان خاطرنشان می‌کنند که حملات هواپیماهای بدون سرنشین همچنان باعث مرگ غیرنظامیان شده است. هدف‌گیری مستقل همچنین به داده‌ها و الگوریتم‌هایی متکی است که ممکن است دارای سوگیری باشند.
در نهایت، کارشناسان می‌گویند که تلاش برای فناوری‌های جدید تسلیحاتی نباید از مسئولیت انسان در قبال تصمیم‌های درگیری منحرف شود و جنگ ذاتاً از مرزهای اخلاقی، با یا بدون ماشین‌های جدید فراتر می‌رود.
کار بیشتری در زمینه سیاست و نظارت بر هوش مصنوعی نظامی مستقل مورد نیاز است.

منبع: salon

ارسال پست به:

Related P

آخرین پست ها

ارسال به شبکه های اجتماعی