شیوه جنگ کردن ما در حال تغییر است؛ کارشناسان میگویند در دنیا یک رقابت نظامی جدید این بار برای مسلح کردن هوش مصنوعی در حال رقم خوردن است.
همین حالا هم هوش مصنوعی در امور نظامی مختلفی مثل کنترل پهپادها نفش دارد، اما بعضی از متخصصان معتقد هستند که آرام آرام کار به جایی میرسد که کامپیوترها تصمیم نهایی را بگیرند؛ این که چه کسی را مورد هدف قرار بدهند و چه کسی را بکشند.
پروفسور توبی والش، از موسسه هوش مصنوعی در دانشگاه نیوساوتولز میگوید: «با دیدن پروازهای نیمه خودمختار آشنا هستیم، در این موارد همچنان انگشت انسان روی ماشه است، اما به طور فزایندهای این پهبادها توسط کامپیوترها پرواز میکنند و کامپیوترهای بیشتری آن تصمیم نهایی را میگیرند.
به گفته سازمان ملل، سیستمهای تسلیحاتی خودمختار «اهداف انسانی را بدون نظارت انسان، پیدا، انتخاب و درگیر میکنند»، این سیستمها نام دیگری هم دارند؛ «رباتهای قاتل».
این رباتها میتوانند برای شناسایی و حمله به دادههایی مثل وزن، سن و نژاد تکیه کنند.
دکتر اولگا بویچاک، جامعه شناس و مدرس فرهنگ های دیجیتال در دانشگاه سیدنی میگوید که نام دیگر این، مرگ با فراداده (metadata) است.
یک گزارش سازمان ملل نشان میدهد که که اولین حمله پهبادهای خودمختار در سال ۲۰۲۰ اتفاق افتاد؛ جایی که پهپادهای ساخت ترکیه در بحبوحه درگیری نظامی در لیبی مستقر شدند. از آن زمان، این نوع تسلیحات در سایر درگیریها از جمله جنگ اوکراین نقش داشتهاند.
طبق گزارش موسسه روابط بینالملل استرالیا، روسیه، چین، اسرائیل، هند، ایالات متحده، بریتانیا و استرالیا از کشورهای پیشرو در توسعه هوش مصنوعی در امور نظامی هستند.
واگذاری تصمیم «مرگ یا زندگی» به ماشینها یک معضل اخلاقی ایجاد میکند به همین دلیل هم کارشناسان خواستار مقررات برای سلاحهای خودمختار کشنده تحت کنوانسیون سازمان ملل دهاند.
آنها میخواهند مثل سلاحهای شیمیایی و بیولوژیک این سلاحها هم تحت کنوانسیون ژنو تعطیل شوند.
دانیلا گاوشون مدیر دیدهبان حقوق بشر در گفت: « سلاحهایی که بدون کنترل معنادار انسانی عمل میکنند، هیچ ویژگی انسانی قضاوت و همدردی را ندارند، ویژگیهایی که بخشهای جداییناپذیر تجزیه و تحلیل هدف قانونی است.»
متخصصانی مثل پروفسور والش، نگران هستند که واقعیت تسلیحات هوش مصنوعی به طور کامل درک نشده باشد؛ آنها اصرار دارند تا اقدامی انجام بشود، قبل از اینکه دیگر دیر شده باشد.