في الوقت الذي تسعى فيه وزارة الدفاع الأمريكية إلى تحديث قدراتها العسكرية وإضافة قوة جديدة، من خلال الطائرات المُسيّرة وأنظمة الأسلحة المستقلة بشكل كامل، تُثار مخاوف من أن سباق التسلح الجديد يمكن أن يزيد بشكل كبير من خطر الدمار الشامل والحرب النووية، إضافة إلى سقوط ضحايا بين المدنيين.
وكما يشير اسمها، يمكن لأنظمة التسليح ذاتية التحكم تحديد الهدف ومهاجمته دون تدخل بشري، وهو ما يختلف جذريًا عن الطائرات المُسيّرة الحالية، التي يتحكم فيها البشر عن بعد.
وتبذل وزارة الدفاع الأمريكية، جهدًا هائلًا لتوسيع نطاق التكنولوجيا العسكرية الحالية، فيما يعرف بمبادرة استنساخ المسيرات، إذ تتصور نشر أنظمة مستقلة تمامًا في الطائرات بدون طيار وأنظمة الدفاع، تكون متصلة من خلال حاسوب مركزي لمزامنة وحدات القيادة، بحسب موقع "ذا هيل".
مخاطر وجودية
ويخشى دعاة الحد من هذه الأسلحة، من أن حواجز الحماية الحالية لا توفر ضوابط كافية، نظرًا للمخاطر الوجودية، إذ يطلق النقاد على تلك الأسلحة اسم "الروبوتات القاتلة"، لأنها مدعومة بالذكاء الاصطناعي، ويمكنها العمل بشكل مستقل من الناحية الفنية للقضاء على الأهداف دون مساعدة بشرية.
وما يعزز المخاوف، أن هذه الأنظمة لم تُختبر بشكل كافٍ، كما أن كيفية تأثيرها على القتال غير معروف إلى حد كبير، إلى جانب عدم وجود معاهدات دولية تحكم استخدامها.
وفي السياق، طالبت آنا هيهير، التي تقود أبحاث أنظمة الأسلحة المستقلة في منظمة "معهد مستقبل الحياة"، البنتاجون بالنظر إلى استخدام الذكاء الاصطناعي عسكريًا على قدم المساواة مع بداية العصر النووي، مضيفة أنه بالنظر إلى ما يفعله البنتاجون فإننا يمكن أن نتجه إلى كارثة عالمية.
تم الإعلان عن تلك المبادرة، في أغسطس الماضي، من قبل نائبة وزير الدفاع كاثلين هيكس، خلال مؤتمر دفاعي عُقد في واشنطن العاصمة، ووصفته بأنه مبادرة لـ"تغيير قواعد اللعبة"، التي ستواجه طموحات الصين المتنامية وأسطولها الأكبر من الموارد العسكرية.
وقالت إنه بعد سنوات من البحث والاختبار، كانت النتيجة الوصول إلى نقطة يمكن للولايات المتحدة فيها أن تتحرك لتطبيق هذه التكنولوجيا.
وبحسب "ذا هيل"، تهدف المبادرة لإنتاج أسراب من الطائرات بدون طيار، تعمل بالذكاء الاصطناعي، وأيضًا مُسيّرات بحرية لمهاجمة الأهداف.
وقالت هيكس، إن المبادرة ستستخدم الأموال والموظفين الحاليين لتطوير آلاف الأنظمة المستقلة خلال 18 إلى 24 شهرًا، مشيرة إلى أن المبادرة ستعمل ضمن إطار المبادئ التوجيهية الأخلاقية للأنظمة المستقلة، والتي تركز على ضمان قيام القادة والمسؤولين رفيعي المستوى بمراجعة الأسلحة الجديدة، ووجود مستوى مناسب من التحكم البشري، قبل أن يتمكن نظام الذكاء الاصطناعي من استخدام القوة.
ومنذ عام 2014 تجتمع اللجنة الأممية مرتين سنويًا لمناقشة تلك القضية، وتعارض الدول العظمي الثلاث -الصين وأمريكا وروسيا- فرض حظر تام على أنظمة التسليح ذاتية التشغيل أو وضع ضوابط ملزمة عند استخدامها.
فيما تساءلت فانيسا فوهس، الباحثة في مجال الأسلحة ذاتية التشغيل، في جامعة الجيش الألماني بميونخ، عمّا إذا ارتكبت تلك الأسلحة جريمة حرب، من سيتحمل المسؤولية؟ مضيفة: "نحن في حاجة ماسة لإيجاد قواعد جديدة قبل أن نجد أنفسنا أمام سيناريو مروع".
ثورة ثالثة في الحرب
وتحدث تقرير سابق لمجلة BMJ Global Healthعن أن أبرز المخاطر المتعلقة بالذكاء الاصطناعي، تتعلق بتطوير أنظمة الأسلحة الفتاكة، ومنها أنظمة أسلحة فتاكة ذاتية التشغيل، يمكنها تحديد مواقع الأهداف البشرية واختيارها والاشتباك معها دون إشراف بشري.
وقال التقرير إن نزع الصفة الإنسانية عن القوة المميتة يشكل ثورة ثالثة في الحرب، ومنها مثلًا الطائرات بدون طيار والتي تتمتع بالذكاء والقدرة على الطيران الذاتي.
ووصف التقرير الأسلحة الفتاكة ذاتية التشغيل، بأنها سلاح جديد للدمار الشامل، وهو رخيص نسبيًا، وله القدرة على أن يكون انتقائيًا بشأن أهدافه، وهو ما قدر يؤثر بشكل كبير على النزاع المسلح في المستقبل.