حذر خبراء في مجالات الروبوتات والذكاء الاصطناعي من أن الاعتماد المتزايد على "أتمتة" آلة الحرب قد يؤدي إلى فقدان السيطرة البشرية الفعالة على قرارات الحياة والموت، مما يضع القانون الدولي الإنساني أمام تحديات أخلاقية وقانونية غير مسبوقة.
وتأتي التحذيرات على خلفية التقارير الواردة حول الاستخدام الواسع لنظم الذكاء الاصطناعي في تحديد الأهداف وشن الهجمات الصاروخية ضد إيران، والتي أثارت موجة عارمة من القلق لدى الأوساط الحقوقية والدولية.
مجزرة الأطفال
وبرزت واقعة الهجوم على مدرسة في مدينة ميناب، والتي أسفرت عن سقوط أكثر من 150 طفلًا أغلبهم فتيات، كنموذج صارخ للمخاوف من فشل هذه التقنيات، والتي أشارت التقارير الميدانية إلى أن المدرسة المستهدفة منفصلة عن المواقع العسكرية المجاورة لمدة عقد كامل.
وتسببت الحادثة في أسئلة واقعية أطلقها خبراء الذكاء الاصطناعي، حول ما إذا كان الهجوم نتيجة بيانات قديمة في قاعدة البيانات، أم أن الذكاء الاصطناعي صنف المدرسة كتهديد بناءً على منطق استنتاجي خاص به.
وأكد بيتر أسارو، الخبير الدولي في الروبوتات ونائب رئيس حملة "أوقفوا الروبوتات القاتلة"، في تصريحات نقلتها صحيفة "اليابان تايمز"، أن قصر مدة التخطيط وكثافة الأهداف التي ضُربت في إيران منذ اليوم الأول للحرب يرجحان استخدام خوارزميات متطورة لإنتاج قوائم أهداف بسرعة تفوق قدرة البشر.
أخطاء كارثية
ويرى أسارو أن التساؤل الجوهري يكمن في مدى قدرة القادة العسكريين على مراجعة هذه القوائم والتحقق من قيمتها العسكرية وشرعيتها قبل ضغط زر التنفيذ، محذرًا من أن الرغبة في التحرك بسرعة أكبر من العدو قد تضحي بالمسؤولية الأخلاقية.
وحول معضلة "الصناديق السوداء" في الذكاء الاصطناعي، وفقًا لصحيفة "بوليتيكو"، يؤكد الخبراء أن هذه الأنظمة تعمل وفق آليات سرية ومبهمة، مما يجعل من الصعب تقييم مخرجاتها أو تحديد الجهة المسؤولة عند وقوع أخطاء كارثية، كما حدث في واقعة المدرسة الإيرانية.
المعايير الأخلاقية
ولم تكن الأمم المتحدة في جنيف بعيدة عن مناقشة مستقبل تلك الأسلحة الآلية، حيث أطلق خبراء القانون تساؤلات تتعلق بمن يتم محاسبته إذا أخطأت تلك الآلة، وهل يمتلك القادة العسكريون معلومات كافية حول كيفية وصول الخوارزمية إلى استنتاجاتها الاستهدافية.
ورغم انطباق القانون الدولي الحالي على هذه الأنظمة، إلا أن هناك ضغوطًا متزايدة، وفقًا للصحيفة، لتبني إطار قانوني جديد يضمن بقاء "القرار النهائي" في يد البشر، محذرين من أن استخدام الذكاء الاصطناعي دون ضوابط واضحة قد يحول ساحات القتال إلى مختبرات تقنية تفتقر إلى الحس الإنساني، وهو ما يهدد بانهيار المعايير الأخلاقية التي تحكم النزاعات المسلحة منذ عقود.