وسط التوترات المتصاعدة في الشرق الأوسط، يبرز سؤال حيوي عن مدى تأثير التكنولوجيا المتقدمة على مجريات الصراعات العسكرية، فبينما يعتمد جيش الاحتلال الإسرائيلي بشكل متزايد على تقنيات الذكاء الاصطناعي لتعزيز قدراته الاستخباراتية، يتنامى الجدل حول تأثير هذه التقنيات على الدقة العسكرية والضحايا المدنيين.
في تقرير شامل، تكشف صحيفة "واشنطن بوست" تفاصيل غير مسبوقة عن تحول جيش الاحتلال الإسرائيلي نحو "الآلة"، متجاوزًا الإنسان في اتخاذ القرارات الحاسمة.
حرب الذكاء الاصطناعي
في أعقاب هجوم 7 أكتوبر 2023، لجأ جيش الاحتلال الإسرائيلي إلى تقنيات الذكاء الاصطناعي لتعويض نقص الأهداف العسكرية في قطاع غزة، واستخدم برنامجًا يدعى "الإنجيل"، الذي يُوصف بأنه أحد أكثر أنظمة الذكاء الاصطناعي تقدمًا في العالم، لتوليد أهداف جديدة بسرعة قياسية، لكن هذا التحول لم يكن بلا ثمن، حيث أثيرت تساؤلات حول مدى تأثيره على جودة الاستخبارات العسكرية وعدد الضحايا المدنيين.
ووفقًا لصحيفة "يديعوت أحرونوت" العبر ية، نقلًا عن مصادر استخباراتية إسرائيلية، أثار استخدام الذكاء الاصطناعي نقاشات حادة داخل جيش الاحتلال الإسرائيلي، حول إمكانية أن تحل الآلة محل الإنسان في المهام الاستخباراتية.
وتشير تقارير إلى أن تقنيات مثل "الإنجيل" و"هافاسورا" ساهمت في تحسين سرعة اتخاذ القرار، لكنها أخفت عيوبًا جوهرية، فقد تبيّن أن الأنظمة تعاني أحيانًا من أخطاء في تحليل اللغة، ما أدى إلى سوء تفسير إشارات حيوية.
من جهة أخرى، دفع هذا التركيز التكنولوجي إلى تقليص أعداد المحللين المتخصصين في اللغة العربية، وهو ما أثار مخاوف من ضعف قدرة جيش الاحتلال التحليلية.
خسائر مدنية متزايدة
في ظل استخدام الذكاء الاصطناعي، ارتفع المعدل المقبول للضحايا المدنيين بشكل ملحوظ، فبحسب منظمة "كسر الصمت"، وصل هذا المعدل إلى 15 مدنيًا لكل ناشط منخفض الرتبة في حماس، مقارنةً بمدني واحد مقابل قيادي رفيع المستوى في عام 2014.
وبينما يدافع جيش الاحتلال الإسرائيلي عن هذه التقنيات باعتبارها وسيلة لتحسين الدقة وتقليل الأضرار الجانبية، ترى منظمات حقوقية أن هذه النسب تعكس تراجعًا في القيم الإنسانية والمعايير الدولية.
وشهدت الوحدة 8200، المسؤولة عن الاستخبارات السيبرانية في جيش الاحتلال، تحولًا كبيرًا تحت قيادة يوسي شاريئيل، إذ تضاعف عدد العاملين في المجالات الهندسية والتكنولوجية، بينما تراجعت أدوار المحللين اللغويين والخبراء التقليديين، وأدى هذا التغيير إلى إحباط بعض القادة الذين رأوا أن الاعتماد المفرط على التكنولوجيا أضعف القدرات البشرية وأدى إلى الفشل في التنبؤ بالهجوم المفاجئ لحماس.
أحد الأمثلة البارزة على تحديات الذكاء الاصطناعي هو صعوبة التمييز بين الإشارات الحقيقية والوهمية، إذ ذكر مصدر مطلع أن كلمة "بطيخ"، التي تُستخدم أحيانًا كرمز لقنبلة، كانت تُفسر أحيانًا حرفيًا، ما أربك المحللين.
في المقابل، دافع أنصار التقنية عن فوائدها، مشيرين إلى قدرة برامج مثل "لافندر" على تقدير عدد المدنيين في منطقة مستهدفة، ما يتيح تحسين دقة الضربات العسكرية.
نظام "لافندر" الإسرائيلي
على جانبٍ آخر، تواجه شركة "ميتا" اتهامات بدعم دولة الاحتلال الإسرائيلي، إذ أثارت صحيفة "إلبايس" الإسبانية، في تقرير نشرته أبريل الماضي، مخاوف بشأن استخدام إسرائيل نظام يحمل اسم "لافندر" مدعوم بالذكاء الاصطناعي، يساعد في تحديد أهداف التفجيرات، وهو ما كان في السابق يتطلب تحققًا يدويًا.
وواجهت شركة "ميتا" اتهامات بأنها ساهمت في توفير المعلومات المستخدمة في نظام "لافندر"، فيما أبدت عدة تقارير القلق من أن ميتا قد تكون متورطة في تقديم بيانات مستخدمي "واتساب" بطريقة تقوّض خصوصيتهم وتساهم في عمليات القتل دون محاسبة.
وخلال الأسابيع الأولى من الحرب على غزة، حدد النظام نحو 37 ألف فلسطيني كأهداف محتملة، وساهم في تنفيذ ما لا يقل عن 15 ألف عملية قتل بين 7 أكتوبر و24 نوفمبر الماضيين.
تعاون ميتا و"لافندر"
واتُهٍمت شركة "ميتا" بانتهاكها للقانون الإنساني الدولي من خلال تقديم بيانات قد تكون استُخدمت في عمليات القتل الجماعي، كما أبدى بعض النقاد قلقهم من أن الشركة تدعّم الدعاية الإسرائيلية المزعومة، بما في ذلك تمويل مجموعات تدعو إلى العنف.
ويثير النظام أسئلة حول مصدر البيانات المستخدمة، حيث يُحتمل أن يكون هناك ارتباط بمجموعات "واتساب"، رغم عدم تأكيد ذلك بشكل قاطع.
واتهم الأيرلندي بول بيجار، صاحب أول مبادرة رقمية لدعم فلسطين، في مقال نشره عبر مدونة له عبر "جوجل بلوجر"، شركة "ميتا" المعروفة سابقًا باسم "فيسبوك"، بأنها ارتكبت أمرًا "تجاوز الفاحشة" ويجعلها متواطئة في عمليات القتل الإسرائيلية لأهداف ما قبل الجريمة وعائلاتهم، في انتهاك للقانون الإنساني الدولي.