شهدت تقنيات الذكاء الاصطناعي تطورًا سريعًا في السنوات القليلة الماضية، وتعددت استخداماتها على المستوى العملي، حتى باتت أنظمة الأسلحة الفتاكة المستقلة تُوصَف بـ"الثورة الثالثة" في الحرب بعد البارود والأسلحة النووية؛ لما لها من قدرة على تحديد وتدمير أهداف مستقلة دون التدخل البشري المباشر على نحو يؤكد أهميتها في مجال الحروب، لا سيما في ظل التغيرات المتوقعة في طبيعة المعارك المستقبلية، ومع تعدد التهديدات التي يجب مواجهتها من خلال دفاعات عالية التقنية، وأهمية استخدامها في عمليات الاستهداف التلقائي، والتحليل الآلي للبيانات الاستخباراتية، وتحسين اللوجستيات، وغير ذلك.
ويعرف الذكاء الاصطناعي بأنه يعمل على تعزيز أجهزة الكمبيوتر والآلات لتقليد قدرات حل المشكلات واتخاذ القرار للعقل البشري، وهو مجال يجمع بين علوم الكمبيوتر ومجموعات البيانات ويشمل المجالات الفرعية للتعلم الآلي والتعلم العميق، ويعتمد على خوارزميات تسعى إلى إنشاء أنظمة تقوم بالتنبؤات أو التصنيفات بناء على بيانات الإدخال.
فقد دفع تعدد استخدامات الذكاء الاصطناعي، نحو صعود نهج جديد للحرب يُعرف باسم "الحرب الذكية" أو "الحرب القائمة على الذكاء الاصطناعي"، هو النهج الذي يقوم على تفعيل الأخير بما يضمن هزيمة العدو دون شن حرب تقليدية أو حرب ساخنة. ققد شهدت الحروب بالتوازي مع ذلك، تغيرات جذرية على صعيد مهام الاستطلاع، والمراقبة، والاستهداف، والاستخبارات، وتوثيق وقائع العمليات العسكرية، والدعم اللوجستي، لتدفع بعض التحليلات بتعدد المفاهيم العملياتية الجديدة التي تتواكب مع جيل جديد من الحروب بعد أن أضحى المجال المعرفي هو ميدان الحروب في المستقبل، لا سيما في ظل التطور التكنولوجي المستمر.
وفي هذا السياق، تُثار عدة تساؤلات مثل: ما أهم مجالات استخدام الذكاء الاصطناعي في الأغراض العسكرية، وما الحدود المتوقعة لذلك؟ وكيف يمكن الحد من خطورة التوسع في استخدام الذكاء الاصطناعي للأغراض العسكرية؟
استخدامات مهددة:
ثمة مجالات، يتم فيها استخدام الذكاء الاصطناعي في الأغراض العسكرية، لدرجة أنها أصبحت غير محدودة وتتزايد يومًا بعد يوم، كما أنها غيرت من أساسيات الحروب التقليدية بين المتحاربين، ويمكن توضيح ذلك على النحو التالي:
(*) تزايد القدرات التدميرية: يساعد الذكاء الاصطناعي في تحسين جمع المعلومات الاستخبارية والعمليات المستقلة ودعم اتخاذ القرار، وربما يقلل التكلفة البشرية الناجمة عن انخراط الدول في صراعات مسلحة. ويتجلى توظيف الذكاء الاصطناعي في الحروب العسكرية في مجالات عديدة مثل: زيادة استخدام الأسلحة الذاتية التشغيل، لقد شهدت بعض الحروب، في السنوات القليلة الماضية، تزايد استخدام أنظمة الأسلحة الفتاكة ذاتية التشغيل التي يمكنها اختيار أهدافها وقتلهم دون مراقبة بشرية، ومن ذلك – على سبيل المثال – الطائرات بدون طيار ذاتية القيادة، التي تختلف استخداماتها عسكريًا حسب ما تحمله من معدات تقنية (لأغراض استطلاعية كالرصد والتعقب والتجسس أو لأغراض عملياتية كالقصف وإطلاق الصواريخ وإلقاء المتفجرات). وعلى عكس أسلحة الدمار الشامل، لا توجد معاهدات أو أنظمة محددة تحظر هذه الأسلحة دوليًا. ولذا عقدت لجنة الأمم المتحدة لنزع السلاح أخيرًا اجتماعًا لتقييد أو حظر استخدام الأسلحة المستقلة عن التحكم البشري، التي تعمل بواسطة الذكاء الاصطناعي دون أن تتمكن من اتخاذ أي قرارات مشتركة؛ ما يفتح الباب أمام استخدام تلك الأسلحة في الحروب العسكرية على نطاق واسع مستقبلًا. ومن هذه المجالات كذلك توثيق جرائم الحروب العسكرية والصراعات المسلحة، فقد أمكن توظيف تقنيات الذكاء الاصطناعي وتعلم الآلة لتوثيق جرائم الحرب التي تُرتكب في بعض الصراعات المسلحة والحروب العسكرية؛ فمن خلال صور الأقمار الاصطناعية وعدد من التقنيات، أمكن الكشف عن وجود مقابر جماعية في بعض المناطق في أوكرانيا.
(*) الخداع الاستراتيجي وتقليل أعداد المقاتلين: يمكن توظيف الذكاء الاصطناعي في الخداع (التزييف) العميق، من خلال تأثير التضليل البصري الذي يتجلى عبر مختلف وسائل التواصل الاجتماعي وغير ذلك من منصات إعلامية ورقمية، يتم تطويره عبر تقنيات الذكاء الاصطناعي؛ إذ يُستخدم الأخير في عمليات التزييف العميق التي تعتمد بدورها على تعلم الآلة كوسيلة لفهم الأشياء والتمييز بين أنماط البيانات المختلفة كي تنتج مقاطع الفيديو والصور لتبدو حقيقية تمامًا على نحو يصعب معه التمييز بين الواقع والخيال. وعلى سبيل المثال، خُدع رؤساء بلديات 3 عواصم أوروبية بإجراء مكالمات فيديو مع شخص ادعى أنه عمدة العاصمة الأوكرانية كييف "فيتالي كليتشكو" على خلفية الحرب الروسية الأوكرانية، وهو ما يعني استخدام الإنترنت لتقويض الثقة بالوسائل الرقمية.
(*) تزييف اتجاهات الحروب: التزايد في توظيف الروبوتات المقاتلة مع التوسع في البرامج العسكرية للذكاء الاصطناعي، من المؤكد أنه يقلل من عدد المقاتلين في المهام المختلفة؛ ما يقلل بالتبعية حجم الإصابات التي يتعرضون لها، وهو ما يتجلى بصورة خاصة في حالة الروبوتات المقاتلة التي تزايد معها الحديث عن قدرتها على تقليل عدد مصابي الحرب بين المدنيين، وإن تسببت في المقابل في اتساع ميادين المعارك على نحوٍ يُمكِّن من استهداف المناطق التي يتعذر الوصول إليها عادةً بسبب طابعها الوعر أو الجبلي. كما تتلاءم الروبوتات المقاتلة مع بعض المهام القذرة (كالتي تُعرِّض البشر لمواد إشعاعية) أو الخطيرة (للتخلص من الذخائر المتفجرة)؛ إذ يتطلب الضغط البدني للمناورات العسكرية دقة ووعيًا يصيب الجيوش المقاتلة بالإرهاق، وهي القيود الفسيولوجية التي لا تخضع لها تلك الروبوتات.
(*) سهولة جمع المعلومات ودقة تحليلها: يمكن توظيف الذكاء الاصطناعي في عمليات جمع المعلومات من خلال مراقبة اتصالات الخصم والاستماع إلى إرساله وتسجيل محتواه، إذ يمكن الاعتماد على الأتمتة (التشغيل الآلي) والذكاء الاصطناعي لتحسين الوصول إلى المعلومات، ومعالجة وتحليل صور الأقمار الصناعية، وتحويل بيانات الاستشعار التي تجمعها أجهزة الاستخبارات ومختلف الكيانات الحكومية والعسكرية إلى منتجات استخباراتية قابلة للاستخدام. ولا شك أن كمية البيانات التي يجمعها الذكاء الاصطناعي تتعذر على المحللين البشريين معالجتها بمفردهم؛ لذا تتزايد أهمية استخدام التعلم الآلي حتى يتمكن المحللون العسكريون من التركيز على التحديات الأكثر خطورة.
كذلك يمكن توظيف الذكاء الاصطناعي في عمليات التجسس على نطاق واسع؛ ذلك أن استخدام التكنولوجيات الرقمية الحديثة المتصلة بالشبكات حولتها إلى أدوات هائلة للمراقبة والسيطرة، وهو ما يتجلى – على سبيل المثال – في أدوات الاختراق الحاسوبي، كبرامج التجسس مثلًا، وهو الأمر الذي تتزايد أهميته في تتبع معلومات الخصم العسكرية والكشف عن خططه الميدانية.
(*) دعم القوات البحرية باستخدام الخرائط الذكية: يلعب الذكاء الاصطناعي دورًا في دعم القوات البحرية وتعزيز الأمن البحري من خلال تعزيز الردع والوعي بالمجال البحري باستخدام الخرائط الذكية والأقمار الصناعية وشاشات المراقبة التفاعلية، وهو ما تلعب فيه المسيّرات البحرية دورًا مهمًا بجانب المركبات المسيّرة الغائصة تحت سطح البحر والمركبات غير المأهولة، بهدف تنفيذ عدد من دوريات الحراسة، وتعزيز قوة الردع، ورصد أي نشاط مزعزع لاستقرار الممرات المائية الحيوية؛ إذ يمكن لتلك المسيّرات، إلى جانب الطائرات من دون طيار، أن تقدم رؤية أفضل للمياه لأغراض الاستطلاع في إطار شبكة دفاع إقليمية محتملة.
(*) توظيف الطباعة الثلاثية والرباعية الأبعاد في الصناعات العسكرية: بشكل مباشر يمكن توظيف الطباعة الثلاثية الأبعاد لإنتاج بزات وجلد اصطناعي لمعالجة جرحى الحروب، الأمر الذي يفسر كثافة الاستثمارات الأمريكية في هذا المجال. وعلى صعيد متصل، اخترع باحثون في جامعة "ماساتشوستس إنستيتيوت أوف تكنولوجي" طباعة رباعية الأبعاد مع مواد تتحول عند الاحتكاك بعناصر أخرى؛ ما قد يفضي إلى تصنيع بزات متحولة يتغير لونها بحسب الأوضاع المحيطة. أما بشكل غير مباشر، فيمكن القول إن الطابعات الثلاثية الأبعاد تستخدم وبكثرة في مجال الصناعات العسكرية ذات الصلة المباشرة بالحروب؛ ومن ذلك على سبيل المثال شركة "بي إيه إي" البريطانية العملاقة التي أدخلت قطعة معدنية مطبوعة على طائرة مقاتلة من نوع "تورنادو"، وتخطط لتنويع استخداماتها في المستقبل.
إشكالية تطبيق معايير أخلاقية:
بغض النظر عن كيفية استخدام الذكاء الاصطناعي في المجال العسكري، يجب أن يكون هذا الاستخدام آمنًا وأخلاقيًا، لأن ارتكاب الأخطاء قد تكون له تداعيات كارثية، فعلى سبيل المثال، إذا أخطأ الذكاء الاصطناعي الذي تستخدمه طائرة ذاتية القيادة، في مراقبة وتحليل مواقع صواريخ العدو وتفسير ما ترصده الطائرة، فقد يؤدي ذلك إلى خسائر في الأرواح أو إلحاق ضرر لا يمكن إصلاحه في العلاقات الدولية، ويمكن توضيح ذلك على النحو التالي:
(&) ضمانات مطلوبة لاستخدامات الذكاء الاصطناعي: ظهر تخصص تقني يُعرف باسم "الذكاء الاصطناعي المسؤول"، الذي أشارت إليه وحدة الابتكار الدفاعي التابعة للبنتاجون في تقرير أصدرته مطلع هذا العام، حول إرشادات الذكاء الاصطناعي المسؤول في الممارسة العملية. يستهدف هذا التخصص توفير ضمان أن تطوير أي تكنولوجيا ذكاء اصطناعي يجب أن يتم بشكل أخلاقي ومعقول. وتوفر هذه الإرشادات إطارًا للشركات العاملة في مجال الذكاء الاصطناعي وأصحاب المصلحة في وزارة الدفاع للمساعدة في ضمان بناء برامج الذكاء الاصطناعي، وفقاً لمبادئ العدالة والمساءلة والشفافية في كل خطوة من خطوات دورة تطوير نظام الذكاء الاصطناعي.
(&) ضرورة تطبيق الأخلاقية الخمسة للذكاء الاصطناعي العسكري: اعتمدت وزارة الدفاع الأمريكية خمسة مبادئ أخلاقية لتطوير واستخدام الذكاء الاصطناعي، أولها أن يتحمل البشر المسؤولية عن تطوير واستخدام الذكاء الاصطناعي، والثاني أن تكون عادلة، بحيث تتخذ وزارة الدفاع خطوات مدروسة لتقليل التحيز غير المقصود في قدرات الذكاء الاصطناعي، بينما يتعلق المبدأ الثالث بإمكانية تتبع هذه التكنولوجيا، بحيث يتم تطوير ونشر قدرات الذكاء الاصطناعي بطريقة تتيح للأفراد المعنيين فهم التكنولوجيا وعمليات التطوير والأساليب التشغيلية، بما في ذلك المنهجيات الشفافة والقابلة للتدقيق والتأكد من مصادر البيانات وإجراءات التصميم والتوثيق.أما المبدأ الرابع فيتعلق بالموثوقية، أي أن تكون حالات استخدام الذكاء الاصطناعي واضحة ومحددة جيدًا، وأن تخضع سلامة وأمن وفعالية هذه القدرات للاختبار طوال دورات حياتها بالكامل، في حين تم تحديد المبدأ الخامس بالقابلية للتحكم والقدرة على التصحيح والتدخل، بحيث تعمل وزارة الدفاع على تصميم وهندسة قدرات الذكاء الاصطناعي للوفاء بوظائفها المقصودة المحددة، مع امتلاك القدرة على اكتشاف وتجنب العواقب غير المقصودة، وأن تكون لديها القدرة على إلغاء الأنظمة التي تظهر سلوكاً غير مقصود.
(&) تعزيز نظم الإدارة الآمنة في ساحة المعركة: يعتقد خبراء الذكاء الاصطناعي أن تعهد البنتاجون بتطوير وتنفيذ الذكاء الاصطناعي المسؤول، سيعزز تطوير "نظام الإدارة المتقدم في ساحة المعركة" المعروف اختصارًا من اللغة الإنجليزية باسم "جادسي تو"، وهو نظام يُمكّن القادة من اتخاذ قرارات أفضل من خلال جمع البيانات عبر العديد من أجهزة الاستشعار، ومعالجة البيانات باستخدام خوارزميات الذكاء الاصطناعي لتحديد الأهداف، ثم التوصية بالسلاح الأمثل من القوات الجوية أو البرية أو البحرية أو الفضائية أو الإلكترونية، بالإضافة إلى الإجراءات التي تقوم بها القوة المشتركة في مجالات متعددة ومتكاملة في التخطيط والتنفيذ، بالسرعة والنطاق اللازمين لتحقيق ميزة.
(&) دعم الذكاء الاصطناعي المسئول والملتزم: سيعمل الذكاء الاصطناعي المسئول كثقل موازن في مواجهة منافسي أمريكا من القوى العظمى مثل الصين وروسيا، اللذين لن ينخرطا على الأرجح في الذكاء الاصطناعي الملتزم بالمعايير والمبادئ الأخلاقية حسب ما يتصور الخبراء الأمريكيون، وبخاصة أن الصين أعلنت كجزء من خطتها الاستراتيجية، أنها ستكون الدولة الرائدة عالميًا في مجال الذكاء الاصطناعي بحلول عام 2030، وركزت استثماراتها في التقنيات ذات الاستخدام المزدوج مثل المعالجة المتقدمة والأمن السيبراني والذكاء الاصطناعي، ما يشكل تهديدًا للهيمنة التقنية والمعرفية للولايات المتحدة.
فالاختلاف الرئيس يتمثل في أن الصين تطبق تقنيات الذكاء الاصطناعي على نطاق واسع في مختلف أنحاء البلاد، حيث يستخدمون هذه التكنولوجيا لمراقبة سلوكيات المواطنين والتفاعلات الاجتماعية والقياسات الحيوية عبر الإنترنت، وليس لديهم أي قلق بشأن حقوق الخصوصية أو التطبيق الأخلاقي للبيانات التي يستطيع الذكاء الاصطناعي جمعها ومشاركتها في إطار هدف الصين المتمثل في الهيمنة التقنية العالمية بحلول عام 2030.
وقد يكون هذا أحد الأسباب التي تدفع المسؤولين الأمريكيين وخبراء الذكاء الاصطناعي إلى ضرورة التحرك بسرعة لوضع معيار عالمي للاستخدام المسؤول والأخلاقي للذكاء الاصطناعي، والعمل مع حلفاء الولايات المتحدة لقيادة عملية تطوير المعايير العالمية حول الذكاء الاصطناعي.
وعلى الرغم من وجود بعض الثغرات الحالية في شبكات الاتصال بين أفرع القوات المسلحة الأمريكية للربط بين الأقمار الاصطناعية وأنظمة الطائرات من دون طيار ومدمرات الصواريخ الموجهة على سبيل المثال، إلا أن وزارة الدفاع الأمريكية أعلنت عزمها على ضرورة أن تكون لديها قوة مدعومة بالذكاء الاصطناعي بحلول عام 2025، لأن السرعة في تحديد أفضل مسار للعمل في ساحة معركة معقدة ومتغيرة ستكون هي الفارق الواضح في المعارك المستقبلية. فالذكاء الاصطناعي يدرك ويفكر في أفضل الطرق لنقل المعلومات عبر مختلف المنصات ويمكنه تحسين حركة تلك المعلومات وتكوين الشبكة التي ستكون معقدة للغاية، بينما يصعب على الإنسان التفاعل معها وفهم كيفية الحفاظ على روابط الشبكة والاتصال.
في النهاية، يمكن القول إن استخدامات الذكاء الاصطناعي في المجالات العسكرية، أصبحت متعددة ومحورية خاصة بعد تسارع وتيرة تطبيق هذه الاستخدامات فعليًا في ميادين المعارك والحروب، وذلك على النحو الذي يتم رصده يوميًا في الحرب الروسية الأوكرانية.وبذات الوتيرة، يتزايد سباق التسلح بالذكاء الاصطناعي بين القوى الكبرى، وما يرتبط بذلك من تزايد القدرات التدميرية للجيوشها لدرجة اقتراح الولايات المتحدة أخيرًا، إعداد معدلات لاستخدام الذكاء الاصطناعي في المجال العسكري.