تتسابق كل من الصين والولايات المتحدة على هيمنة الاستخدام العسكري للذكاء الاصطناعي، لكن في الوقت نفسه يدرك رئيسيهما ضرورة "مواجهة مخاطر الأنظمة الاصطناعية المتقدمة وتحسين سلامة الذكاء الاصطناعي" في مواجهة تلك التحديات.
وبالفعل كانت مخاطر الذكاء الاصطناعي أولوية خلال اجتماع شي وبايدن في سان فرانسيسكو. إذ اتفق الرئيسان على العمل معًا على تنظيم الاستخدام العسكري للذكاء الاصطناعي. ومع ذلك، لم تكن هناك تفاصيل محددة، ولا تزال الخلافات قائمة بين القوى المتنافسة. حسبما ذكرت صحيفة "ساوث تشاينا مورنينج بوست".
علاقات غير مستقرة
وفيما يتعلق بالعلاقات الصينية الأمريكية، قال الدكتور جوانجيو تشياو، الأستاذ المساعد في جامعة رادبود بهولندا والمتخصص في السياسة والذكاء الاصطناعي: "لا أعرف إذا كان بإمكانهم تجاوز ما تم الاتفاق عليه خلال قمة سان فرانسيسكو الشهر الماضي، على المستوى الدولي أم لا".
وأضاف تشياو: "صراحة.. لست متفائلًا، لأن العلاقات بين الولايات المتحدة والصين لا تزال متباعدة جدًا. أشعر أن الولايات المتحدة لديها هذا الحافز للحد من تطوير التكنولوجيا الصينية. وبالمثل الصين، بالطبع، تريد زيادة استقلاليتها التكنولوجية وتريد تقليل تلك النقاط الحرجة التكنولوجية”.
قلق أمريكي
وفي عام 2019، وضعت الصين والولايات المتحدة و96 دولة أخرى مجموعة من المبادئ التوجيهية بشأن استخدام الأسلحة القاتلة ذاتية التحكم، التي يمكن تعزيزها بالذكاء الاصطناعي. واجتمعوا في جنيف، واتفقوا على أن يظل البشر مسؤولين عن استخدام هذه الأنظمة، وأن تتوافق تطويرها مع القانون الإنساني الدولي وأن تخضع لاختبارات كاملة قبل نشرها. ومع ذلك، فإن المبادئ التوجيهية ليست ملزمة قانونًا.
وحذرت الولايات المتحدة من أن قيادة الصين في التطبيقات الناشئة للذكاء الاصطناعي، مثل الرؤية الحاسوبية والمركبات تحت الماء ذاتية التحكم، قد تضعف تفوقها في هذا المجال. كما أعربت عن قلقها إزاء استراتيجية الصين للاندماج العسكري المدني في التطوير التكنولوجي العالي.
قيود الاستخدام
وقال نيل دافيسون، مستشار علمي وسياسي أول في اللجنة الدولية للصليب الأحمر، إنه يمكن للجيش استخدام تقنيات الذكاء الاصطناعي لأغراض عديدة، لكن الهدف الرئيسي هو كيفية تقليل الأثر المدني عند استخدام الذكاء الاصطناعي في القتال.
إذ يمكن استخدامه للتعرف على الصور لتحديد الأهداف، سواء كانت أشخاصًا أو مواقع ذات اهتمام، ويمكنه تحليل البيانات للمساعدة على اتخاذ قرارات أفضل في ساحة المعركة، وإيجاد نقاط ضعف لشن هجمات إلكترونية قادرة على تعطيل الأنظمة الأساسية التي تستخدمها المستشفيات وغيرها من البنى التحتية المدنية.
وأضاف دافيسون، أن التنظيم يجب أن يركز على التطبيقات المحددة للذكاء الاصطناعي، وليس فقط وضع مبادئ عامة على التكنولوجيا نفسها.
جذور الخلاف
أيدت بكين وواشنطن بشكل منفصل الرأي القائل بأن الحفاظ على سيطرة البشر على أنظمة الذكاء الاصطناعي هو مفتاح استخدامها في الجيش. وأكدت الصين على ذلك في ورقه أصدرتها عام 2021 حول التطبيق العسكري للذكاء الاصطناعي، داعية إلى وضع أنظمة الأسلحة الاصطناعية تحت سيطرة البشر دائمًا، حيث يمكن للإنسان تعليق عملها في أي وقت.
بينما، انتقدت واشنطن مصطلحات مثل "السيطرة البشرية المعنوية" لكونها غامضة، وتفضل بدلًا من ذلك "سلسلة قيادة بشرية مسؤولة". وقد حال الخلاف حول لغة من هذا القبيل دون التوافق في المناقشات التابعة للأمم المتحدة حول القانون المنظم لاستخدام الذكاء الاصطناعي. لكن الاتفاقات الدولية لتحديد معايير الاستخدام العسكري للذكاء الاصطناعي نادرًا ما تأتي مع آليات ملموسة لتنظيمها.
قمة فاشلة
قادت الولايات المتحدة الشهر الماضي 46 دولة أخرى، هي في الغالب حلفاء وشركاء رئيسيون، في الالتزام بالاستخدام "المسؤول" للتطبيقات العسكرية للذكاء الاصطناعي، مثل وضع معايير الشفافية والتدريب الكافي للمستخدمين. وغابت الصين بشكل لافت عن الإعلان، الذي لم يذكر أي آلية لتنفيذه.
وشهد الاجتماع خلافًا كبيرًا بين الدول المتقدمة، التي تسعي إلى استثمار المزيد من الأموال لتطوير الذكاء الاصطناعي حتى يخدم الجيش، والدول النامية التي تطالب بتقنين الاستخدام نظرًا لانخفاض قدراتها المالية على الاستثمار والتطوير.
وتريد بكين أن تكون صوت الجنوب العالمي، حيث أعلن الرئيس الصيني، شي جين بينج، أن الصين ستظل دائمًا دولة نامية. لكن في أبحاث الذكاء الاصطناعي، فقد استثمرت بشكل كبير وقدمت تعريفًا ضيقًا لأنظمة الأسلحة الفتاكة المستقلة، التي تتميز بأنظمة فتاكة، وغياب التدخل البشري أثناء التنفيذ، والقدرة على التطور، وتوسيع الوظائف بما يتجاوز التوقعات البشرية.
نقطة الضعف
وقالت "ساوث تشاينا مورينيج بوست"، إن المزايا التي يمكن اكتسابها من خلال استخدامات معينة للذكاء الاصطناعي العسكري قد تترك أيضًا نقاط ضعف لمجتمعاتهم، وجيوشهم، وجنودهم. وقد تدفع هذه الثغرة الأمنية المتبادلة الصين والولايات المتحدة إلى إنشاء مجموعة مشتركة من القواعد التنظيمية الملزمة بشأن التطبيق العسكري للذكاء الاصطناعي.
وقالت الدكتورة لورا سالمان، الباحثة البارزة في معهد ستوكهولم الدولي لأبحاث السلام، إن نقطة البداية الجيدة ستكون إصدار بيان أمريكي صيني مشترك حول أهمية السيطرة البشرية على اتخاذ القرارات بشأن الأسلحة النووية. لكنها قالت إن ابتكار نسخة تعمل بالذكاء الاصطناعي لمعاهدة منع انتشار الأسلحة النووية، التي تهدف إلى حصر هذه الأسلحة في خمس دول فقط، سيكون أمرًا صعبًا.
وأكدت "سالمان" أن الافتقار إلى القدرة على التحقق من الامتثال، إلى جانب السرعة الإجمالية للتقدم التكنولوجي للذكاء الاصطناعي، من المرجح أن يعرقل أي جهود لإبرام معاهدة حظر انتشار الأسلحة النووية.