مع تفاقم المواجهة بين شركة الذكاء الاصطناعي "أنثروبيك" (Anthropic) ووزارة الحرب الأمريكية، قدم الجانبان روايتين مختلفتين تمامًا حول نقاش رئيسي حول ضربة نووية افتراضية ضد الولايات المتحدة، ما كشف عن شدة المواجهة بينهما بشأن الاستخدام المحتمل للجيش الأمريكي للأسلحة الفتاكة ذاتية التشغيل.
ونقل تقرير لصحيفة "واشنطن بوست" عن مسؤول دفاعي إن رئيس قسم التكنولوجيا في البنتاجون اختزل النقاش إلى "سيناريو نووي يتعلق بالحياة والموت" في اجتماع عُقد الشهر الماضي: إذا تم إطلاق صاروخ باليستي عابر للقارات على الولايات المتحدة، فهل يمكن للجيش استخدام نظام الذكاء الاصطناعي Claude التابع للشركة للمساعدة في إسقاطه؟
وفي هذا النوع من المواقف التي قد يكون فيها للقوة التكنولوجية والسرعة دور حاسم في الكشف والرد، يُقاس وقت اتخاذ القرار بالدقائق والثواني، وأثار رد الرئيس التنفيذي لشركة "أنثروبيك" داريو أمودي، استياء البنتاجون، وفقًا للمسؤول الذي اختصر رد أمودي بالقول: "يمكنكم الاتصال بنا وسنجد حلًا".
وأشار التقرير إلى أن اجتماعًا مباشرًا الثلاثاء الماضي بين أمودي ووزير الحرب بيت هيجسيث فاقم الوضع، ويتجه الجانبان الآن نحو صراع حاسم على السلطة حول ما إذا كان ينبغي للحكومة الأمريكية أن تتمتع بحرية التجسس على البشر أو قتلهم باستخدام التكنولوجيا الجديدة فائقة القوة، استنادًا جزئيًا إلى افتراضات متطرفة ومعلومات مغلوطة.
العنصر البشري
عندما أصبح أول مختبر رئيسي للذكاء الاصطناعي يبرم صفقة للعمل على شبكات عسكرية أمريكية سرية في أواخر عام 2024، لم تتوقع شركة "أنثروبيك" أن تجد نفسها في مواجهة مع قادة البنتاجون.
لكن اليوم الجمعة، تنتهي المهلة التي حددها البنتاجون لشركة "أنثروبيك" للتراجع عن اعتراضاتها على استخدام تقنية Claude في مجال الأسلحة ذاتية التشغيل والمراقبة الجماعية للمواطنين الأمريكيين.
أما الخيار الآخر، فقد نقل التقرير عن مسؤولين أنهم قد يستخدمون سلطتهم الحكومية لإجبار الشركة على تسليم التقنية الجديدة، مع إدراج الشركة أيضًا على القائمة السوداء ومنعها من العمل في مجال الدفاع مستقبلًا.
وكان أمودي، في بيان صدر مساء الخميس، أكد أن شركته مستعدة لمواصلة العمل مع البنتاجون، لكنها لن تغير موقفها، وأضاف أن أنظمة الذكاء الاصطناعي الحالية "ليست موثوقة بما يكفي لتشغيل الأسلحة الروبوتية دون تعريض الجنود والمدنيين على حد سواء للخطر"، وأن القوانين الحالية المتعلقة بالمراقبة الداخلية "لا تأخذ في الحسبان الإمكانيات الهائلة لأدوات التجسس التي تعمل بالذكاء الاصطناعي".
وقال في أول تعليق علني: "في حالات محدودة، نعتقد أن الذكاء الاصطناعي قد يقوض القيم الديمقراطية بدلًا من حمايتها.. لم يتم تضمين حالتين من هذا القبيل في عقودنا مع وزارة الحرب، ونعتقد أنه لا ينبغي تضمينهما الآن".
وكانت الولايات المتحدة التزمت ببعض الضوابط على الأسلحة ذاتية التشغيل، وصرحت سابقًا بأنها ستشترط وجود عنصر بشري في جميع قرارات نشر الأسلحة النووية، وقال البنتاجون في بيان إن إدارة ترامب تعتزم الالتزام بهذا التعهد.
ونقل التقرير عن مسؤول دفاعي رفيع المستوى: "لا تزال سياسة الوزارة قائمة على ضرورة وجود عنصر بشري في جميع القرارات المتعلقة باستخدام الأسلحة النووية.. لا توجد أي سياسة قيد الدراسة لوضع هذا القرار في أيدي الذكاء الاصطناعي".
علاقة معقدة
على عكس البندقية أو محرك الطائرة النفاثة، تتطور استخدامات الذكاء الاصطناعي في ساحات المعارك المستقبلية باستمرار، وتسعى الولايات المتحدة جاهدةً لتعزيز استقلالية أسلحتها، وتُعدّ الأنظمة المدعومة بالذكاء الاصطناعي جزءًا لا يتجزأ من معظم الطائرات المُسيَّرة والسفن والطائرات قيد الإنتاج أو المُخطط لها في القوات المسلحة المستقبلية.
وبينما تشرع إدارة ترامب في توسيع نطاق استخدام الذكاء الاصطناعي في الجيش بشكل كبير، يقول خبراء إن نتيجة الصدام قد تشكل مسار العلاقة المتنامية بين صناعة الذكاء الاصطناعي والجيش الأمريكي، ما قد يشير إلى الشركات الرائدة الأخرى بأن تكلفة التعامل مع البنتاجون قد تكون فقدان السيطرة على ابتكاراتها.
كما أن الشخصيات البارزة في تطوير هذه التقنية لطالما كانت لديها مخاوف أخلاقية وقانونية بشأن منح الذكاء الاصطناعي القدرة على اتخاذ قرارات مصيرية أو تعزيز المراقبة بشكل كبير.
لكن إدارة ترامب فقدت بالفعل ثقتها بشركة الذكاء الاصطناعي، حتى مع تزايد فائدة خدماتها لدى الأفراد العسكريين العاديين، وتنقل "واشنطن بوست" عن أحد مصادرها أن الإدارة والجمهوريين "يبحثون عن سبل للتخلص من شركة أنثروبيك نهائيًا".
مع هذا، ونظرًا لأن نظام Claude مستخدم بالفعل في جميع أنحاء البنتاجون، فإن استبعاد "أنثروبيك" والتحول إلى منافس قد يكون مكلفًا.