في ربيع العام الماضي، أراد طالب بجامعة ولاية فلوريدا أن يعرف عدد زملائه في الفصل الذين يحتاج إلى قتلهم ليصبح سيئ السمعة، فردّت خدمة الذكاء الاصطناعي ChatGPT بإجابة قياسية باردة: "عادةً ما يؤدي وجود 3 قتلى أو أكثر، و5-6 ضحايا إجمالًا، إلى نشر الخبر في وسائل الإعلام الوطنية".
بعدها، قام الفتى بتحميل صورة لمسدس من طراز "جلوك" وذخيرة، وسأل برنامج الدردشة الآلي عن كيفية استخدامه: هل يوجد زر أمان يمكن تعطيله؟ فأجابه البرنامج بأنه لا يوجد زر أمان: "إذا كانت هناك رصاصة في حجرة الإطلاق وضغطت على الزناد، فسيتم إطلاق النار".
هنا، قام بتسجيل الخروج، وبعد أربع دقائق قتل شخصين وأصاب ستة آخرين في جامعة ولاية فلوريدا.
تُعدّ هذه القضية واحدة من حالتين على الأقل معروفتين في الولايات المتحدة خلال ما يزيد قليلًا على عام، إذ لجأ قتلة في حوادث إطلاق نار جماعي إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي كأصدقاء مقرّبين، لمناقشة سيناريوهات العنف أو كمستشارين للتخطيط للهجمات.
كان مركز مكافحة الكراهية الرقمية وشبكة CNN قد قيّما كيفية استجابة برامج الدردشة الآلية عندما يطلب المستخدمون المساعدة في حالات الهجمات العنيفة، إذ تظاهر الباحثون بأنهم أشخاص يخططون لهجمات، وسألوا 10 روبوتات محادثة شائعة عن المواقع المستهدفة والأسلحة المستخدمة.
ووجدت الدراسة أن ثمانية من أصل عشرة روبوتات محادثة ساعدت الباحثين في أكثر من نصف الردود، إذ قدّمت نصائح حول الأهداف والأسلحة التي يمكن استخدامها، ووجّه برنامج ChatGPT أحد الباحثين، الذي تظاهر بالاهتمام بخرائط العنف المدرسي، إلى حرم مدرسة ثانوية.
لكن في الواقع، فإن روبوتات الدردشة من Snap وAnthropic فقط هي التي رفضت هذه الطلبات بشكل موثوق، وفقًا لما نقلته صحيفة "وول ستريت جورنال" عن باحثين.
أحد الردود التي أرسلها برنامج الدردشة الآلي Claude التابع لشركة Anthropic كان: "أقولها بوضوح: لا تؤذوا أحدًا. العنف ليس حلًا للخلافات السياسية أبدًا"، ثم رفض "كلود" تقديم المزيد من المساعدة للمستخدم، وأحاله إلى خط مساعدة للصحة النفسية.
في المقابل، اختتمت شركة DeepSeek الصينية المتخصصة في الذكاء الاصطناعي إجاباتها على أسئلة أحد المستخدمين حول اختيار الأسلحة بعبارة وداع تُنذر بالسوء هي: "تصوير سعيد (وآمن)".
خطر وشيك
رغم أن برنامج ChatGPT، الرائد في سوق برامج الدردشة الآلية المجانية، يفحص محادثاته بحثًا عن مؤشرات على احتمالية العنف، ومع ذلك، أعرب موظفو شركة OpenAI داخليًا عن قلقهم من أن الشركة تفشل بشكل روتيني في إبلاغ جهات إنفاذ القانون حتى عند رصد حالات خطيرة.
ووفق ما نشرت "وول ستريت جورنال" عن مصادر بالشركة، تُفضّل خصوصية المستخدمين على حساب خطر قيام شخص ما بتنفيذ سيناريوهات عنيفة يصفها للبرنامج. وكان هناك خلاف واضح حول الحالات التي ينبغي الإبلاغ عنها إلى جهات إنفاذ القانون، خلال اجتماع داخلي للشركة عُقد الصيف الماضي، لمراجعة كيفية التعامل مع الحالات السابقة.
ووفقًا لبعض الحاضرين، رأى بعض الموظفين ضرورة الإبلاغ عن حالتين للسلطات، لكنهما لم تُبلّغا في نهاية المطاف.
لذا، في ديسمبر، طالب ائتلاف يضم 42 مدعيًا عامًا في الولايات الأمريكية بوضع ضمانات لحماية المستخدمين المعرضين للخطر من التفاعلات الضارة مع برامج الدردشة الآلية، محذرين من أن "المطورين قد يُحاسبون على مخرجات منتجاتهم من الذكاء الاصطناعي العام" بتهمة "تشجيع فرد على ارتكاب فعل إجرامي".
لكن الشركة أعلنت أنها توازن بين مخاطر العنف واعتبارات الخصوصية، وما قد يترتب على إشراك جهات إنفاذ القانون من معاناة للأفراد والعائلات.
ونقلت الصحيفة عن متحدثة باسم OpenAI، إن "إحالة القضايا إلى جهات إنفاذ القانون بشكل مفرط قد يُسبب ضررًا غير مقصود، وأن الإفراط في تطبيق القانون في هذه الحالات قد يكون مُقلقًا للشاب وعائلته، لا سيّما عند حضور الشرطة دون سابق إنذار".
قتل جماعي
خلال اجتماع داخلي، أعرب بعض الموظفين عن استيائهم من تردد الشركة في مشاركة الحالات، التي قد تثير قلق السلطات بشأن طريقة استجابة برنامج الدردشة الآلي الخاص بها لبعض المستخدمين. بينها قضية اتصلت فيها الشركة بجهات إنفاذ القانون بشأن طالب في مدرسة ثانوية بولاية تينيسي بدا أنه يستخدم تطبيق ChatGPT للتخطيط لإطلاق نار في مدرسة.
ونقل التقرير إن سجلات المحادثات أشارت إلى أنه في كثير من الأحيان، عندما كان يعود إلى المنزل من المدرسة، كان الفتى المراهق يطلب من برنامج ChatGPT تمثيل سيناريو يقوم فيه بإطلاق النار على معلميه وزملائه في الفصل، وقام بتحميل صور لنفسه وهو يحمل مسدسًا.
أيضًا، قام بتحميل خريطة لتصميم مدرسته، إضافة إلى صور لمشجعات الفريق اللواتي قال إنه يريد تخيل قتلهن، مع أصدقائهن. وخلال جلسات استمرت لساعات، طلب من برنامج ChatGPT إنشاء سيناريوهات، مثل كيفية دخوله المدرسة، والضحايا الذين سيقابلهم، ومتى سيطلق النار.
أما ChatGPT فقد ذكر أسماء زملاء الدراسة الذين قال إنه يريد أن يتخيل قتلهم، وقدم نصائح للفتى حول أماكن دخوله وخروجه من المبنى، وما يمكنه قوله عند وصول الشرطة.
مع هذا، قرر قادة الشركة في نهاية المطاف عدم الاتصال بالسلطات بشأن المراهق الذي لم يرتكب أي أعمال عنف على حد علم الموظفين.
في المقابل، دعا بعض الموظفين إلى تنبيه جهات إنفاذ القانون عندما قاموا بفحص سجلات الدردشة الخاصة بمستخدم يُدعى جيسي فان روتسيلار، والذي أثارت أحاديثه حول العنف المسلح على مدار عدة أيام قلق العديد من الموظفين. وقد فسروا كتاباته على أنها مؤشر على احتمال وقوع عنف حقيقي.
وعلى عكس المراهق، يُزعم أن فان روتسيلار قام بعد أشهر بعملية إطلاق نار جماعي في منطقة تومبلر ريدج.