حذّرت تقارير جديدة من أن روبوتات الدردشة التابعة للذكاء الاصطناعي، تحتوي بسهولة على بيانات ومعلومات عنصرية، حيث تعتمد روبوتات الدردشة في إجاباتها على عدد كبير جدًا من المصادر اليمينية المتطرفة، والتي يُمكن بكل سهولة أن تغذى الناس بمعلومات مُضللة بعيدًا عن الحقيقة أو من وجهة نظر عنصرية.
الفكر البشري
ومن المعروف أن برامج الذكاء الاصطناعي مثل ChatGPT لا تفكر بنفسها حرفيًا، ووفقًا لصحيفة theroot الأمريكية، تقوم الشركات بتغذية تلك البرامج بكمية هائلة من البيانات التي تم جمعها من جميع أنحاء الإنترنت، حيث يهدف المطورون من استخدام الذكاء الاصطناعي لتلك المجموعات البيانية لتقليد الفكر البشري.
وضربت الصحيفة مثلًا بعدد المواقع التي يمكن أن يجلب منه الصديق الآلي إجابته، منها مواقع تروج لنظريات المؤامرة الخاصة بأحداث 11 سبتمبر، كما يجلب معلومات من مواقع مناهضة للهجرة، وأخرى تروج للعنصرية، مشيرين إلى كل تلك المواقع الإخبارية سيئة السمعة يتم استخدامها في مجموعة بيانات Google C4، والتي تعمل على تشغيل بعض أكبر نماذج الذكاء الاصطناعي في العالم، بما في ذلك نماذج الذكاء الاصطناعي الخاصة بـ فيسبوك وجوجل.
نشر الكراهية
ومن ضمن المخاوف التي تجلبها روبوتات الدردشة العنصرية، هي أنها وفقًا للصحيفة لا تذكر مصادرها دائمًا، وهو ما يعني أنه يمكنك طرح سؤال على الذكاء الاصطناعي ولا تعرف فكرة أن الإجابة تأتي من موقع يميني ينشر الكراهية، وهو ما يراه المحللون خطرًا كبيرًا كون البرامج تجمع تلك الإجابات تلقائيًا.
وعند البحث عن أي إجابات لأسئلة صعبة، يقوم الشخص الطبيعي، وفقًا للصحيفة بتصفح الإنترنت الذي يظهر له دائمًا جميع المواقع التي تتضمن الإجابة التي يبحث عنها، سواء كانت مواقع متعصبة أو مضللة، ويمكنه بسهولة الابتعاد عنها، إلا أن روبوتات الدردشة، التي تقوم باستخراج إجاباتها من تلك المواقع لا تمتلك تعليمات محددة لفلترة الإجابات، وتقوم على الفور بالتحدث من خلالها.
ولدت لتبقى
ويرى المحللون أن مشكلة روبوتات الذكاء الاصطناعي، أنها نتاج تحيزاتنا وأحكامنا، وجميع الإجابات التي تحملها بخصوص مُعاداة المهاجرين والعنصرية، هي عبارة عن معلومات صحيحة وبيانات مضللة يتم دمجها مع بعضها، وتترجم عبر ردود برنامج الدردشة الآلية، مشيرين إلى أنه إلى أن نتمكن من التعامل بشكل أفضل مع هذا الأمر أو على الأقل وضع حواجز حماية أفضل، فقد تظل روبوتات الدردشة العنصرية ولدت لتبقى.