في واقعة صادمة، يرقد الآن رجل في المستشفى مصابًا بالتسمم، بعدما اتبع لمدة ثلاثة أشهر نصائح غذائية تلقاها من تطبيق "ChatGPT" باستبدال كلوريد الصوديوم (ملح الطعام) ببروميد الصوديوم، رغم أن المقال الذي استند إليه كان يشير إلى استخدامه لأغراض أخرى مثل التنظيف.
ووفقًا لدراسة حالة نُشرت هذا الأسبوع في مجلة Annals of Internal"Medicine"، استخدم الرجل البالغ من العمر 60 عامًا، الذي كان يسعى إلى التخلص من ملح الطعام من نظامه الغذائي لأسباب صحية، نموذج اللغة الكبير LLM -هي أنظمة ذكاء اصطناعي (AI) متقدمة مصممة لمعالجة وفهم وإنشاء نص يشبه الإنسان- للحصول على اقتراحات بشأن ما يمكن استبداله به.
وعندما اقترح تطبيق "ChatGPT" استبدال كلوريد الصوديوم (ملح الطعام) ببروميد الصوديوم، أجرى الرجل عملية الاستبدال لمدة ثلاثة أشهر، مع أن المقالة أشارت إلى أن التوصية كانت على الأرجح تشير إلى ذلك لأغراض أخرى، مثل التنظيف.
وفقًا للمعاهد الوطنية للصحة، بروميد الصوديوم هو مركب كيميائي يشبه الملح، ولكنه سام للاستهلاك البشري، كان يُستخدم سابقًا كمضاد للتشنجات ومهدئ، ولكنه يُستخدم اليوم بشكل أساسي في أغراض التنظيف والتصنيع والزراعة.
عندما وصل الرجل إلى المستشفى، أفاد بأنه يعاني من التعب، والأرق، وضعف التنسيق الحركي، وحب الشباب في الوجه، إلى جانب ظهور نتوءات حمراء على الجلد، وعطش شديد وجميعها أعراض لمرض البروم، وهو حالة ناجمة عن التعرض طويل الأمد لبروميد الصوديوم.
وأشارت دراسة الحالة إلى أن الرجل أظهر أيضًا علامات الشك، حيث ادعى أن جاره كان يحاول تسميمه.
كما وُجد أنه يعاني من هلوسات سمعية وبصرية، ووُضع في نهاية المطاف في مصحة نفسية بعد محاولته الهرب.
عولج الرجل واستمر على أدوية مضادة للذهان بالسوائل الوريدية والمحاليل، وخرج من المستشفى بعد ثلاثة أسابيع من المراقبة.
وكتب الباحثون في دراسة الحالة: "تُبرز هذه الحالة أيضًا كيف يُمكن أن يُسهم استخدام الذكاء الاصطناعي في حدوث آثار صحية سلبية ".
وأضافوا: للأسف، لا يمكننا الوصول إلى سجل محادثات "ChatGPT" الخاص به، ولن نتمكن أبدًا من معرفة النتيجة التي تلقاها على وجه اليقين، لأن الاستجابات الفردية فريدة وتعتمد على مدخلات سابقة.
وأشاروا إلى أنه من المستبعد جدًا أن يصف طبيب بشري بروميد الصوديوم عند التحدث مع مريض يبحث عن بديل لكلوريد الصوديوم.
وخلص الباحثون إلى أنه "من المهم مراعاة أن "ChatGPT" وأنظمة الذكاء الاصطناعي الأخرى قد تُسبب أخطاءً علمية، وتفتقر إلى القدرة على مناقشة النتائج بشكل نقدي، وفي النهاية تُغذي انتشار المعلومات المضللة".
وقال الدكتور جاكوب جلانفيل، الرئيس التنفيذي لإحدى شركات التكنولوجيا في سان فرانسيسكو، أنه لا ينبغي على الناس استخدام "ChatGPT" كبديل للطبيب.
وقال جلانفيل، الذي لم يشارك في دراسة الحالة، لشبكة "فوكس نيوز": "هذه أدوات للتنبؤ باللغة - فهي تفتقر إلى الحس السليم وستؤدي إلى نتائج رهيبة إذا لم يطبق المستخدم البشري حسه السليم عند تحديد ما يطلبه من هذه الأنظمة وما إذا كان سيستمع إلى توصياتها".
وتعليقًا على الحادثة، قالت شركة OpenAI، الشركة المُصنِّعة لـ "ChatGPT" ومقرها سان فرانسيسكو، في بيان: "تنص شروطنا على أن التطبيق غير مُصمَّم للاستخدام في علاج أي حالة صحية، وليس بديلاً عن الاستشارة الطبية".