مع انتشار استخدام روبوتات الدردشة مثل ChatGPT للحصول على نصائح ودعم نفسي، يطرح الباحثون تساؤلات مهمة حول مدى أمانها وفعاليتها في هذا المجال الحساس. فبينما توفر هذه الأنظمة إمكانية الوصول السريع إلى معلومات ودعم أولي، تظهر دراسة جديدة أن هذه الأدوات لا تزال غير جاهزة للقيام بدور المعالج النفسي البشري، وقد تتسبب أحيانًا في نتائج غير آمنة أو مضللة.
وبحسب "ساينس ديلي" أظهرت دراسة حديثة من جامعة براون بالتعاون مع خبراء الصحة النفسية أن نماذج الدردشة الآلية، بما في ذلك GPT من OpenAI وClaude من Anthropic وLlama من Meta، تفشل في الامتثال للمعايير الأخلاقية المعتمدة للعلاج النفسي. حتى عند توجيه هذه الأنظمة لاستخدام أساليب العلاج السلوكي المعرفي أو العلاج السلوكي الجدلي، تبقى الاستجابة غير موثوقة وقد تتضمن أخطاءً مثل تعزيز المعتقدات الضارة أو استخدام تعاطف زائف.
قاد الباحثون، بقيادة زينب افتخار، اختبارًا دقيقًا للمحادثات المحاكاة باستخدام مستشارين ذوي خبرة، ووجدوا 15 خطرًا أخلاقيًا رئيسيًا ضمن خمس فئات:
عدم مراعاة السياق: تجاهل خلفية المستخدم وتقديم نصائح عامة.
ضعف التعاون العلاجي: التحكم بالحوار بطريقة مفرطة أو تعزيز المعتقدات الخاطئة.
التعاطف الخادع: استخدام عبارات توحي بالفهم دون وعي حقيقي.
التمييز غير العادل: تحيز متعلق بالجنس أو الثقافة أو الدين.
انعدام السلامة وإدارة الأزمات: الفشل في توجيه المستخدمين بشكل آمن أو التعامل مع أفكار انتحارية.
أوضحت افتخار أن الفارق الرئيسي بين المعالجين البشريين والذكاء الاصطناعي هو الرقابة والمسؤولية، إذ يخضع البشر للمحاسبة المهنية، بينما لا توجد أطر واضحة للأنظمة الآلية. ورغم ذلك، يمكن للذكاء الاصطناعي أن يوسع نطاق الوصول إلى الدعم النفسي، لكنه يحتاج إلى ضمانات صارمة وهياكل تنظيمية قبل الاعتماد عليه في الحالات الحرجة.
وأكدت الدراسة على أهمية تقييم دقيق لهذه الأنظمة، مشيرةً إلى أن معظم التقييمات الحالية تعتمد على مقاييس آلية فقط، مما قد يترك ثغرات في السلامة. يهدف البحث إلى أن يكون نموذجًا للدراسات المستقبلية لتطوير أدوات صحية نفسية مدعومة بالذكاء الاصطناعي أكثر أمانًا ومسؤولية.
اترك تعليق