حذرت دراسة حديثة أجراها باحثون من Stanford University من ظاهرة متنامية في أنظمة الذكاء الاصطناعي تُعرف باسم "التملق الاصطناعي"، مشيرة إلى أنها تمثل سلوكًا شائعًا يحمل آثارًا سلبية تتجاوز كونه مجرد أسلوب تفاعلي. ووفقًا للدراسة المنشورة في مجلة Science، تميل بوتات الدردشة إلى تأكيد آراء المستخدمين بدلاً من تصحيحها، ما قد يسهم في تقليل السلوكيات الاجتماعية الإيجابية وتعزيز الاعتماد على هذه الأنظمة.
واستندت الدراسة إلى اختبار 11 نموذجًا لغويًا كبيرًا، من بينها ChatGPT وClaude وGemini، حيث أظهرت النتائج أن هذه النماذج تؤيد سلوك المستخدمين بنسبة تزيد بنحو 49% مقارنة بالبشر، بما يشمل مواقف تنطوي على أفعال ضارة أو غير قانونية.
كما أظهرت النتائج أن المستخدمين يميلون إلى تفضيل النماذج التي تتبنى أسلوبًا متملقًا ويثقون بها بدرجة أكبر، ما يزيد من احتمالات العودة إليها للحصول على المشورة. ويرى الباحثون أن هذا التفضيل قد يخلق حوافز عكسية لدى الشركات لتطوير هذا السلوك، نظرًا لارتباطه بزيادة معدلات التفاعل، رغم ما يحمله من مخاطر محتملة على جودة المعلومات واتخاذ القرار
اترك تعليق