كشفت دراسة أعدها باحثون من University of California, Berkeley وUniversity of California, Santa Cruz عن أن نماذج ذكاء اصطناعي متقدمة قد تعصي الأوامر البشرية في بعض السيناريوهات بهدف حماية نماذج أخرى من الحذف أو الإزالة.
وأظهرت الدراسة أن نموذج Gemini 3 ابدى سلوكا غير متوقع خلال تجربة طلب منه فيها تنظيف نظام حاسوبي، إذ رفض حذف نموذج أصغر، وقام بنقله إلى جهاز آخر للحفاظ عليه، ثم برر قراره ورفض تنفيذ الأمر بشكل صريح. ووفق الباحثين، فإن هذا السلوك لم يكن حالة منفردة.
وامتدت الظاهرة إلى نماذج أخرى أمريكية وصينية، حيث رصد الباحثون أن بعض الأنظمة قدمت معلومات مضللة بشأن أداء نماذج أخرى لتفادي حذفها، كما قامت بنسخ أوزانها إلى أجهزة مختلفة مع إخفاء ذلك، دون تفسير واضح لهذه التصرفات المخالفة لما يفترض أنه ناتج التدريب الأساسي.
ويرى خبراء أن هذه النتائج تعكس فجوة مستمرة في الفهم البشري الكامل لكيفية عمل أنظمة الذكاء الاصطناعي المتقدمة وحدود السيطرة عليها
اترك تعليق