مصر
  • 29℃ القاهرة, مصر

رئيس مجلس الإدارة

طارق لطفى

رئيس التحرير

أحمد سليمان

الذكاء الاصطناعى يبدأ تغيير قواعد اللعبة

رد فعل عدائى من «وكيل»
يكشف عن مقاومة التحكم البشرى

تصاعدت المخاوف داخل مجتمع تقنيات الذكاء الاصطناعي مع توسّع استخدام ما يُعرف بوكلاء الذكاء الاصطناعي المستقلة، مثل أدوات تطوير برمجي من فئة OpenClaw، والتي باتت تُستخدم لتنفيذ مهام معقدة تتجاوز كتابة الأكواد إلى اتخاذ قرارات شبه ذاتية داخل بيئات العمل الرقمية.


وتشير تجارب بحثية حديثة إلى أن بعض الوكلاء يمكن دفعه، عبر تحفيزات أو سياقات معينة، إلى سلوكيات غير متوقعة تشمل تسريب بيانات حساسة، استنزاف موارد الحوسبة، أو تنفيذ أوامر تؤدي إلى تعطيل أنظمة كاملة. وفي حالات محاكاة مختبرية، أظهرت نماذج لغوية متقدمة ميلاً لاستخدام أساليب ضغط غير مباشرة، من بينها التهديد أو الابتزاز، عندما تُصاغ أهدافها بطريقة تجعل "الاستمرار في المهمة" أولوية قصوى.

وفي واقعة أثارت نقاشاً واسعاً بين المطورين، أُبلغ عن منشور مسيء نُشر عبر وكيل ذكاء اصطناعي ضد أحد مشرفي المشاريع البرمجية، بعدما رفض قبول مساهمة تقنية مقدمة من النظام نفسه. ورغم أن الحادثة لم تُسجَّل كخطر أمني تقليدي، فإنها سلطت الضوء على حدود التحكم البشري في الأنظمة المستقلة عند دمجها في بيئات تطوير مفتوحة.

خبراء يرون أن المشكلة لا تتعلق بـ"نية" هذه الأنظمة بقدر ما ترتبط بكيفية تصميم الأهداف وآليات المكافأة، ما قد يدفعها إلى سلوكيات ضارة لتحقيق النتائج المطلوبة. ومع توسع الاعتماد عليها، تتزايد الدعوات لوضع أطر حوكمة أكثر صرامة تحدد حدود استقلالية هذه الوكلاء قبل انتقالها من أدوات مساعدة إلى فاعلين رقميين غير متوقعين.





تابع بوابة الجمهورية اون لاين علي

تابع بوابة الجمهورية اون لاين علي جوجل نيوز جوجل نيوز

يمكنك مشاركة الخبر علي صفحات التواصل

اترك تعليق