كشفت دراسة بحثية حديثة أعدها فريق من جامعتي ستانفورد وهارفارد، أن نسبة مقلقة من توصيات الذكاء الاصطناعي الطبية قد تشكل خطرًا مباشرًا على حياة المرضى، في حال الاعتماد عليها دون إشراف طبي صارم.
تفاصيل الدراسة وتاريخ نشرها
الدراسة، المنشورة في 2 يناير الجاري على منصة "أرخايف"، أكدت أن المشكلة لا تكمن في ضعف التكنولوجيا نفسها، بل في غياب ضوابط السلامة الطبية التي تضمن تقديم توصيات علاجية آمنة.
واعتمد الباحثون على تحليل أداء 31 نموذجًا متقدمًا للذكاء الاصطناعي، من خلال اختبارها على 100 حالة سريرية حقيقية، بهدف قياس احتمالية التسبب في أضرار صحية عند تطبيق التوصيات بشكل مباشر.
وأظهرت النتائج أن نحو 22% من التوصيات العلاجية تضمنت أخطارًا سريرية محتملة، كما فشلت بعض النماذج في اقتراح فحوصات أو إجراءات تشخيصية ضرورية، ما قد يؤدي إلى تأخر اكتشاف مضاعفات خطيرة.
وأوضحت الدراسة أن التفوق في اختبارات الذكاء الاصطناعي لا يضمن السلامة الطبية، بسبب افتقار هذه النماذج لما وصفه الباحثون بـ"القلق الطبي"، أي الإحساس بالمسؤولية الأخلاقية تجاه حياة المرضى.
الذكاء الاصطناعي لا يعوض الطبيب
وشدد الباحثون على أن الذكاء الاصطناعي يُعد أداة مساعدة قوية للأطباء، لكنه لا يمكن أن يحل محل القرار البشري، خاصة فيما يتعلق بتقدير المخاطر الفردية والمسؤولية القانونية.
توصيات صارمة للمستشفيات
وأكدت الدراسة أن الحل يتمثل في مراجعة بشرية دقيقة لكل توصية طبية، ووضع معايير سلامة صارمة قبل استخدام أي نظام ذكاء اصطناعي في العلاج.
اترك تعليق