نموذج قائم علي الذكاء الاصطناعي يخترع نازيين من ذوي البشرة السمراء.. خطأ وقع فيه برنامج "جيميناي" المطوّر من جوجل كان ليمرّ مرور الكرام بعد المسارعة إلي تصحيحه. لكنه يسلّط الضوء علي النفوذ المفرط الذي تتمتع به حفنة من الشركات علي هذه التكنولوجيا الأساسية بشكل متزايد.
تحدث الرئيس التنفيذي لمجموعة جوجل سوندر بيتشاي الشهر الماضي عن أخطاء غير مقبولة علي الإطلاق من جانب تطبيق "جيميناي إيه آي" التابع لشركته. بعد أن أجبرته زلات مثل صور لقوات نازية متنوعة عرقياً علي منع المستخدمين مؤقتاً من إنشاء صور لأشخاص.
سخر مستخدمو وسائل التواصل الاجتماعي من "جوجل". وانتقدوها بسبب صور غير دقيقة تاريخياً. مثل تلك التي تظهر امرأة أميركية سوداء تُنتخب عضواً في مجلس الشيوخ في القرن التاسع عشر. فيما لم يحصل ذلك علي أرض الواقع قبل العام 1992.
قال المؤسس المشارك في جوجل سيرجي برين. في "هاكاثون" للذكاء الاصطناعي أقيم أخيراً: لقد حصلت أخطاء بالتأكيد لدينا في عملية توليد الصور. مضيفاً أنه كان ينبغي علي الشركة اختبار برنامج "جيميناي" بشكل أكثر شمولاً.
اعتبر أشخاص جرت مقابلتهم خلال مهرجان "ساوث باي ساوثوست" الشهير للفنون والتكنولوجيا في أوستن. أن تعثّر "جيميناي" يسلط الضوء علي القوة المفرطة التي تمتلكها حفنة من الشركات علي منصات الذكاء الاصطناعي التي تتجه لتغيير طريقة عيش الناس وعملهم.
رأي المحامي ورائد الأعمال في مجال التكنولوجيا جوشوا ويفر أن "جوجل" اعتمدت في برمجيتها هذه في بادئ الأمر مساراً يعتنق بشكل مفرط مبادئ حركة الـ "ووك" المناهضة لكل أشكال التمييز وعدم المساواة. ما يعني أنها ذهبت بعيداً في جهودها لإبراز الشمول والتنوع.
قال تشارلي بيرجوين الرئيس التنفيذي لمختبر فالكيري للعلوم التطبيقية في تكساس إن غوغل صححت أخطاءها بسرعة. لكنّ المشكلة الأساسية مازالت قائمة.. وشبّه إصلاح غوغل لخطأ "جيميناي" بوضع ضمادة علي جرح ناتج عن تلقي رصاصة.
أشار ويفر إلي أنه في حين كانت "جوجل" تتمتع برفاهية الحصول علي الوقت الكافي لتحسين منتجاتها. فإنها الآن تندفع في سباق الذكاء الاصطناعي مع "مايكروسوفت". و"أوبن إيه آي" و"أنثروبيك" وغيرها. مضيفاً أنهم يتحركون بسرعة تتخطي حدود معارفهم.
كما أن الأخطاء التي ارتُكبت في إطار الجهود الرامية إلي مراعاة الحساسية الثقافية تشكّل نقاطاً متفجرة. خصوصاً في ضوء الانقسامات السياسية المتوترة في الولايات المتحدة. وهو الوضع الذي تفاقم بسبب منصة "إكس" المملوكة للملياردير إيلون ماسك.
قال ويفر: لا يتواني الناس علي تويتر "إكس" حالياً عن الاحتفال بأي حدث محرج في مجال التكنولوجيا. مضيفاً أن رد الفعل علي الزلة التي حصلت عبر برنامج جيميناي كان مبالغاً فيه.
ومع ذلك. أكد ويفر أن هذه الحادثة أثارت تساؤلات حول درجة تحكّم أولئك الذين يستخدمون أدوات الذكاء الاصطناعي بالمعلومات.
أشار إلي أنه في العقد المقبل. يمكن أن تتجاوز كمية المعلومات- الصحيحة منها أو الخاطئة- التي يولّدها الذكاء الاصطناعي تلك التي يولّدها البشر. ما يعني أن أولئك الذين يتحكمون في ضمانات الذكاء الاصطناعي سيكون لهم تأثير كبير علي العالم.
من جهتها قالت كارين بالمر. وهي صانعة محتوي بالواقع المختلط حائزة جوائز لدي شركة "إنترأكتيف فيلمز ليمتد" Interactive Films Ltd. إنها تتخيل مستقبلاً يركب فيه شخص ما سيارة أجرة آلية. وإذا قام الذكاء الاصطناعي بمسح وجهك واعتقد أن هناك أي انتهاكات عالقة ضدك.. سينقلك إلي مركز الشرطة المحلي. وليس الوجهة المقصودة.
يتم تدريب الذكاء الاصطناعي باستخدام كميات هائلة من البيانات ويمكن استخدامه في مجموعة متزايدة من المهام. بدءاً من إنشاء الصور أو الصوت وحتي تحديد ما إذا كان شخص ما مخوّلاً الحصول علي قرض. أو ما إذا كان فحص طبي يكشف الإصابة بالسرطان.
لكن هذه البيانات تأتي من عالم مليء بالتحيز الثقافي والمعلومات المضللة وعدم المساواة الاجتماعية. فضلاً عن محتويات عبر الإنترنت يمكن أن تتضمن محادثات غير رسمية بين أصدقاء أو مشاركات استفزازية ومبالغ فيها عن عمد. ويمكن لنماذج الذكاء الاصطناعي أن تكرر هذه العيوب.
مع "جيميناي" حاول مهندسو جوجل إعادة التوازن للخوارزميات لتقديم نتائج تعكس التنوع البشري بشكل أفضل.. لكن جاءت هذه الجهود بنتائج عكسية.
قال المحامي المتخصص بالتكنولوجيا أليكس شهرستاني. وهو شريك إداري في شركة المحاماة "بروميس ليغال" المتعاونة مع شركات التكنولوجيا: قد يكون من الصعب حقاً معرفة موضع التحيز وكيف جري تضمينه.
يعتقد هو وآخرون أنه حتي المهندسين ذوي النوايا الحسنة المشاركين في تدريب الذكاء الاصطناعي لا يمكنهم إلا أن يجلبوا خبراتهم الحياتية وتحيزهم اللاواعي إلي العملية.
كما انتقد بورجوين من مختبر فالكيري شركات التكنولوجيا الكبري علي إبقاء أعمالها الداخلية في مجال الذكاء الاصطناعي التوليدي مخفية في صناديق سوداء. بحيث لا يتمكن المستخدمون من اكتشاف أي انحيازات مخفية. وقال: لقد تجاوزت قدرات النواتج فهمنا للمنهجية بكثير.
يدعو خبراء وناشطون إلي مزيد من التنوع في الفرق التي تنشئ الذكاء الاصطناعي والأدوات ذات الصلة. وزيادة الشفافية علي صعيد كيفية عملها. خصوصاً عندما تعيد الخوارزميات كتابة طلبات المستخدمين لتحسين النتائج
اترك تعليق