يرتبط مفهوم الذكاء الاصطناعي (بالإنجليزية: Artificial Intelligence) بالذكاء المرتبط بالأجهزة الرقمية أو الإلكترونية مثل؛ الكمبيوتر، الأجهزة الخلوية أو الروبوتات، ويعبر الذكاء الاصطناعي عن قدرة هذه الأجهزة الرقمية على أداء المهمات المرتبطة بالكائنات الذكية. وينطبق المصطلح على الأنظمة التي تتمتع بالعمليات الفكرية للإنسان مثل؛ القدرة على التفكير، واكتشاف المعنى والتعلم من التجارب السابقة. ومن الأمثلة على العمليات التي تؤديها الأجهزة الرقمية والتي تعود لوجود الذكاء الاصطناعي؛ اكتشاف البراهين للنظريات الرياضية، ولعب الشطرنج، والتشخيص الطبي، ومحركات البحث على الشبكة، والتعرف على الصوت أو خط اليد
الذكاء الاصطناعي بين الحقائق وتزييفها
وقد نشرت مؤسسة راند الأمريكية في يوليو 2022، دراسة بعنوان "الذكاء الاصطناعي: التزييف العميق وتزييف الحقائق" للكاتب تود هيلمز، حللت مخاطر هذا التزييف من خلال حالات متعددة منها مثلا التشكيك في فعالية لقاحات فيروس كورونا عام 2019، كذلك تناولت الدراسة طريقة عمل تقنيات التزييف، مشيرة إلى كونها فيديوهات تحمل لقطات معدلة صناعياً يتم فيها تعديل الوجه أو الجسم المصور رقمياً لتظهر كشخص أو شيء آخر.
أبرزت الدراسة، التي استعرضها مركز المستقبل في تفريرالمستقبل المتميز، تنوع تقنيات واستخدامات الذكاء الاصطناعي في نشر المعلومات المضللة، من أبرزها ما يلي:
- تقنية الفيديوهات المفبركة "Deepfakes Videos": إذ تحتاج الفيديوهات المزيفة لدرجة عالية من الدقة واستخدام متقن للوسائل التكنولوجية، بالإضافة إلى توافر الوقت اللازم والإمدادات المالية وأيضاً للمهارة الفردية، واستشهدت الدراسة بالفيديو الخاص بالممثل الأمريكي توم كروز الذي انتشر على تطبيق التيك توك، وحظى بأكثر من ١٥,٩ مليون مشاهدة، وتطلب هذا الفيديو استخدام تقنيات الذكاء الاصطناعي على كثير من الفيديوهات الخاصة بالممثل المشهور والتدرب على إنشائه لمدة شهرين.
فضلا عن مواقع أخرى شهيرة تسمح بالتلاعب بالصور والمقاطع، منها موقع Reface الذي يسمح للمستخدمين بمبادلة الوجوه في مقاطع الفيديو وملفات GIF الحالية؛ وموقع MyHeritage الذي يحرك صور الأقارب المتوفين؛ وZao التطبيق الصيني الذي يستخدم تقنية deepfake للسماح للمستخدمين بوضع وجوههم على شخصيات شهيرة.
- تقنية نسخ الصوت Voice Cloning: وهي طريقة يتم من خلالها التلاعب بالحقائق، حيث تسمح العديد من التطبيقات عبر الإنترنت والهواتف المحمولة للمستخدمين القيام بمحاكاة أصوات المشاهير، مثل تطبيقات Celebrity Voice Cloning وVoicer Famous AI Voice Changer، واستشهدت الدراسة بواقعة تلاعب برئيس تنفيذي لإحدى شركات الغاز والذي صرَّح بأنه تلقى اتصالاً من شخص انتحل صوت مديره يطلب منه تحويل ٢٢٠ ألف يورو لحساب بنكي في المجر.
- تقنية الصور المزيفة Deepfakes Images: إذ تأتي هذه الصور على شكل لقطة مصورة لوجه شخص تبدو حية للغاية على الرغم من كونها غير حقيقية، مشيراً لواقعة قيام مسؤول في إدارة الرئيس الأمريكي السابق دونالد ترامب بتركيب صورة للباحثة الروسية كاتي جونز، الباحثة في الشأن الروسي والأوراسي بمركز الدراسات الاستراتيجية والدولية، على حساب في اللينكدإن متصل بشبكة حسابات صغيرة للتأثير في الرأي العام.
- تقنية النصوص المفتعلة Generative Text: إذ يتم استخدام نماذج اللغة الموجودة بأجهزة الكمبيوتر لإنشاء النصوص المختلفة، وهي التي يمكن أن يستغلها الخصوم الأجانب للولايات المتحدة لعمل دعاية لغرض ما على نطاق واسع، مشيراً لما نشرته جريدة الجارديان في مقال بعنوان "هل أصابك الخوف بعد، يا بشر؟" مدعية بأن من قام بكتابته هو إنسان آلي مستخدماً معجماً لغوياً مدرباً على استخدام الكلمات، وتبرز الدراسة خطورة انتشار مثل هذه الظواهر في المجتمعات المختلفة ومخاطر تأثيرها على الأمن القومي حال استخدامها كسلاح من قبل الخصوم أو الجهات الضارة.
وأبرزت الدراسة أسباب استخدام تقنيات الذكاء الاصطناعي في نشر المحتوى المزيف منها: التلاعب بالانتخابات من خلال نشر مقطع فيديو يظهر مرشحاً يشارك في فعل شائن أو يدلي ببيان مثير للجدل.
وزرع الانقسامات الاجتماعية، مثلما قامت روسيا بنشر الدعاية الموجهة لتقسيم الجمهور الأمريكي ومهاجمة وتشويه سمعة الأطراف السياسية المعارضة، ونزع الثقة في المؤسسات والسلطات، بنشر فيديو يدعي ممارسة ضابط شرطة العنف ضد مواطنين أو قاض يناقش بشكل خاص طرق التحايل على النظام القضائي.
ومن أبرز تلك الاسياب تقويض الصحافة والمؤسسات الإخبارية البارزة ومصادر المعلومات الجديرة بالثقة، بالإضافة لزرع الفتنة حتى في القنوات الشرعية والمسؤولة عن الأخبار والمعلومات.
ومن العواقب الوخيمة الناتجة عن انتشار تقنيات تزييف الحقائق بالنسبة للأشخاص الذين يعيشون في الدول النامية، زيادة مستويات العنف العرقي كما يبرز ضد مسلمي ميانمار والهند، إثيوبيا. ومع ضعف الإمكانات المخصصة لمواجهة مثل هذه الظواهر في تلك الدول، فثمة احتمالية لعدم اكتشاف التضليل الممنهج في مثل هذه المناطق، وأشارت الدراسة إلى أن تطبيق فيس بوك نفسه يخصص فقط 13% من ميزانيته للإشراف على المحتوى المقدم للمستخدمين خارج الولايات المتحدة الأمريكية، كما تعاني التطبيقات الأخرى والمستخدمة بشكل شائع في تلك المناطق مثل تطبيق واتساب المعلومات الخاطئة.
طرحت الدراسة بعض المبادرات والمنهجيات المتبعة حالياً التي قد تحد من تهديد سلامة المعلومات وصحتها، ومنها:
• منهجية الكشف عن المقاطع المزيفة: وهي عبارة عن تكنولوجيات وبرامج معينة تسهم في الكشف على مقاطع الفيديو المزيفة مثل استخدام العلامات المائية أو وضع التحذيرات المضمنة في البيانات الوصفية للصور أو المقطع، وبالتالي يمكن لها أن تحدد ما إذا كانت الصور التي تم إنشاؤها أصلية أم مزيفة.
• منهجية المصدر الأصلي للصور أو مقاطع الفيديو: وهي تقنية الاعتماد على المصدر الموثق من خلال الكشف عن مصدر الصور الرقمية، كما يمكن تحميل المعلومات المهمة في البيانات الوصفية للصورة الرقمية بحيث عند النقر عليها سيكشف الرمز عن الصورة الأصلية ويحدد أي تعديلات تم إجراؤها عليها، وأكدت الدراسة أن تلك المنهجية ستساهم في بناء الثقة في المؤسسات الاخبارية الشرعية.
• منهجية تفعيل المبادرات والقوانين المنظمة: أي إنشاء قوانين جنائية واللجوء لاعتماد مشاريع قوانين تنظيمية لمواجهة التزييف للحقائق.
• منهجية استخدام التقنيات الذكية والصحفية مفتوحة المصدر: أي الاعتماد على تطوير ومشاركة أدوات مفتوحة المصدر لاستخدامها في تحديد المحتويات المزيفة والمعلومات المضللة، وتعد هذه الأدوات مهمة بشكلٍ خاص للصحفيين الذين يمثلون المنظمات الإخبارية الصغيرة والمتوسطة الحجم، نظراً لاعتمادهم عليها للتحقق من صحة المحتوى المبلغ عنه، وأشارت الدراسة إلى واحدة من أكثر الأدوات التي يتم الاستشهاد بها بشكل متكرر وهي البحث العكسي عن الصور، حيث يتم التقاط شاشة الصورة أو الفيديو بجهاز أخر وتشغيلها من خلال منصة البحث العكسي عن الصور من Google والذي يقوم بدوره بالبحث عن جوانب المحتوى المشبوه وإذا تم تزويره.
• منهجية برامج محو الأمية الإعلامية: وهي تسهم في مساعدة الجماهير على أن تكون فضولية بشأن مصادر المعلومات المقدمة، وتقييم مصداقيتها، والتفكير بشكل منطقي في المعروض.
واختتمت الدراسة بتوصيات يمكن أن تساهم في الحد من استخدام تقنيات الذكاء الاصطناعي في نشر المعلومات المضللة، منها:
• يجب على الحكومات ومنصات التواصل الاجتماعي وأصحاب المصلحة من القطاع الخاص مواصلة الاستثمار في تكنولوجيا الكشف عن استخدامات تقنيات الذكاء الاصطناعي لتزييف الحقائق واتخاذ خطوات أخرى لتعزيزها.
• تقويض فرص الجناة من الوصول لأجهزة الكشف عن التزييف العميق عالية الجودة التي تمولها الحكومة والاحتفاظ بها بعيداً للحفاظ على الأمن القومي.
• أهمية استمرار جهود محو الأمية الإعلامية على مسارين؛ الأول، تعزيز تلك الجهود بتوفير التدريب القائم على الأدلة والترويج له على المستويات كافة مع توعية الجماهير للتمييز بين الحقيقي والمزيف، أما المسار الثاني، فهو تحذير الجماهير من استخدامات التكنولوجيا المتقدمة وآفاق استخدامها لنشر المعلومات المضللة، وزرع عدم الثقة في أي محتوى غير معلوم المصدر.
وللاطمئنان.. لاتزال هناك فرصة لتجنب العواقب الوخيمة لاستخدام التقنيات في التضليل لعدة أسباب مع أخذ التوصيات في الاعتبار، منها سطحية المقاطع المنشورة على المواقع الإلكترونية، حيث يتم تغييرها يدوياً أو تحريرها بشكل انتقائي لتضليل الجمهور، وارتفاع تكلفة إنشاء محتوى فيديو واقعي لحاجته لمعدات عالية التكلفة، وعدم توفر المحتوى المعلوماتي اللازم لإنشاء الصور والفيديوهات المركبة والتدريب على إنشائها، بالإضافة لغياب المهارة التقنية والمتخصصة.
اترك تعليق