شهدت تطبيقات وخدمات الذكاء الاصطناعي نموًا هائلًا خلال العام الماضي. ويبدو أن هذا النمو سيستمر لمدة طويلة. إذ يُدمج الذكاء الاصطناعي الآن في كل التطبيقات والأدوات التي نستخدمها يوميًا. مثل: البريد الإلكتروني. والتطبيقات المكتبية. وأدوات تحرير الصور. وأنظمة التشغيل مثل: ويندوز. وأندرويد. بالإضافة إلي بيئات التطوير المتكاملة "IDEs" مثل: Visual Studio. وغيرها الكثير.
وينشئ المطورون الآن آلاف التطبيقات الجديدة التي تستفيد من نماذج الذكاء الاصطناعي. ومع ذلك. لم يتمكن أحد في هذا السباق حتي الآن من حل مشكلات الأمان التي يواجهها المستخدمون. ومنها: تسريب البيانات السرية. واختراق الحسابات والأجهزة من خلال أدوات الذكاء الاصطناعي. ناهيك عن وضع ضمانات مناسبة ضد هجمات "الذكاء الاصطناعي الشرير" المستقبلية. لذلك سيتعين عليك اكتساب بعض المهارات لتأمين بياناتك عند استخدام هذه الأدوات. حتي تُحل هذه المشكلات.
تُشكل خصوصية البيانات مصدر قلق متزايد مع زيادة شعبية روبوتات الدردشة التي تستند في عملها إلي الذكاء الاصطناعي. خاصة مع استخدام البيانات للتدريب. وحدوث تسريبات غير مقصودة.
إذ تنص سياسة الخصوصية التي تتبعها "OpenAI". الشركة المطورة لروبوت ChatGPT. إلي أن جميع المحادثات مع روبوت "ChatGPT" تُحفظ وتستخدم لأغراض متعددة. منها: تدريب إصدارات نماذج "GPT" الجديدة لتحسين المنتج. ومنع انتهاكات شروط الخدمة.
كما تمتلك معظم النماذج اللغوية الشائعة الأخري ? بما يشمل: Gemini من جوجل. وClaude من Anthropic وCopilot من مايكروسوفت ? سياسات مماثلة. إذ يمكنها جميعها حفظ المحادثات بالكامل.
ومع ذلك. فقد حدثت بالفعل تسريبات غير مقصودة لبيانات المستخدمين بسبب أخطاء برمجية. حيث ظهرت العناوين الخاصة بسجل محادثات المستخدمين مع ChatGPT بشكلي عشوائي لدي مُستخدمين آخرين.
ويُمكن أن يشكل استخدام البيانات للتدريب أيضًا خطرًا علي الخصوصية. إذ قد يُقدم مساعد الذكاء الاصطناعي معلوماتك إلي شخص ما دون علمك إذا كان يعتقد أنها ذات صلة بالرد. بالإضافة إلي ذلك فقد استغل المهاجمون إصدارت "GPTs" - المتاحة في متجر GPT. التي طُورت لأداء مهام محددة ? لشن هجمات متعددة لسرقة المحادثات. مما يُشير إلي أن هذا الخطر لن يزول قريبًا.
لذلك» يجب عليك دائمًا تذكر أن محادثاتك مع Gemini و ChatGPT. وأي روبوتات دردشة أخري قد تكون سببًا في اختراقك. ومن المهم أن تتخذ الخطوات اللازمة لحماية بياناتك عند استخدامها.
ماذا تفعل لحماية بياناتك عند استخدام أدوات الذكاء الاصطناعي؟
1- لا تشارك أي معلومات شخصية مع روبوتات الدردشة:
2- تجنب مشاركة أي وثائق تحتوي علي معلومات حساسة أو سرية:
3- استخدم إعدادات الخصوصية:
الحد من مخاطر تطبيقات الأطراف الخارجية والإضافات:
احرص علي اتباع النصائح السابقة عند استخدام أي روبوت دردشة يستند في عمله إلي الذكاء الاصطناعي. حتي لو كان مشهورًا. مثل: ChatGPT أو Gemini. ومع ذلك. حتي هذا قد لا يكون كافيًا لضمان الخصوصية. إذ يؤدي استخدام الإضافات مع روبوتات الدردشة إلي ظهور أنواع جديدة من التهديدات الأمنية. ومنها:
اترك تعليق