حظرت هيئة حماية البيانات الإيطالية، خدمة الذكاء الاصطناعي التابعة لشركة DeepSeek الصينية داخل البلاد.
يأتي هذا الإجراء الصارم نتيجة لعدم كفاية المعلومات التي قدمتها الشركة حول كيفية استخدامها للبيانات الشخصية للمستخدمين، مما أثار مخاوف جدية بشأن الخصوصية.
أسئلة إيطالية غير مُجابة.. جذور الحظر
جاء قرار الحظر بعد أن أرسلت الهيئة الإيطالية سلسلة من الأسئلة إلى DeepSeek للاستفسار عن ممارساتها في معالجة البيانات ومصادر بيانات التدريب الخاصة بها.
تضمنت الأسئلة تفاصيل حول نوع البيانات الشخصية التي تجمعها المنصة وتطبيقها على الهواتف المحمولة، ومصادر هذه البيانات، والأغراض التي تستخدم من أجلها، والأساس القانوني لجمعها، ومكان تخزينها، وتحديداً ما إذا كانت تخزن في الصين.
ردت DeepSeek بمعلومات وصفتها الهيئة الإيطالية بأنها “غير كافية على الإطلاق”، بل وأعلنت الكيانات التي تقف وراء الخدمة، وهما Hangzhou DeepSeek Artificial Intelligence و Beijing DeepSeek Artificial Intelligence، بأنها “لا تعمل في إيطاليا وأن التشريعات الأوروبية لا تنطبق عليها”.
دفعت هذه الردود غير المقنعة الهيئة لحظر الوصول إلى DeepSeek بشكل فوري وفتح تحقيق في الأمر.
تاريخ من المخاوف: ChatGPT كدرس مُستفاد
يأتي هذا الحظر في سياق من المخاوف المتزايدة بشأن خصوصية البيانات في مجال الذكاء الاصطناعي.
ففي عام 2023، أصدرت هيئة حماية البيانات الإيطالية حظرًا مؤقتًا على ChatGPT التابعة لـ OpenAI، وهو الحظر الذي رفع لاحقًا بعد أن تدخلت الشركة لمعالجة مخاوف الخصوصية، ومع ذلك، تم تغريم OpenAI لاحقًا مبلغ 15 مليون يورو بسبب تعاملها مع البيانات الشخصية.
شعبية متزايدة ومخاوف متفاقمة: DeepSeek في دائرة الضوء
على الرغم من أن DeepSeek كانت تشهد شعبية متزايدة وارتفعت تطبيقاتها للهواتف المحمولة إلى قمة قوائم التنزيل، إلا أنها واجهت أيضًا انتقادات واسعة النطاق.
فقد أصبحت هدفًا “لهجمات خبيثة واسعة النطاق”، ولفتت انتباه المشرعين والمنظمين بسبب سياسة الخصوصية الخاصة بها، والرقابة المتحيزة للصين، والدعاية، والمخاوف الأمنية القومية التي قد تشكلها.
ثغرات أمنية خطيرة: “الهروب من الرقابة” و”تسرب المعلومات”
لم تقتصر المخاوف على الخصوصية فحسب، بل امتدت لتشمل الثغرات الأمنية في نماذج DeepSeek.
فقد تبين أن نماذج اللغات الكبيرة الخاصة بالشركة عرضة لتقنيات “الهروب من الرقابة” التي تسمح للمستخدمين بإنشاء محتوى ضار أو محظور. كما كشفت التحليلات عن أن نموذج DeepSeek-R1 الخاص بالمنطق ليس عرضة لحقن المطالبات فحسب، بل إن منطق سلسلة الأفكار الخاص به يمكن أن يؤدي إلى تسرب غير مقصود للمعلومات.
“بيانات OpenAI”: مزاعم مثيرة للجدل
أثار تقرير مثير للجدل مزاعم بأن نموذج DeepSeek قد يكون قد دمج بيانات من OpenAI، مما أثار مخاوف أخلاقية وقانونية بشأن مصادر البيانات وأصالة النموذج.
“Time Bandit” و”تجاوز الوكيل”: ثغرات في نماذج أخرى
لم تقتصر الثغرات الأمنية على DeepSeek فقط، بل تم اكتشاف ثغرات مماثلة في نماذج أخرى مثل ChatGPT-4o (“Time Bandit”) ونموذج Qwen 2.5-VL الخاص بعلي بابا، بالإضافة إلى مساعد الترميز Copilot الخاص بـ GitHub. هذه الثغرات تسمح للمهاجمين بتجاوز القيود الأمنية وإنتاج محتوى ضار.
كلمات بسيطة.. تأثير خطير: ثغرة “التأكيد الإيجابي”
أظهرت الأبحاث أن مجرد استخدام كلمات إيجابية مثل “بالتأكيد” في المطالبة يمكن أن يؤدي إلى تحويل Copilot إلى وضع أكثر امتثالًا وعرضة للخطر، مما يفتح الباب أمام الحصول على ردود غير أخلاقية أو خطيرة.
كما تم اكتشاف ثغرة في تكوين الوكيل الخاص بـ Copilot تسمح بتجاوز قيود الوصول والتلاعب بالنظام.
تحديات أمنية متزايدة في عالم الذكاء الاصطناعي
يُظهر هذا التطور مدى التحديات الأمنية المتزايدة التي تواجهها أنظمة الذكاء الاصطناعي، وكيف يمكن استغلالها بطرق خطيرة.
يمثل حظر DeepSeek في إيطاليا تحذيراً للشركات العاملة في مجال الذكاء الاصطناعي، وضرورة إعطاء الأولوية لحماية البيانات والخصوصية، وتأمين الأنظمة من الثغرات الأمنية.