حذرت دراسة جديدة صادرة عن شركة بالو ألتو نتوركس اليوم من المخاطر والتهديدات الأمنية التي قد تحملها البرمجة المعتمدة على الذكاء الاصطناعي، واستعرضت السبل الكفيلة بالحماية من هذه المخاطر والتهديدات.
ولا يُمكن اليوم إنكار ما يقدمه التطوير المدعوم بالذكاء الاصطناعي، أو ما يعرف بــ “البرمجة المعتمدة على الذكاء الاصطناعي”، من قدرة على تسريع العمل وزيادة إنتاجية فرق التطوير بشكل ملحوظ. ففي بيئة تعتمد على بنى سحابية معقدة، وتواجه ضغوط مستمرة لتطوير البرمجيات وتسليمها خلال فترات زمنية قصيرة، أصبح استخدام هذه الأدوات جزءاً أساسياً من ممارسات التطوير اليومية. إلا أن هذه السرعة لا تأتي دون تبعات، فبالرغم من قدرة أنظمة الذكاء الاصطناعي على توليد شيفرة برمجية تعمل وظيفياً خلال ثوانٍ، إلا أنها لا تلتزم غالباً بتطبيق ضوابط الأمان الضرورية. ويؤدي ذلك إلى إدخال ثغرات أمنية على نطاق واسع، وتراكم ديون تقنية يصعب معالجتها لاحقاً، فضلاً عن زيادة احتمالات التعرض لاختراقات حقيقية.
يتضاعف هذا التحدي مع ازدياد عدد المطورين غير المتخصصين الذين لا يمتلكون الخبرة الكافية لمراجعة الشيفرة البرمجية المولدة بالذكاء الاصطناعي أو التحقق من مستويات أمانها. ويعد استيعاب هذه الفجوة مسألة أساسية لجميع القيادات، من الرئيس التنفيذي إلى مسؤول أمن المعلومات، وكذلك لكل من يعمل في المجالات التقنية.
تحديد ومعالجة مخاطر البرمجة المعتمدة على الذكاء الاصطناعي
قد يكتب المستخدم أمراً برمجياً بسيطاً مثل: “اكتب دالة برمجية لجلب بيانات المستخدم من واجهة برمجة تطبيقات العملاء”. وخلال ثوان قليلة، يولد النظام عدداً من أسطر الشيفرة البرمجية الوظيفية القابلة للتنفيذ.
هذا هو الواقع الجديد للبرمجة المعتمدة على الذكاء الاصطناعي. ولا يمكن إنكار ما تحققه من مكاسب ملموسة في الإنتاجية. ففرق التطوير، التي تواجه أصلاً تعقيدات ناجمة عن دورات حياة تطوير البرمجيات وتزايد متطلبات البيئات السحابية، باتت تمتلك اليوم أداة تضاعف قدرتها على الإنجاز وتسريع وتيرة العمل.
غير أن هذه السرعة الجديدة تأتي بتكلفة خفية وخطيرة، فهذه الدالة البرمجية التي يتم توليدها بالذكاء الاصطناعي تنجح في جلب البيانات، لكنها تتجاهل إدراج ضوابط المصادقة الضرورية وآليات تقييد معدلات الوصول، وعندما يتم استدراج نظام الذكاء الاصطناعي عبر توجيه خبيث، فيؤدي ذلك إلى تسريب بيانات حساسة خارج النطاق المسموح.
ومع تسارع اعتماد المؤسسات على هذه الأدوات، تتسع فجوة خطيرة بين الزيادة في الإنتاجية ومستويات الأمان. ولم تعد “السيناريوهات الكارثية” مجرد افتراضات نظرية، بل تحولت إلى حوادث واقعية وموثقة.
لقد أدى الطلب المتزايد على البرمجيات، وتنامي الاعتماد على التقنيات السحابية الأصلية، والانتشار الواسع لممارسات التطوير والتشغيل المتكاملة (DevOps)، إلى تعقيد دورة حياة تطوير البرمجيات وزيادة المتطلبات المرتبطة بالموارد اللازمة لإدارتها.
فهم الأسباب الجذرية لمخاطر البرمجة المعتمدة على الذكاء الاصطناعي
لا تعد هذه الحوادث حالات استثنائية، بل تمثل نتائج متوقعة لثغرات بنيوية في طريقة عمل نماذج الذكاء الاصطناعي نفسها. ووفقًا لدراسة بالو ألتو نتوركس، تتركز هذه المخاطر ضمن عدد محدود من الفئات الرئيسية، من أبرزها:
تغليب الوظيفة على حساب الأمان: يتم تدريب نماذج ووكلاء الذكاء الاصطناعي لتقديم إجابة سريعة وفعالة، دون أن تكون مهيّأة بطبيعتها لطرح الأسئلة الأمنية الضرورية. ويؤدي ذلك إلى مخرجات تكون غير آمنة افتراضياً. كما أن أدوات فحص الأمان أو ما يُعرف بـ “وكلاء التقييم” تعد خيارات إضافية في كثير من هذه الحلول، وليست جزءاً مدمجاً من العملية، مما يترك فجوات أمنية واضحة يمكن استغلالها.
غياب الوعي بالسياق الحرج: يفتقر وكيل الذكاء الاصطناعي إلى الإدراك الظرفي الذي يمتلكه المطور البشري، مثل القدرة على التمييز بين بيئات التطوير وبيئات الإنتاج، وما يترتب على ذلك من اختلافات جوهرية في المتطلبات والمخاطر.
مخاطر سلسلة التوريد الوهمية: غالباً ما تقوم نماذج الذكاء الاصطناعي بإنتاج مكتبات أو حزم برمجية تبدو منطقية ومفيدة، لكنها غير موجودة فعلياً، الأمر الذي يؤدي إلى إدخال تبعيات غير قابلة للحل ويعقد من عملية البناء والتشغيل.
المطورون غير المتخصصين والثقة المفرطة في المخرجات البرمجية: يفتقر الأفراد الذين لا يمتلكون خلفية متخصصة في تطوير البرمجيات إلى التدريب اللازم لكتابة شيفرة تراعي متطلبات الأمان. وبات اتساع نطاق أدوات التطوير المتاحة يسرع من إدخال ثغرات أمنية جديدة ويراكم من الدين التقني على المدى الطويل. ويزداد هذا الخطر عندما تبدو الشيفرة المُولّدة صحيحة من حيث الشكل وتعمل وظيفيًا، ما يخلق شعوراً مزيفاً بالأمان، ويؤدي إلى تجاوز ممارسات أساسية مثل ضبط التغييرات ومراجعة الشيفرة وفق معايير الأمان المعتمدة.
تشير نتائج الدراسات التي أجرتها شركة بالو ألتو نتوركس إلى أن غالبية المؤسسات التي جرى تقييمها تتيح لموظفيها استخدام أدوات البرمجة المعتمدة على الذكاء الاصطناعي، وذلك في ظل غياب ضوابط تقنية صارمة تمنع استخدامها، مثل سياسات الحظر على مستوى جدران الحماية. إلا أن عدداً محدوداً جداً من هذه المؤسسات بادر إلى إجراء تقييم رسمي للمخاطر المرتبطة بهذه الأدوات، كما أن القليل منها يطبق آليات رقابة منتظمة على المدخلات والمخرجات والآثار الأمنية المترتبة على استخدامها.
معالجة المخاطر من خلال إطار عمل
قد يبدو تصاعد مشهد التهديدات الأمنية أمراً يصعب احتواؤه، إلا أن الحل يكمن في العودة إلى المبادئ الأساسية لضوابط الأمان. وفي هذا السياق، تعمل بالو ألتو نتوركس مع عملائها على تطبيق إطار عمل لمعالجة مخاطر البرمجة المعتمدة على الذكاء الاصطناعي، عبر إعادة إدماج ضوابط أمان مصممة بعناية ضمن عملية تطوير الشيفرة نفسها، بدل التعامل معها كخطوة لاحقة أو اختيارية.
الرابط المختصر: http://economy-live.com/?p=91851











