بالتزامن مع تسارع وتيرة اعتماد الذكاء الاصطناعي والتهديدات السيبرانية، أوضح 8 من أصل 10 من قادة الأمن الإلكتروني في الشرق الأوسط أن الممارسات المطبقة في مجال الأمن السيبراني تحتاج إلى تحديث وتطوير. وأظهرت بيانات استطلاع “حالة تكنولوجيا المعلومات” الأخير من سيلزفورس وجود إجماع تامّ حول التفاؤل بخصوص وكلاء الذكاء الاصطناعي، حيث أشار 100% من قادة الأمن السيبراني في الشرق الأوسط إلى قدرة وكلاء الذكاء الاصطناعي على تحسين جانب واحد على الأقل من جوانب القلق المتعلق بالأمن.
وعلى الرغم من هذا التفاؤل، إلا أن الدراسة العالمية التي شملت أكثر من 2,000 من قادة الأمن الإلكتروني في المؤسسات من أكثر من 24 دولة، بيّنت وجود تحديات كبيرة على صعيد النشر في المستقبل. وأعرب 48% من قادة الأمن الإلكتروني عن قلقهم من أن الأساس البياني لديهم غير مهيّأ بعد بالشكل الكافي لتحقيق أقصى فائدة ممكنة من الذكاء الاصطناعي الوكيل، في حين لا يشعر 55% بثقة كاملة بأن لديهم الضوابط الوقائية المناسبة لنشر وكلاء الذكاء الاصطناعي.
ويعتمد المختصين المكلّفين بحماية بيانات وأنظمة الشركات والجهات التخريبية التي تسعى لاستغلال الثغرات، على حد سواءً وبشكل متزايد على الذكاء الاصطناعي ضمن أدواتهم. ويسهم وكلاء الذكاء الاصطناعي المستقلون في تقليل الأعباء اليدوية على فرق الأمن، ما يسمح للعنصر البشري بالتركيز على حل المشكلات الأكثر تعقيداً. لكن وبالرغم من ذلك فإن نشر الذكاء الاصطناعي الوكيل يتطلب بنية تحتية قوية للبيانات وحوكمة رشيدة للبيانات لضمان النجاح.
قال محمد الخوتاني، نائب الرئيس الأول والمدير العام في منطقة الشرق الأوسط لدى سيلزفورس: “يشكل تقرير حالة تكنولوجيا المعلومات الأخير مصدراً للتفاؤل والقلق في آن معاً، فعلى الرغم من أن نتائج البحث تسلط الضوء على ثقة المؤسسات في الشرق الأوسط في قدرة الذكاء الاصطناعي الوكيل على تحسين الجوانب الأساسية لعملياتها وإجراءاتها، إلا أنها تكشف في الوقت ذاته عن مجموعة من المخاوف الكبيرة التي يجب معالجتها. ولم يعد خافياً أن الكثير من قادة الأمن الإلكتروني يشعرون بالقلق إزاء عدة قضايا ومن ضمنها مدى جاهزية بنية البيانات لمؤسساتهم لاعتماد الذكاء الاصطناعي، ومدى كفاءة الضوابط الوقائية لديهم لنشر وكلاء الذكاء الاصطناعي، ناهيك عن التحديات المحتملة المرتبطة بالامتثال التنظيمي والناتجة عن استخدام الذكاء الاصطناعي. وفي ظل هذه المخاوف، يتعين على المؤسسات في الشرق الأوسط التعاون مع شريك موثوق مثل سيلزفورس بما يمكنها من توسيع نطاق استخدام الذكاء الاصطناعي الوكيل بسرعة وكفاءة وبشكل أخلاقي”.
وبالإضافة إلى قائمة المخاطر المألوفة مثل تهديدات أمن السحابة والبرمجيات الخبيثة وهجمات التصيد الإلكتروني، أصبح قادة تكنولوجيا المعلومات يشيرون الآن إلى ما يُعرف باسم “تسميم البيانات” -حيث تقوم الجهات التخريبية باختراق مجموعات بيانات التدريب الخاصة بالذكاء الاصطناعي- على أنها أحد أبرز مصادر القلق. ويأتي ذلك بالتوازي مع زيادة الموارد المخصصة للتعامل مع هذه التحديات، حيث تتوقع 75% من المؤسسات زيادة ميزانيات الأمن السيبراني خلال العام المقبل.
وعلى الرغم من أن 80% من قادة الأمن الإلكتروني يعتقدون أن وكلاء الذكاء الاصطناعي يوفرون فرصاً لتعزيز الامتثال في جوانب متعددة مثل تحسين الالتزام بقوانين الخصوصية العالمية، إلا أن 79% منهم تقريباً يرون أن هذه التكنولوجيا تفرض كذلك تحديات تنظيمية يجب التعامل معها. ويُعزى ذلك جزئياً إلى البيئة التنظيمية التي تتزايد مستويات تعقيدها وتطورها في مختلف المناطق الجغرافية والقطاعات، إلى جانب اعتماد عمليات الامتثال الحالية إلى حد كبير على أساليب غير مؤتمتة ما يجعلها عرضة للأخطاء.
• فقط 47% من المؤسسات واثقة تماماً من قدرتها على نشر وكلاء الذكاء الاصطناعي بما يتوافق مع اللوائح والمعايير التنظيمية.
• 83% من المؤسسات تقول بأنها لم تقم بأتمتة عمليات الامتثال لديها بشكل كامل بعد.
الثقة هي حجر الزاوية لنجاح الذكاء الاصطناعي، لكنها لا تزال في مراحلها الأولى
أظهرت دراسة حديثة للمستهلكين أن مستوى الثقة في الشركات يشهد تراجعاً حاداً، في حين يرى نحو ثلاثة أخماس (60%) المشاركين أن التقدم في الذكاء الاصطناعي يسلط الضوء على أهمية موثوقية الشركات أكثر من أي وقت مضى. وعلى الرغم من ذلك، فإن 42% فقط من المستهلكين يثقون بأن الشركات تستخدم الذكاء الاصطناعي بشكل أخلاقي، الأمر الذي يشكل انخفاضاً ملحوظاً عن الرقم السابق المسجل في عام 2023 والبالغ 58%. ويرى قادة أمن المعلومات أن هناك الكثير مما يجب القيام به لكسب هذه الثقة المحورية.
• 57% من المؤسسات عالمياً لا تثق تماماً في دقة أو قابلية تفسير مخرجات الذكاء الاصطناعي لديها.
• 60% من المؤسسات عالمياً لا توفر شفافية كاملة حول كيفية استخدام بيانات العملاء في الذكاء الاصطناعي.
• 59% من المؤسسات عالمياً لم تتقن بعد وضع إرشادات أخلاقية واضحة لاستخدام الذكاء الاصطناعي.
حوكمة البيانات هي أساس تطور المؤسسات بمجال الذكاء الاصطناعي الوكيل
أعرب نحو نصف قادة الأمن الإلكتروني عن عدم يقينهم مما إذا كانت لديهم بيانات عالية الجودة كافية لدعم وكلاء الذكاء الاصطناعي، أو من قدرتهم على نشر هذه التكنولوجيا ضمن الأُطر المناسبة من التصاريح والسياسات والضوابط الوقائية. لكن وعلى الرغم من ذلك، فإن هناك تقدم حاصل بالفعل إذ أظهر استطلاع حديث للرؤساء التنفيذيين لشؤون المعلومات أن الميزانيات المخصصة للبنى التحتية للبيانات وإدارتها تفوق تلك المخصصة للذكاء الاصطناعي بأربعة أضعاف، ما يشير إلى أن المؤسسات تعمل بحكمة على تأسيس البنية اللازمة لتطبيق الذكاء الاصطناعي على نطاق أوسع.
وكلاء الذكاء الاصطناعي يمثلون حلاً فعالاً بالتزامن مع تسارع وتيرة اعتماد هذه التكنولوجيا
أظهر تقرير “حالة تكنولوجيا المعلومات” أن 32% من فرق أمن المعلومات تستخدم بالفعل وكلاء الذكاء الاصطناعي في عملياتها اليومية، وهو رقم من المتوقع أن يتضاعف تقريباً خلال العامين المقبلين. ويتوقع قادة أمن المعلومات تحقيق مجموعة من الفوائد بفضل التوسع في استخدام الوكلاء، تتراوح من رصد التهديدات الأمنية إلى التدقيق المتقدم في أداء نماذج الذكاء الاصطناعي. من جهتها تتوقع 75% من المؤسسات استخدام وكلاء الذكاء الاصطناعي خلال العامين القادمين، مقارنةً بالرقم الحالي البالغ 41% فقط.
إلى جانب الخطوات التي يتعيّن على هذه الفرق اتخاذها لتعزيز أسس بياناتها استعداداً لخوض غمار حقبة الذكاء الاصطناعي الوكيل، يرى أكثر من نصف الفرق حول العالم بأن أمامها عملاً لتطوير ممارساتها الأمنية والامتثال للوائح. وتعتقد 47% من فرق أمن المعلومات فقط بأن ممارساتها في مجال الأمن والامتثال جاهزة بالكامل لتطوير ونشر وكلاء الذكاء الاصطناعي.