الذكاء الاصطناعي في الأمن السيبراني – هل ينبغي أن نصدق كل ما يروج عنه ؟

مارتن ماكاي، نائب الرئيس الأول لدى بروف بوينت  في منطقة أوروبا والشرق الأوسط وإفريقيا

تصدرت مواضيع الذكاء الاصطناعي (AI) لا سيما التعلم الآلي (ML)، في الأونة الأخيرة، أجندة النقاشات في مجال الأمن السيبراني. ومع ذلك، خلال السنوات الأخيرة ، وصل الحديث عن إمكانات تغيير اللعبة في مجال التكنولوجيا بشكل كبير جداً، والآن يتساءل الناس عما إذا كان هذا هو الدواء الشافي الذي يراه الكثيرون لمعالجة تحديات الصناعة، أو مجرد أداة أخرى في ترسانة واسعة؟

وفي العام الماضي ، سلطت غارتنر الضوء على الذكاء الاصطناعي كواحدة من أفضل 10 اتجاهات لتكنولوجيا البيانات والتحليلات لعام 2019، بينما أشادت فوربس، في وقت سابق من هذا العام، بالتكنولوجيا باعتبارها “مستقبل الأمن السيبراني”.

تكتسب هذه المعتقدات زخمًا سريعًا على أرض الواقع بين محترفي الأمن السيبراني. وجدت دراسة أجراها معهد كابجيميني للأبحاث والتي استهدفت أكثر من 850 من كبار التنفيذيين في أمن تكنولوجيا المعلومات والأمن السيبراني وعمليات تكنولوجيا المعلومات ما يلي:

  • ما يقرب من ثلثي التنفيذيين لا يعتقدون أنه يمكنهم تحديد التهديدات الخطيرة بدون الذكاء الاصطناعي
  • يقول 3 من كل خمس منظمات أن الذكاء الاصطناعي يحسن دقة وكفاءة المحللين الإلكترونيين
  • تقوم حوالي ثلاثة أرباع المنظمات باختبار حالات استخدام الذكاء الاصطناعي.

وفي المملكة العربية السعودية، أدرجت الرؤية السعودية 2030 وبرنامج التحول الوطني 2020 التحول الرقمي كهدف رئيسي لتنشيط القطاعات الاقتصادية ودعم الصناعات كذلك القطاع الخاص، وذلك من أجل تقليل اعتماد الدولة على عائدات النفط من خلال تنويع الاقتصاد . أظهرت المملكة التزامًا قويًا بتطوير وتنفيذ تكنولوجيا الذكاء الاصطناعي ، ومن المتوقع أن يساهم هذا بأكثر من 135.2 مليار دولار أمريكي في الاقتصاد بحلول العام 2030

ومن الواضح أن الذكاء الإصطناعي يمتلك من الإمكانات لتعزيز الأمن السيبراني. ولكن هل نبالغ في تقدير إمكاناتها؟

ما الذي يجب أن نتوقعه من الذكاء الإصطناعي والتعلم الآلي؟

وربما يكون الذكاء الاصطناعي والمجالات المرتبطة به من التعلم الآلي ومعالجة اللغات الطبيعية وأتمتة العمليات الروبوتية كلمات طنانة في الصناعات الحديثة ، لكنها بالتأكيد ليست جديدة في عالم الأمن السيبراني.

يعد فلترة الرسائل غير المرغوب فيها أول مثال شائع للتعلم الآلي لهذا الغرض، ويعود إلى أوائل العقد الأول من القرن الحادي والعشرين. على مر السنين، نما مستوى التحليل الذي أجرته هذه الأدوات من تصفية كلمات معينة إلى مسح عناوين URL والنطاقات والمرفقات والمزيد.

ولكن التطورات الحديثة في الذكاء الاصطناعي تستقطب انتباه الصناعة.

ويساعد الذكاء الإصطناعي على التصدي أمام مجموعة من عوامل التهديد في ظل  الكشف عن محاولات الإحتيال، واكتشاف البرامج الضارة والتسلل  وتسجيل المخاطر  والتحليل السلوكي للمستخدم  كونها من أفضل خمس حالات استخدام

وإن هذه الاستخدامات أكثر شيوعًا مما قد تعتقد. وجدت أبحاث Capgemini أن أكثر من نصف الشركات نفذت بالفعل ما لا يقل عن خمس حالات عالية التأثير.

كل هذا يظهر عندما نسأل السؤال الآتي: هل ينبغي أن نصدق ما يقال عن الذكاء الإصطناعي؟ نحن لا نتساءل عن القيمة التي يوفرها الذكاء الإصطناعي أو التعلم الآلي كأداة في الدفاع عن الأمن السيبراني. بل نتساءل عما إذا كان اعتبارها أداة يمكن أن تضر أكثر مما تنفع. بعد كل شيء، إذا دار النقاش في قاعة الاجتماع حول نشر الذكاء الاصطناعي لتعزيز الحماية، فهناك خطر يطرأً بشأن الحماية ضد ناقلات التهديد الجديدة.

رغم كل مزاياه، فإن الذكاء الاصطناعي لا يقدم حلاً شاملاً. قد يكون الذكاء الاصطناعي قادراً على إجراء تحليل أعمق في نطاقات زمنية أسرع بكثير من البشر، لكننا بعيدون جدًا عن أن نصبح خط الدفاع الأول والأخير والوحيد.

ومن المهم أن نرى الذكاء الاصطناعي كأداة لمساعدة فرق الأمن السيبراني في عملنا وليس كوسيلة لاستبدال التدخل البشري – كما هو الحال عندما يتم تطبيق التقنيات البشرية والآلية معًا ، تكون الدفاعات السيبرانية أكثر قوة.

وكشقت دراسة حديثة من معهد ماساتشوستس للتكنولوجيا (MIT) أن مزيجًا من الخبرة البشرية وأنظمة التعلم الآلي – ما يطلق عليه “التعلم الآلي الخاضع للإشراف” – هو أكثر فعالية من الوظائف التي يقوم بها الأفراد فقط  أو التعلم الآلي فقط. كان أداء النموذج الخاضع للإشراف أفضل بعشر مرات من نظيره في الآلي  فقط.

الإنسان والآلة: العمل جنباً إلى جنب مع الذكاء الاصطناعي

تسلط  دراسة معهد ماساتشوستس للتكنولوجيا (MIT) الضوء على دور الذكاء الاصطناعي في الدفاع الإلكتروني؛ حيث يعد ذلك أداة قوية عندما يتعلق الأمر باكتشاف وإيقاف مجموعة من الهجمات السيبرانية ، لكنها وحده لا يكفي.

يتمتع الذكاء الإصطناعي الذكاء بإمكانيات كبيرة عندما يتعلق الأمر بتحديد التهديدات المشتركة ولكن يمكنها فقط الدفاع بفعالية ضد المشهد الحالي للتهديدات بالمساعدة البشرية. على سبيل المثال ، قد يكون نظام التعلم الآلي قادرًا على تحديد وإلغاء التهديد الوارد في ارتباط أو مرفق ضار، ولكنه أقل فعالية في الحماية من هجمات الهندسة الاجتماعية مثل اختراق البريد الإلكتروني للأعمال (BEC) ، على سبيل المثال.

ورغم ما نشهدته من تطورات تقنية ، إلا أن التعلم الآلي لا يعد الطريقة المثلي لتحليل الفروق الدقيقة وخصائص السلوك البشري – والتي يمكن أن تؤدي إلى تهديدات خاطئة بالإضافة إلى ارتفاع معدل الإيجابيات الخاطئة. ويرجع ذلك إلى حقيقة أن الجهات الفاعلة في مجال التهديد الإلكتروني قد حولت هجومها من البنية التحتية والشبكة إلى الأشخاص: يظل الموظفون عن غير قصد نقطة الضعف بالنسبة للمؤسسة، ويعتبر النهج الأمني ​​الذي يركز على الناس أمرًا بالغ الأهمية

ومثلما لا ينبغي اعتبار الذكاء الإصطناعي والتعلم الآلي  بديلاً عن الخبرة البشرية، لا يجب أن نتوقع إما أن تحل محل تقنيات الأمن السيبراني الحالية. وخارج إطار التعلم الآلي ، ستستمر تقنيات مثل التحليل الثابت والتحليل السلوكي الديناميكي وتحليل البروتوكول في مكانها.

يجب أن يكون الدفاع الإلكتروني الجيد واسعًا بقدر اتساعه. وهذا يعني إنشاء ثقافة أمنية أولاً من خلال التدريب والتعليم وتسليح فرقك بتقنيات دفاعية قوية إلى جانب أفضل حماية ممكنة

،

ولهذا هل ينبغي أن نصدق ما يروج عن الذكاء الإصطناعي؟ بقدر كون الذكاء الإصطناعي أداة قوية يمكنها تعزيز دفاعاتنا الإلكترونية ؛ ولكن هل يعد علاج موحد لمعالجة كل مشاكلنا وتحدياتنا بالطبع لا

شاركها من هنا ...
Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on email
Email
Share on whatsapp
WhatsApp
اقرأ أيضاً ...
حجم الخط
تغيير النمط