Image by Philipp Katzenberger, from Unsplash
نظام الذكاء الصناعي يعد بتحسين الدفاع ضد البرمجيات الخبيثة مع حماية الخصوصية
لقد قام الباحثون بتطوير نظام جديد للكشف عن البرامج الخبيثة ومكافحتها باستخدام تقنية تسمى التعلم الفيدرالي (FL).
هل أنت في عجلة من أمرك؟ هنا الحقائق السريعة:
- تستخدم التعلم الاتحادي لحماية الخصوصية أثناء تدريب النماذج.
- أظهرت اختبارات المعمل نجاحًا بنسبة 96% ضد الهجمات الإلكترونية الرئيسية.
- انخفضت الدقة في العالم الحقيقي إلى 59% مع البيانات المعقدة.
طور مجموعة من الباحثين طريقة جديدة لمقارنة فيروسات الكمبيوتر والهجمات الإلكترونية داخل الشبكات الكبيرة. يوضحون أن النظام يستخدم الذكاء الصناعي، وطريقة تُسمى “التعلم الاتحادي” لوقف التهديدات مع الحفاظ على خصوصية البيانات الشخصية. تفاصيل أكثر
الفكرة تتمثل في دمج قوى الشبكات الحديثة، التي تمتلك “مركز تحكم” مركزي، مع الذكاء الصناعي الذي يتعلم بطريقة آمنة وموزعة. بدلاً من جمع جميع بيانات المستخدم في مكان واحد، يشارك النظام تحديثات للنموذج الذكاء الصناعي فقط.
“هيكلتنا تقلل من مخاطر الخصوصية عن طريق التأكد من أن البيانات الأولية لا تغادر الجهاز؛ فقط تحديثات النموذج هي التي تتم مشاركتها للتجميع على المستوى العالمي،” هكذا قال الفريق.
في الاختبارات المبكرة في المختبر، أدى النظام بشكل جيد جدا. توقف حتى 96% من الهجمات الإلكترونية الكبيرة مثل الشبكات الروبوتية وهجمات الحرمان الموزع من الخدمة (DDoS). ولكن عند اختبارها مع مواقف أكثر واقعية، انخفضت الدقة إلى حوالي 59%. يقول الباحثون أن هذا يظهر مدى صعوبة التهديدات الإلكترونية الحقيقية.
حتى وإن كان الأمر كذلك، عمل النظام بسرعة، حيث اكتشف الهجمات في أقل من ثانية وساعد في استعادة شبكات السرعات من 300 إلى 500 ميغابت في الثانية. كما تمكن من إدارة حركة البيانات الثقيلة دون تباطؤ كل شيء.
الأداة الجديدة ممتازة خصوصاً في التعرف على الهجمات البينة والأثر الكبير. لكنها لا تزال تعاني من الصعوبة في التعامل مع الهجمات الخفية، مثل عندما يسرق القراصنة المعلومات سراً على مدى فترة زمنية. لحل هذه المشكلة، يخطط الباحثون لتدريب الذكاء الاصطناعي باستخدام بيانات أفضل وتحسين الطريقة التي يتعلم بها الأنماط. كما يرغبون أيضاً في إضافة أدوات خصوصية أقوى، مثل طرق مشاركة البيانات الآمنة.