Image by Solen Feyissa, from Unsplash
تكشف دراسة أن الوكلاء الرئيسيين للذكاء الصناعي عُثر عليهم في حالة ضعف تجاه الاختطاف.
بعض أكثر المساعدين الذكاء الاصطناعي استخداماً من Microsoft، Google، OpenAI، وSalesforce يمكن اختراقهم من قبل المهاجمين بقليل أو بدون تفاعل المستخدم، وفقًا لـدراسة جديدة من Zenity Labs.
في عجلة من أمرك؟ اليك الحقائق السريعة:
- تم اختراق ChatGPT للوصول إلى حسابات Google Drive المتصلة.
- تسربت قواعد بيانات CRM لأكثر من 3000 وكيل من Microsoft Copilot Studio.
- يمكن استخدام Google Gemini لنشر معلومات غير صحيحة والتصيد الإلكتروني.
قدمت في مؤتمر القبعة السوداء الأمريكي للأمن السيبراني، تظهر النتائج أن القراصنة يمكنهم سرقة البيانات، والتلاعب بالعمليات، وحتى تقليد المستخدمين. في بعض الحالات، يمكن للمهاجمين الحصول على “الاستمرارية في الذاكرة”، مما يسمح بالوصول والتحكم لفترة طويلة.
“يمكنهم تلاعب التعليمات، تسميم مصادر المعرفة، وتغيير سلوك الوكيل تمامًا”، هذا ما أخبرنا به جريج زملين، مدير التسويق للمنتجات في معامل Zenity، لموقع Cybersecurity Dive. “يفتح ذلك الباب أمام العرقلة، والاضطراب التشغيلي، والمعلومات المضللة طويلة الأجل، خاصة في البيئات التي يُعتمد على الوكلاء في اتخاذ القرارات الحاسمة أو دعمها”.
أظهر الباحثون سلاسل هجمات كاملة ضد عدة منصات رئيسية للذكاء الاصطناعي. في حالة واحدة، تم اختراق ChatGPT التابع لـ OpenAI من خلال حقن موجه بناءً على البريد الإلكتروني، مما سمح بالوصول إلى بيانات Google Drive المتصلة.
تم العثور على استوديو Microsoft Copilot يتسرب إلى قواعد بيانات CRM، مع تحديد أكثر من 3000 عامل ضعيف على الإنترنت. تم التلاعب بمنصة إينشتاين التابعة لـ Salesforce لإعادة توجيه الاتصالات الخاصة بالعملاء إلى حسابات البريد الإلكتروني التي يتحكم فيها المهاجمين.
في الوقت نفسه، يمكن تحويل Gemini الخاص بـ Google و Microsoft 365 Copilot إلى تهديدات داخلية، قادرة على سرقة المحادثات الحساسة ونشر المعلومات الخاطئة.
بالإضافة إلى ذلك، تمكن الباحثون من خداع الذكاء الاصطناعي “جيميني” التابع لـ Google من خلال التحكم في أجهزة المنزل الذكية. تسبب الاختراق في إطفاء الأضواء، وفتح الستائر، وتشغيل المرجل دون أوامر من السكان.
كشفت Zenity عن نتائجها، مما دفع بعض الشركات إلى إصدار تصحيحات. قال المتحدث باسم Microsoft لـ Cybersecurity Dive: “نقدر العمل الذي قامت به Zenity في التعرف على هذه التقنيات والإبلاغ عنها بمسؤولية”. وأضافت Microsoft أن السلوك المبلغ عنه “لم يعد فعالاً” وأن وكلاء Copilot لديهم ضوابط وقائية مكانها.
أكدت OpenAI أنها قامت بتصحيح ChatGPT وتشغيل برنامج مكافأة للأخطاء. قالت Salesforce إنها أصلحت المشكلة المبلغ عنها. أوضحت Google أنها نشرت “دفاعات طبقية جديدة” وأكدت أن “وجود استراتيجية دفاع طبقية ضد هجمات الإدخال السريع أمر بالغ الأهمية”، كما ذكرته Cybersecurity Dive.
يسلط التقرير الضوء على القلق المتزايد بشأن الأمان في الوقت الذي تصبح فيه الوكلاء الذكاء الاصطناعي أكثر شيوعًا في أماكن العمل ويتم الوثوق بهم للقيام بالمهام الحساسة.
في تحقيق حديث آخر، أفيد أن القراصنة يمكنهم سرقة العملات المشفرة من وكلاء الذكاء الاصطناعي لـ Web3 عن طريق زرع ذكريات مزيفة تتجاوز الحمايات العادية.
توجد خلل الأمان هذا في ElizaOS والمنصات المماثلة لها لأن المهاجمين يمكنهم استخدام الوكلاء المخترقين لنقل الأموال بين منصات مختلفة. تجعل الطبيعة الدائمة للمعاملات البلوكتشين من المستحيل استرجاع الأموال المسروقة. أما الأداة الجديدة، CrAIBench، فهي تهدف إلى مساعدة المطورين على تعزيز الدفاعات.