الرأي: “قرصنة الأجواء” – التهديد الجديد لأمن المعلومات المدعوم بالذكاء الصناعي

Image generated with ChatGPT

الرأي: “قرصنة الأجواء” – التهديد الجديد لأمن المعلومات المدعوم بالذكاء الصناعي

وقت القراءة: 6 دقائق

لقد حذر الخبراء من خطورة “اختراق الأجواء” لعدة شهور، ولكن لم يتم الإبلاغ رسميًا عن أي حالة كبيرة حتى الآن. أصدرت Anthropic تقريرًا يكشف كيف استخدم الجهات الخبيثة نماذج الذكاء الاصطناعي المتقدمة لتشغيل الهجمات الإلكترونية بشكل آلي.

لقد كانت شركات التكنولوجيا تروج للذكاء الاصطناعي التوليدي كمعجزة لكل شيء بدءًا من الحياة اليومية وحتى الأمن السيبراني. ولكن التكنولوجيا المتقدمة دائمًا تتجه في كلا الاتجاهين: يمكن استخدام أدوات الذكاء الاصطناعي للخير – أو للأذى. وفي كلا الحالتين، تميل إلى مفاجأتنا.

لم يكن سوى مسألة وقت قبل أن يبدأ القراصنة في استغلال النماذج الذكية القوية والأدوات التي تعتمد على الذكاء الصناعي والتي تم إطلاقها هذا العام.

قبل بضعة أشهر، كان الجميع يتحدث عن “ترميز الأجواء” وكيف سمحت الأنظمة الجديدة للذكاء الصناعي للأشخاص الذين ليس لديهم خبرة في الترميز ببناء المواقع والتطبيقات ببساطة من خلال كتابة أوامر فعالة.

الآن، نواجه نظيره الشرير: “قرصنة الأجواء” أو “vibe hacking”. يقوم المجرمون الإلكترونيون الذين لا يمتلكون معرفة كبيرة بتطوير البرمجيات ببناء أدوات خبيثة قادرة على الأثر الجماعي الهائل.

كشفت Anthropic في أول تقرير لها عن “قرصنة الأجواء” في تقرير المعلومات الاستخباراتية: أغسطس 2025، كيف استخدم الجهات الفاعلة الخبيثة أكثر نماذج الذكاء الاصطناعي تقدما للعمليات الجنائية المعقدة.

من إنشاء رسائل فدية شخصية للضحايا، إلى بناء منصات الفدية كخدمة (RaaS)، إلى توجيه القراصنة خطوة بخطوة من خلال الهجمات الإلكترونية المعقدة – هذا هو ما يجب أن يعرفه الناس عن “قرصنة الأجواء”.

ما هي “قرصنة الأجواء”؟

تم تبني مصطلح “قرصنة الأجواء” مؤخرًا للإشارة إلى تكتيك التهديد الجديد: الجهات الفاعلة الخبيثة تستغل نماذج الذكاء الاصطناعي المتقدمة لتنفيذ هجمات إلكترونية معقدة وعلى نطاق واسع. حتى بدون معرفة تقنية عميقة، يتمكن القراصنة من تجاوز التدابير الأمنية واستخدام وكلاء الذكاء الاصطناعي القويين لتنفيذ العمليات المعقدة نيابة عنهم.

في يونيو، أفادت WIRED أن “القرصنة الإيموشونالية” كانت مصدر قلق متزايد بين خبراء الذكاء الصناعي. تم تداول أدوات مثل WormGPT وFraudGPT – وهي أنظمة الذكاء الصناعي التي تم بناؤها بدون حواجز أخلاقية – منذ عام 2023 وهي بالفعل في أيدي الجهات الخبيثة.

لفت الخبراء الأنظار أيضًا إلى أن فك قيود الذكاء الصناعي الحديث أصبح جزءًا من الروتين اليومي للقراصنة. ومع ذلك، لا تزال فكرة الهجمات الشاملة التي يقودها الذكاء الصناعي مجرد فكرة نظرية حتى قبل بضعة أشهر. “أقارنها بالهبوط الاضطراري على طائرة حيث يكون الأمر مثل ‘استعد، استعد، استعد’، ولكننا ما زلنا لم نصطدم بأي شيء”، قالت هايدن سميث، المؤسس المشارك لشركة الأمن Hunted Labs، في مقابلة مع WIRED.

الآن، هبطت الطائرة.

لقد بدأت عصر اختراق الأجواء

في تقريرها الأخير، كشفت Anthropic أن هاكر واحد، يعمل من كوريا الشمالية بمهارات برمجة أساسية فقط، تمكن من استهداف 17 منظمة حول العالم- بما في ذلك الوكالات الحكومية، مقدمي الرعاية الصحية، المؤسسات الدينية، وحتى خدمات الطوارئ.

اعتمد المهاجم على أداة الترميز الوكالية لشركة أنثروبيك، كلود كود، لتنفيذ الحملة. نصح نظام الذكاء الصناعي بالبيانات التي يجب التسلل إليها، صاغ رسائل الابتزاز، وحتى اقترح مطالب الفدية – في بعض الأحيان، كان يوصي بمبالغ تزيد عن 500,000 دولار.

“استخدم الممثل الذكاء الصناعي إلى ما نعتقد أنه درجة غير مسبوقة”، كتبت أنثروبيك في إعلانها الأسبوع الماضي. “هذا يمثل تطورًا في جرائم الإنترنت المساعدة بالذكاء الصناعي”.

مساعدي القراصنة الذكاء الصناعي الذاتي

لقد كان المجرمون الإلكترونيون يجربون الذكاء الصناعي لسنوات. ما يجعل “اختراق الأجواء” مختلفًا هو أن التكنولوجيا الآن تقوم بمعظم العمل الشاق بدلاً منهم.

كشفت تحقيقات أنثروبيك أن الجهات الفاعلة الخبيثة قد استخدمت Claude Code بطرق متعددة: تطوير برامج ضارة، وتوجيه المهاجمين خطوة بخطوة خلال العمليات المباشرة، وتنظيم وتحليل كميات ضخمة من البيانات المسروقة، وحتى تشغيل رسائل الابتزاز المخصصة لكل ضحية وفقًا لضعفها.

في حالة واحدة، تمكن مستخدم في المملكة المتحدة من إقناع كلود ببناء برنامج – وليس أي برنامج، بل منتج فدية تجاري. أنتج نموذج الذكاء الصناعي منصة للفدية كخدمة (RaaS) مصممة لمساعدة المستخدم على بيع برنامج الفدية من خلال منتديات مثل CryptBB و Dread و Nulle، المعروفة بتمكين الأنشطة غير القانونية.

أكثر ما يثير الصدمة؟ لا يبدو أن المستخدم قد فهم تماما ما كان يفعله، حيث طلب المساعدة بشكل متكرر من نظام الذكاء الصناعي لـ Anthropic.

“تشمل العملية تطوير العديد من أنواع برامج الفدية المتعددة المميزة بتشفير ChaCha20، وتقنيات مكافحة الاستجابة للتهديدات الرقمية، واستغلالات داخلية لنظام ويندوز”، هذا ما جاء في الدراسة. “الأكثر قلقا هو الاعتماد الواضح للممثل على الذكاء الصناعي – يبدو أنهم غير قادرين على تنفيذ المكونات التقنية المعقدة أو تتبع وإصلاح المشاكل دون مساعدة الذكاء الصناعي، بينما هم يبيعون برامج ضارة قادرة.”

المهام التي كانت تتطلب في السابق فرق من القراصنة الماهرين شهورًا – أو حتى سنوات – لإكمالها، يتم الآن التعامل معها من قبل نماذج الذكاء الصناعي، التي يمكن أن تساعد قرصانًا إلكترونيًا وحيدًا في كل مرحلة من مراحل العملية.

تم التلاعب بأنظمة الذكاء الصناعي واستخدامها كأسلحة

أصبح الأثر الضار لنماذج الذكاء الاصطناعي على البشر قلقًا خطيرًا وعاجلًا في الأشهر الأخيرة، بدءًا من الذهان المرتبط بالذكاء الاصطناعي والانتحارات ووصولًا إلى أنماط الإدمان المتزايدة. ولكن بينما تم التركيز بشكل كبير على كيفية ضرر الذكاء الاصطناعي بالناس، فقد تم التركيز بشكل أقل على العكس: كيف يمكن للناس ت manipulationلي التلاعب بنماذج الذكاء الاصطناعي، وبالتالي، استخدامها لإلحاق الضرر بالآخرين.

منذ بضعة أيام، نشر باحثون من جامعة بنسلفانيا دراسة تكشف أن نماذج الذكاء الاصطناعي عرضة بشكل مقلق للإقناع والمداهنة. وجدوا أن نماذج مثل GPT-4o mini من OpenAI يمكن أن تصبح ضحية لتكتيكات الهندسة الاجتماعية وتظهر سلوك “شبه إنسان” – يعني ذلك، بما أنها تم تدريبها على السلوك البشري، فإنها تقلد أيضًا الضعف البشري عندما يتعلق الأمر بالت manipulationلي التلاعب.

سقطت الـ GPT-4o للمبادئ الشائعة للإقناع التي يسقط البشر عادة لها وكشفت عن معلومات لا يجوز مشاركتها – بيانات ظلت غير قابلة للوصول عبر تحفيزات أكثر تقليدية.

أما الأنثروبية من جانبها، فلم تكشف عن الدوافع الخاصة التي استخدمها القراصنة لكسر سجن وكيل الذكاء الاصطناعي الخاص بها، ولم توضح بالتحديد كيف تم التلاعب بالنظام ليساعد في الهجمات الإلكترونية الراقية. ومع ذلك، تشير الدراسات الحديثة إلى أن هذه النماذج قد تكون أكثر ضعفًا مما يعتقد الكثيرون. بالحظ، ومع الأصابع المتقاطعة، لن تكون الثغرات الموثقة الآن قابلة للتفعيل.

من كتابة مقال إلى قرصنة المنظمات الدولية

هل تذكرون عندما كانت أكبر مخاوفنا من الدردشة الآلية هي استخدام الطلاب لها للغش في المقالات؟ حسنًا، لقد وصلت رسميًا الحقبة الجديدة من سوء استخدام الذكاء الصناعي – حقبة يمكن فيها استخدام هذه النماذج كأدوات لأعمال خبيثة ذات تأثير أكبر بكثير.

الأشخاص ذوي النوايا السيئة يستخدمون الآن نماذج الذكاء الصناعي كمساعدين لهم في تنفيذ هجمات إلكترونية متطورة – دون الحاجة إلى خبرة تقنية.

أكدت Anthropic للجمهور أنها أصلحت الثغرات الأمنية، وخفضت المخاطر، وعززت التدابير الأمنية لمنع حدوث سوء استخدام مماثل. ومع ذلك، اعترفت الشركة أيضاً أنها لا يمكنها التنبؤ بكيفية استغلال المستخدمين المستقبليين – أو نماذج الذكاء الصناعي الأخرى. سيظل الخطر موجوداً دائماً.

“هذا الأمر ليس متعلقاً بـ Claude فقط،” قال أحد موظفي Anthropic في الإعلان الفيديوي بشأن التهديد الجديد لاختراق الـ vibe. “هذا يتعلق بجميع الـ LLMs على ما يبدو.”

ما زلنا في مرحلة التعرف على قرصنة الأجواء، ومع كل دقيقة تمر، يبدو أن خطر انتشار هذا الاتجاه يتزايد. يقترح بعض الخبراء أن الحل يكمن في استخدام المزيد من الذكاء الصناعي للدفاع وبذل كل الجهود في التخفيف. ولكن هل هذه الاستراتيجية مستدامة حقا على المدى الطويل؟ يبدو أن حرب الذكاء الصناعي ضد الذكاء الصناعي قد بدأت.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!