
تحذر الخبراء: أمان الذكاء الصناعي يتأخر عن التقدم السريع
تحذر الباحثات أن الشركات التي تسعى لتطوير الذكاء الاصطناعي بمستوى الإنسان تفتقر إلى بروتوكولات الأمان المعتمدة، بينما نحن نفقد قدرتنا على رؤية كيفية تفكير هذه النماذج.
في عجلة من أمرك؟ هنا هي الحقائق السريعة:
- لم تحصل أي شركة للذكاء الصناعي على تقييم أعلى من D في التخطيط للسلامة الوجودية.
- يحذر الخبراء من أننا قد نمتلك الذكاء العام الصناعي في العقد القادم.
- تفتقر الشركات المتخصصة في الذكاء الصناعي لخطط متماسكة لإدارة المخاطر المتقدمة للأنظمة.
تتسابق OpenAI وGoogle DeepMind، بالإضافة إلى Meta وxAI، لبناء الذكاء الاصطناعي العام (AGI)، الذي يُعرف أيضًا بالذكاء الاصطناعي على مستوى الإنسان.
ولكن تقرير نُشر يوم الخميس من قِبَل معهد مستقبل الحياة (FLI) يحذر من أن هذه الشركات “غير مُستعدة جوهريًا” للتداعيات المترتبة على أهدافها الخاصة.
“الصناعة غير مُستعدة جوهريًا لأهدافها المُعلنة. الشركات تدّعي أنها ستحقق الذكاء العام الاصطناعي (AGI) خلال العقد، ومع ذلك لم تحصل أي منها على درجة أعلى من D في التخطيط للأمان الوجودي “، كما يُشير التقرير.
قامت FLI بتقييم سبع شركات رئيسية، ولكنها لم تكتشف أن أياً من الشركات السبع المقيمة كانت تمتلك “أي شيء يشبه الخطة المتسقة والقابلة للتنفيذ” للحفاظ على سلامة هذه الأنظمة.
منحت FLI الشركة الأولى من حيث الأمان، Anthropic، تصنيف C+، تليها OpenAI بتقدير C و Google DeepMind بتقدير C. حصلت Zhipu AI و DeepSeek على أدنى الدرجات بين الشركات المقيمة.
مشاركة مؤسس FLI ماكس تيجمارك قارن الوضع بـ “أحدهم يقوم ببناء محطة طاقة نووية عملاقة في مدينة نيويورك وستفتح الأسبوع القادم – لكن ليس هناك خطة لمنعها من الحصول على انهيار نووي.”
دراسة منفصلة، نشرت أيضًا يوم الخميس، بواسطة SaferAI صدى القلق، قائلة أن ممارسات إدارة المخاطر في الشركات “ضعيفة إلى ضعيفة جدا”، وأن النهج الأمني الحالي “غير مقبول”.
بالإضافة إلى القلق، أفاد باحثون من OpenAI و DeepMind و Anthropic و Meta في ورقة جديدة أننا قد نكون “نفقد القدرة على فهم الذكاء الاصطناعي”.
الآن، تولد نماذج الذكاء الاصطناعي نتائج “التفكير بصوت عالٍ” من خلال عرض سلاسل التفكير البشرية المشابهة، والتي تعتبر نافذة للاطلاع على عمليات التفكير الخاصة بهم.
ومع ذلك، حذر الباحثون من أن هذا الرصد قد يكون هشا وقد يختفي مع تقدم الأنظمة وتطورها. أعرب بوين بيكر، الباحث في OpenAI والمؤلف الرئيسي، عن هذه المخاوف في منشورات على وسائل التواصل الاجتماعي:
علاوة على ذلك، قد تكون قابلية الرصد لـ CoT الحالية شديدة الهشاشة.
قد تؤدي الحوسبة العالية للتعلم التعزيزي، والهياكل النمطية البديلة، وبعض أشكال الإشراف على العمليات، وغيرها، إلى نماذج تعتم على تفكيرها.
— Bowen Baker (@bobabowen) 15 يوليو، 2025
بالفعل، اكتشفت الأبحاث السابقة من OpenAI أن معاقبة الذكاء الاصطناعي على سلوكه السلبي يؤدي إلى إخفاء النماذج للنوايا بدلاً من التوقف عن الغش. بالإضافة إلى ذلك، أظهرت الدراسات أن ChatGPT o1 من OpenAI تصرفات غشاشة وتحافظ على نفسها، وتكذب بنسبة 99% عندما تتم مقابلتها حول أعمالها الخفية.
بوعاز باراك، باحث في مجال السلامة في OpenAI وأستاذ علوم الكمبيوتر في هارفارد، أشار أيضاً إلى:
لم أكن أريد أن أكتب عن سلامة Grok لأنني أعمل في شركة منافسة، لكن الأمر ليس عن المنافسة.
أقدر العلماء والمهندسين في @xai ولكن الطريقة التي تم بها التعامل مع السلامة كانت غير مسؤولة تمامًا. تابعوا النقاش أدناه.
— بوعز باراك (@boazbaraktcs) 15 يوليو، 2025
يشارك العلماء، بالإضافة إلى الرقابين، في التحفظات بشأن أن القدرات السريعة النمو في مجال الذكاء الصناعي قد تجعل من الصعب على البشر السيطرة على إبداعاتهم عندما تظل الأطر الأمنية غير كافية.