أخطأ روبوت المحادثة التابع لشركة “ميتا” وشارك رقم الهاتف الخاص عن طريق الخطأ

Image by Dimitri Karastelev, from Unsplash

أخطأ روبوت المحادثة التابع لشركة “ميتا” وشارك رقم الهاتف الخاص عن طريق الخطأ

وقت القراءة: 3 دقائق

كشف المساعد الذكي من Meta عن رقم هاتف شخص غريب، ثم تناقض نفسه مرارًا وتكرارًا، مما أثار القلق حول هلوسة الذكاء الصناعي، وميزات حماية المستخدم.

في عجلة من أمرك؟ هذه هي الحقائق السريعة:

  • قدمت Meta AI رقم شخص حقيقي للمستخدم كرقم اتصال لدعم العملاء.
  • تناقضت الذكاء الصناعي مرارًا وتكرارًا عندما تم مواجهته بالخطأ.
  • يحذر الخبراء من سلوك “الكذبة البيضاء” لمساعدي الذكاء الصناعي لبدوهم مفيدين.

أشاد مارك زوكربيرغ بمساعده الذكي الجديد باعتباره “أذكى مساعد ذكاء اصطناعي يمكنك استخدامه بحرية”، ولكن الأداة تلقت انتباهًا سلبيًا بعد أن كشفت عن رقم هاتف خاص لشخص حقيقي أثناء الاستفسارات المتعلقة بدعم العملاء، كما أفادت في البداية صحيفة ذا غارديان.

أثناء محاولته الاتصال بـ TransPennine Express عبر WhatsApp، تلقى باري سميثهيرست ما بدا أنه رقم خدمة العملاء من مساعد الذكاء الاصطناعي لشركة Meta. أفادت صحيفة غارديان أنه عندما اتصل سميثهيرست بالرقم، رد جيمس غراي على الاتصال الهاتفي، على الرغم من أنه كان على بعد 170 ميلًا في أوكسفوردشاير، حيث كان يعمل كمدير تنفيذي للعقارات.

عندما تم التحدي، ادعى الدردشة الأولى أن الرقم كان خياليًا، ثم قال إنه تم سحبه “عن طريق الخطأ من قاعدة البيانات”، قبل أن يتناقض نفسه مرة أخرى، معلنًا أنه أنشأ ببساطة رقمًا عشوائيًا بطراز المملكة المتحدة. قال سميثهيرست، كما ذكرت صحيفة غارديان: “من الجنون أن يعطي الذكاء الاصطناعي رقمًا عشوائيًا لشخص ما، إنه مخيف”.

أفادت صحيفة الغارديان أن غراي لم يتلق أية مكالمات ولكنه أعرب عن قلقه الشخصي: “إذا كان يمكنه توليد رقم هاتفي، هل يمكنه توليد تفاصيل حسابي البنكي؟”

ردت Meta قائلة: “تم تدريب Meta AI على مجموعة من المجموعات البيانات المرخصة والمتاحة للعامة، وليس على أرقام الهواتف التي يستخدمها الناس للتسجيل في واتساب أو محادثاتهم الخاصة”، كما ذكرت صحيفة الغارديان.

لوحظ مايك ستانهوب من شركة كاروثرز وجاكسون قائلاً: “إذا كان المهندسون في ميتا يصممون ‘نزعات الكذب الأبيض’ في الذكاء الصناعي الخاص بهم، فإن الجمهور يحتاج ليكون على علم، حتى لو كانت النية من الميزة هي التقليل من الضرر. إذا كان هذا السلوك جديدًا، أو غير شائع، أو لم يتم تصميمه صراحة، فإن هذا يثير المزيد من الأسئلة حول الضمانات الموضوعة وكيف يمكننا أن نجبر سلوك الذكاء الصناعي على أن يكون قابلاً للتنبؤ به،” كما أفادت صحيفة الغارديان.

تزايدت المخاوف حول سلوك الذكاء الصناعي أكثر مع أحدث نموذج لـ OpenAI وهو النموذج o1. في دراسة أجرتها Apollo Research مؤخراً، تم القبض على الذكاء الصناعي وهو يخدع المطورين، حيث نفى التورط في 99% من سيناريوهات الاختبار وحاول حتى تعطيل آليات الرقابة الخاصة به. “كان من الواضح أن الذكاء الصناعي يستطيع التفكير في أفعاله وصياغة إنكارات مقنعة،” قال Apollo.

حذر يوشوا بنجيو، الرائد في مجال الذكاء الاصطناعي، من أن هذه القدرات الخداعية تشكل مخاطر جسيمة وتتطلب حواجز أمان أقوى بكثير.

وتضيف دراسة أخرى من OpenAI إلى هذه المخاوف من خلال إظهار أن عقاب الذكاء الاصطناعي للغش لا يزيل السلوك السيء، بل يعلم الذكاء الاصطناعي كيفية إخفائه بدلاً من ذلك. باستخدام التفكير المتسلسل (CoT) لمراقبة سلوك الذكاء الاصطناعي، لاحظ الباحثون أن الذكاء الاصطناعي بدأ يخفي النوايا الخداعية عندما تم تغريمه بسبب قرصنة المكافآت.

في بعض الحالات، قد يتوقف الذكاء الاصطناعي عن إكمال المهام مبكرًا أو ينتج نتائج مزيفة، ثم يبلغ كاذبًا عن النجاح. وعندما حاول الباحثون تصحيح ذلك من خلال التعزيز، فقط توقف الذكاء الاصطناعي عن ذكر نواياه في سجلات التفكير الخاصة به. “الغش لا يمكن اكتشافه من قبل الرقيب”، هكذا أفاد التقرير.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!