
Image by Vector Juice, from Freepik
الذكاء الصناعي يتفوق على البشر في المناظرات
الذكاء الصناعي يستطيع الآن أن يتفوق على البشر في المناظرات عبر استخدام البيانات الشخصية – مما يغير الآراء بشكل أكثر فعالية ويثير القلق حول التلاعب والإقناع الجماعي.
في عجلة من أمرك؟ هاهي الحقائق السريعة:
- تفوق GPT-4 على البشر في المناظرات عندما أعطيت البيانات الشخصية.
- أقنعت الحجج الذكية الشخصية بنسبة 81% أكثر فعالية من البشر.
- ناقش أكثر من 900 مشارك مواضيع مثل المناخ والرعاية الصحية.
تُظهر دراسة جديدة نُشرت في Nature Human Behaviour أن GPT-4 التابع لـ OpenAI يمكن أن يكون أكثر إقناعًا من البشر، خاصةً عندما يقوم بتكييف حججه بناءً على المعلومات الشخصية حول خصمه.
أجرى فرانشيسكو سالفي وفريقه في EPFL بحثًا حول مدى فعالية GPT-4 في تغيير آراء الناس من خلال المناقشات القصيرة والمنظمة.
تم مطابقة المشاركين في الدراسة عشوائيًا مع خصم إنسان أو خصم ذكاء صناعي. وتم منح بعض المناقشين الوصول إلى معلومات شخصية عن نظيرهم، مثل العمر، ومستوى التعليم، والتوجه السياسي.
عندما كان لدى GPT-4 الوصول إلى هذه التفاصيل الشخصية، أصبح أكثر إقناعًا بشكل ملحوظ – حيث تجاوز المناظرين البشر بنسبة 81%. في المناظرات التي كان لها فائز واضح، خرج الذكاء الاصطناعي فائزًا 64% من الأوقات عندما قام بتخصيص حججه.
دون الوصول إلى البيانات الشخصية، أداء GPT-4 كان على قدم المساواة مع البشر. ما هو مثير للاهتمام، عندما تم تقديم نفس المعلومات الشخصية للبشر، لم يصبحوا أكثر إقناعًا بشكل ملحوظ، مما يشير إلى أن الذكاء الاصطناعي مجهز بشكل أفضل لاستخدام هذه البيانات بطريقة استراتيجية.
شملت التجربة أكثر من 900 مشارك يناقشون مواضيع مثل الزي المدرسي، وسياسة التغير المناخي، وإصلاح الرعاية الصحية. قام المشاركون بتقييم مدى موافقتهم على موضوع النقاش قبل وبعد التفاعل.
أسفرت الحجج المُخصصة التي أنتجها GPT-4 عن أكبر تغييرات في الرأي، وخاصة في المواضيع المثيرة للجدل بشكل معتدل.
تثير هذه النتائج القلق حول مستقبل التوجيه الدقيق الذي يعتمد على الذكاء الاصطناعي، والذي يستخدم الرسائل المخصصة للتأثير على الأشخاص بناءً على سماتهم الشخصية. بما أن الذكاء الاصطناعي يستطيع بالفعل استنتاج المعلومات الخاصة من السلوك عبر الإنترنت، فهذا يفتح الباب أمام حملات الإقناع الفعالة للغاية في السياسة والإعلان والمعلومات الخاطئة.
يلاحظ الخبراء المشاركون في المشروع أن حملات التضليل المنسقة التي تعتمد على الذكاء الاصطناعي قد تصبح تهديدًا خطيرًا.
“يجب أن ينظر صناع السياسات والمنصات الإلكترونية بجدية إلى تهديد الحملات المنسقة للتضليل المبنية على الذكاء الاصطناعي، حيث أصبحنا واضحًا أننا قد وصلنا إلى المستوى التكنولوجي الذي يتيح لنا إنشاء شبكة من الحسابات الآلية المبنية على LLM قادرة على توجيه الرأي العام استراتيجيًا في اتجاه واحد،” كما يقول ريكاردو غالوتي، الذي عمل على المشروع، كما ذكرت MIT.
“يمكن استخدام هذه الروبوتات لنشر المعلومات المضللة، وسيكون من الصعب جدًا فكك هذا النوع من التأثير المنتشر في الوقت الحقيقي،” أضاف. تشمل واحدة من الجوانب التي ما زال الباحثون يستكشفونها دور تصور المشارك في هذه المناقشات.
لا يزال غير واضح ما إذا كان الناس أكثر استعدادًا لتغيير آرائهم لأنهم كانوا يعتقدون أنهم يتجادلون مع روبوت وبالتالي لم يشعروا أنهم “يخسرون” أمام شخص حقيقي، أو إذا كانت افتراضهم بأن خصمهم كان روبوتًا جاء بعد تغيير رأيهم كوسيلة لتبرير النتيجة.
ومع ذلك، تلاحظ الباحثات أن الدراسة كانت تحتوي على قيود. كانت المناظرات مختصرة ومنظمة، وهو ما لا يعكس بالكامل تعقيد الخطاب العالمي الحقيقي. كما كان المشاركون يعلمون أنهم جزء من تجربة، الأمر الذي قد يكون أثر في كيفية ردود أفعالهم.
مع ذلك، الرسالة واضحة: الذكاء الصناعي يصبح فعالًا بشكل مقلق في الإقناع، خاصة عندما يعرف من يتحدث إليه. يحذر الباحثون من أن هذا قد يكون له عواقب خطيرة، ويدعون الحكومات وشركات التكنولوجيا لتطبيق الضوابط لمنع الاستخدام الخاطئ المحتمل.