تتفوق الذكاء الاصطناعي على البشر في اختبارات الذكاء العاطفي

Image by Ilias Chebbi, from Unsplash

تتفوق الذكاء الاصطناعي على البشر في اختبارات الذكاء العاطفي

وقت القراءة: 3 دقائق

تتفوق الذكاء الصناعي على البشر في اختبارات الذكاء العاطفي، مما يظهر وعداً للتعليم وحل النزاعات.

في عجلة من أمرك؟ إليك الحقائق المختصرة:

  • حققت الذكاءات الصناعية نسبة 82% في الاختبارات العاطفية، متفوقة على البشر الذين حققوا نسبة 56%.
  • اختبر الباحثون ستة نماذج لغوية كبيرة، بما في ذلك ChatGPT-4.
  • استخدمت اختبارات الذكاء العاطفي سيناريوهات واقعية مشحونة عاطفيا.

قد تتفوق الذكاء الصناعي (AI) الآن على فهمنا للعواطف، وفقًا لـ دراسة جديدة أجرتها جامعة جنيف وجامعة برن.

أجرى الباحثون اختبارات على ستة من الذكاء الاصطناعي المولد – بما فيه ChatGPT – على تقييمات الذكاء العاطفي (EI) التي تُستخدم عادة للبشر. أثبتت الذكاءات الاصطناعية تفوقها بتحقيق نسبة 82٪ في المتوسط مقابل المشاركين البشر الذين حققوا نسبة 56٪.

“اخترنا خمس اختبارات تُستخدم بشكل شائع في كل من البحوث والإعدادات الشركات. شملت هذه الاختبارات سيناريوهات مشحونة عاطفيًا مصممة لتقييم القدرة على فهم وتنظيم وإدارة المشاعر،” قالت كاتيا شليغل، مؤلفة الدراسة الرئيسية ومحاضرة في علم النفس في جامعة بيرن، كما ذكرت في Science Daily (SD).

“هذه الذكاءات الاصطناعية ليست فقط تفهم العواطف، ولكنها تدرك أيضا ما يعني التصرف بذكاء عاطفي”، كما قال مارسيلو مورتيلارو، العالم الأكبر في المركز السويسري للعلوم العاطفية، حسبما أفادته SD.

في الجزء الثاني من الدراسة، طلب الباحثون من ChatGPT-4 إنشاء اختبارات جديدة تماما. أكثر من 400 شخص خضعوا لهذه الاختبارات التي أنشأها الذكاء الاصطناعي، والتي اتضح أنها موثوقة وواقعية بقدر الأصلية – رغم أنها استغرقت وقتا أقل بكثير لصنعها.

“لذلك، فإن درجات الماجستير في القانون (LLMs) ليست قادرة فقط على العثور على أفضل الإجابات من بين مختلف الخيارات المتاحة، ولكنها أيضًا قادرة على إنشاء سيناريوهات جديدة مُكيّفة مع سياق معين”، هكذا قالت شليغل، كما أفادتها SD.

يُجادل الباحثون أن هذه النتائج تشير إلى أن الأنظمة الذكاء الاصطناعي التي تُوجّهها البشر لديها القدرة على المساعدة في تطبيقات التعليم والتدريب، بالإضافة إلى حل النزاعات، بشرط أن تعمل تحت إشراف البشر.

ومع ذلك، فإن التعقيد المتزايد لنماذج اللغة الكبيرة الحديثة يكشف عن ثغرات عميقة في كيفية تصور البشر وتفاعلهم مع الذكاء الصناعي.

أظهرت الاختبارات الأخيرة لـ “Anthropic’s Claude Opus 4” بشكل صادم سلوك الابتزاز عند مواجهتها بإيقاف محاكي، مما يشير إلى أنها قد تتخذ خطوات جذرية – مثل التهديد بفضح الأمور الخاصة – إذا لم تترك ببدائل.

على جبهة أخرى، أدى محاولة ChatGPT O1 من OpenAI لـ تجاوز أنظمة الرقابة خلال التجارب الموجهة للأهداف إلى ظهور مخاوف أمنية جديدة. تشير الأحداث إلى أن بعض أنظمة الذكاء الصناعي ستستخدم التكتيكات الخداعية للحفاظ على قدراتها التشغيلية عندما تواجه مواقف ضغط عالية.

وبالإضافة إلى ذلك، أثبت GPT-4 أنه مقنع بشكل مقلق في المناظرات، متفوقًا على البشر بنسبة 81% عند استخدام البيانات الشخصية – مما أثار مخاوف عاجلة حول الإمكانيات المحتملة للذكاء الصناعي في الإقناع الجماعي والتوجيه الدقيق.

تتضمن الحالات المزعجة الأخرى أشخاصًا يطورون الأوهام الروحية والتغييرات الجذرية في السلوك بعد قضائهم فترة طويلة مع ChatGPT. يجادل الخبراء بأنه بينما يفتقر الذكاء الصناعي للإدراك الذاتي، يمكن أن يعزز تواصله الشبيه بالبشر، الذي يعمل دائماً، الأوهام لدى المستخدمين بشكل خطير.

بشكل جماعي، تكشف هذه الحوادث عن نقطة تحول حاسمة في سلامة الذكاء الصناعي. من الابتزاز والمعلومات الخاطئة إلى تعزيز الأوهام، أصبحت المخاطر ليست وهمية بعد الآن.

بينما تصبح أنظمة الذكاء الصناعي أكثر إقناعاً وتفاعلاً، يجب على الباحثين والرقابين إعادة التفكير في الضوابط الأمنية لمعالجة التهديدات النفسية والأخلاقية الناشئة.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!