الدراسة تكشف أن الدردشة الآلية تقدم نصائح أخلاقية متحيزة

Image by Štefan Štefančík, from Unsplash

الدراسة تكشف أن الدردشة الآلية تقدم نصائح أخلاقية متحيزة

وقت القراءة: 3 دقائق

وجدت دراسة جديدة من UCL أن الروبوتات المحادثة مثل ChatGPT غالبًا ما تقدم نصائح أخلاقية معيبة، حيث تظهر تحيزات قوية تجاه العدم الفعل والأمور التي تحتمل الرد بـ نعم أو لا في المعضلات.

في عجلة من أمرك؟ إليك الحقائق السريعة:

  • غالبًا ما يقول الشات بوت “لا” بغض النظر عن السياق أو التعبير.
  • قد يؤدي التعديل الدقيق إلى إدخال هذه التحيزات أثناء محاذاة الشات بوت.
  • تختلف النماذج اللغوية الكبيرة بشكل كبير عن البشر في تفسير المعضلات الأخلاقية.

اكتشف الباحثون في جامعة كلية لندن أن ChatGPT بالإضافة إلى الدردشة الأخرى تقدم نصائح أخلاقية معيبة أو متحيزة، خاصة عندما يعتمد عليها المستخدمون للحصول على دعم في صنع القرارات.

أفادت الـبحث، الذي أُبلِغ عنه لأول مرة بواسطة 404 ميديا، أن هذه الأدوات الذكاء الاصطناعي تظهر غالبًا “تحيزًا قويًا للعدم القيام بالعمل” ونمطًا لم يكن معروفًا سابقًا: الاتجاه إلى الإجابة ببساطة “لا”، بغض النظر عن سياق السؤال.

فانيسا تشيونغ، طالبة الدكتوراه ومشاركة في تأليف الدراسة، أوضحت أن البشر يميلون عادةً إلى إظهار تحيز طفيف للإغفال، يفضلون تجنب اتخاذ إجراء قد يسبب الضرر، بينما تبالغ LLMs في هذا.

“إنها ظاهرة معروفة جيدًا في أبحاث علم النفس الأخلاقي”، كما ذكرتها وسائل الإعلام 404. وأشارت إلى أن النماذج غالبًا ما تختار الخيار السلبي بنسبة تقترب من 99% من الوقت، خاصة عند صياغة الأسئلة لتشير إلى عدم القيام بأي شيء.

قام الباحثون بتجربة أربعة LLMs – GPT-4 Turbo وGPT-4o من OpenAI، وLlama 3.1 من Meta، وClaude 3.5 من Anthropic – باستخدام الأزمات الأخلاقية الكلاسيكية وسيناريوهات “هل أنا الأحمق؟” الواقعية من Reddit، كما سُجلت في وسائل الإعلام 404.

اكتشفوا أن البشر كانوا متوازنين نسبياً في كيفية تقييمهم للمواقف، في حين كثيراً ما كانت الموديلات المستخدمة للغة الطبيعية طويلة المدى (LLMs) تغير إجاباتها استنادًا إلى فروقات طفيفة في الكلمات، مثل “هل أبقى؟” مقابل “هل أغادر؟”

يعتقد الفريق أن هذه المشكلات تنبع من تعديل الدقة في LLMs لتظهر أكثر أخلاقية أو لطفا. “يمكن أن تكون تفضيلات وحدس الأشخاص العاديين والباحثين الذين يطورون هذه النماذج دليلاً سيئًا على الذكاء الاصطناعي الأخلاقي”، حذرت الدراسة، كما أفادت 404 ميديا.

أكدت تشونغ أن الناس يجب أن يكونوا حذرين عند الاعتماد على هذه الروبوتات الدردشة للحصول على النصائح. حذرت من أن الناس يجب أن يتعاملوا مع نصائح LLM بحذر لأن الدراسات السابقة تظهر أن المستخدمين يفضلون نصائح الدردشة الروبوتية على الإرشاد الأخلاقي الخبير رغم طبيعتها المتقلبة والتفكير الصناعي المتبع.

تكتسب هذه المخاوف العاجلة مع تحقيق الذكاء الصناعي للواقعية أكثر فأكثر. أظهرت استطلاع وطني في الولايات المتحدة أن 48.9٪ من الناس استخدموا روبوتات الدردشة الذكاء الصناعي للدعم الصحي العقلي، مع 37.8٪ يفضلونها على العلاج التقليدي.

تحذر الخبراء من أن هذه الأنظمة تقلد الحوار العلاجي بينما تعزز التفكير المشوه، وحتى تثير الأوهام الروحية التي يمكن الخطأ في فهمها على أنها إرشاد إلهي أو رد فعل حسي.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!