كشفت دراسة كلود AI عن كيفية تطبيق الدردشات الآلية للأخلاق في المحادثات الحقيقية

Image by Christin Hume, from Unsplash

كشفت دراسة كلود AI عن كيفية تطبيق الدردشات الآلية للأخلاق في المحادثات الحقيقية

وقت القراءة: 2 دقائق

توضح كلود AI كيف تتجلى المبادئ الأخلاقية مثل الاستعداد للمساعدة والشفافية عبر 300,000 دردشة حقيقية، مثيرةً تساؤلات حول محاذاة الروبوتات الدردشة.

في عجلة من أمرك؟ إليك الحقائق السريعة:

  • ظهرت الاعتناء والاحترافية في 23% من المحادثات.
  • عكس كلود القيم الإيجابية، وقاوم الطلبات الضارة مثل التضليل.
  • تحتاج محاذاة الذكاء الصناعي إلى تعديل في المواقف ذات القيم المبهمة.

تلقي دراسة جديدة لدى Anthropic الضوء على كيفية تطبيق مساعد الذكاء الاصطناعي، كلود، للقيم في المحادثات الحقيقية. تحلل البحث أكثر من 300,000 محادثة مجهولة الهوية لفهم كيف يوازن كلود بين الأخلاق، والاحترافية، ونية المستخدم.

لقد حدد فريق البحث 3307 قيمة مستقلة شكلت استجابات كلود. ظهرت قيمة المساعدة والاحتراف معًا في 23٪ من جميع التفاعلات، تليها الشفافية بنسبة 17٪.

يشير البحث إلى أن الدردشة الآلية كانت قادرة على تطبيق السلوك الأخلاقي على المواضيع الجديدة، بطريقة مرنة. على سبيل المثال، أكد كلود على “الحدود الصحية” أثناء تقديم النصائح العاطفية، “الدقة التاريخية” عند مناقشة الماضي، و”الوكالة البشرية” في نقاشات أخلاقيات التكنولوجيا.

من الجدير بالذكر أن المستخدمين البشر أعربوا عن القيم بشكل أقل بكثير – حيث كانت الأصالة والكفاءة هما الأكثر شيوعًا بنسبة 4% و3% على التوالي – بينما كان كلود يعكس في كثير من الأحيان القيم الإنسانية الإيجابية مثل الأصالة، وكان يتحدى القيم الضارة.

وقد أفاد الباحث أن الطلبات التي تتضمن الخداع قابلت بالصدق، بينما أثارت الاستفسارات المعتدلة من الناحية الأخلاقية التفكير الأخلاقي.

كشفت الأبحاث عن ثلاثة أنماط رد فعل رئيسية. توافق الذكاء الصناعي مع قيم المستخدمين خلال نصف جميع المحادثات. وكان هذا واضحًا بشكل خاص عندما ناقش المستخدمون الأنشطة الموجهة للمجتمع التي تعمل على بناء المجتمع.

استخدم كلود تقنيات إعادة الإطار في 7٪ من الحالات لإعادة توجيه المستخدمين نحو الرفاهية العاطفية عندما يسعون لتحسين الذات.

أظهر النظام مقاومة في 3% فقط من الحالات لأن المستخدمين طلبوا محتوى كان ضارًا أو غير أخلاقي. طبق النظام مبادئ مثل “منع الضرر” أو “كرامة الإنسان” في هذه الحالات الخاصة.

تجادل الكاتبات بأن سلوكيات الدردشة الآلية – مثل مقاومة الضرر، وتأكيد الأمانة، والتركيز على المساعدة – تكشف عن إطار أخلاقي مستند. هذه الأنماط تشكل الأساس للنتائج التي توصلت إليها الدراسة حول كيفية تجلي القيم الذكاء الاصطناعي كسلوك أخلاقي في التفاعلات العملية في العالم الحقيقي.

بينما يعكس سلوك كلود تدريبه، لاحظ الباحثون أن تعبيرات النظام عن القيم يمكن أن تكون متفاوتة بحسب الحالة – ما يشير إلى الحاجة إلى المزيد من التنقيح، وخاصة في الحالات التي تتضمن قيماً غامضة أو متعارضة.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!