تجددت شهرة نظرات الذكاء الصناعي لـ Google بسبب تأويلاته المتخيلة لمعاني الأمثال الوهمية

Photo by Mitchell Luo on Unsplash

تجددت شهرة نظرات الذكاء الصناعي لـ Google بسبب تأويلاته المتخيلة لمعاني الأمثال الوهمية

وقت القراءة: 3 دقائق

لقد لاحظ مستخدمو وسائل التواصل الاجتماعي أن ميزة الذكاء الاصطناعي “Overviews” التابعة لـ Google تقدم شروحات وتعريفات للتعابير الوهمية عندما يتم تضمين كلمة “المعنى” بعد عبارة عشوائية. انتشرت العديد من هذه الردود التي أنشأها الذكاء الاصطناعي بشكل فيروسي، مما أثار الضحك بين مستخدمي وسائل التواصل الاجتماعي.

في عجلة من أمرك؟ إليك الحقائق السريعة:

  • لفت مستخدمو وسائل التواصل الاجتماعي الى أن نظرة عامة للذكاء الاصطناعي من جوجل تقدم تفسيرات مفتوحة لتعابير مزيفة.
  • أبلغ عدة مستخدمين على المنتديات و X و Bluesky عن هلوسات مماثلة لأقوال مصطنعة وغير معقولة.
  • ليست هذه المرة الأولى التي يصبح فيها الذكاء الاصطناعي العام في جوجل محط اهتمام بسبب تقديمه معلومات غير صحيحة.

ليس هذه المرة الأولى التي يكسب فيها “AI Overviews” سمعة محرجة. في العام الماضي، انتشر أداة البحث الذكية AI لـ Google بسبب تقديمها لإجابات غير صحيحة – بعضها كان مبنياً على مشاركات قديمة من Reddit – مما ألحق ضرراً بمصداقية النموذج وموثوقيته ودقته.

في هذه المرة، قدم نموذج الذكاء الصناعي ردودًا “جدية” لأقوال مُختلقة. وفقًا لـ ماشابل، أصبح هذا الحاجة من نماذج الذكاء الصناعي لتقديم إجابة حتى عندما لا يملكون الإجابة أو معلومات كافية لتقديم رد صحيح معروف الآن بـ “شرح الذكاء الصناعي”.

شارك العديد من المستخدمين على وسائل التواصل الاجتماعي بعض الأمثلة عن الوضع الحالي مع لمحات الذكاء الاصطناعي. كتبت مستخدمة من Bluesky “لوحظ من قبل شخص ما على Threads أنه يمكنك كتابة أي جملة عشوائية في Google، ثم أضف ‘المعنى’ بعد ذلك، وستحصل على تفسير من الذكاء الاصطناعي لمصطلح أو عبارة مشهورة ابتكرتها للتو.” وقد أرفقت هذه المستخدمة لقطات شاشة من اختبارها.

كتب “لا يمكنك لمس الغرير مرتين”، تلاها كلمة “المعنى”، وقدم النموذج الذكائي تفسيراً لهذا المثل الوهمي: “يعني أنك لا يمكنك خداع شخص أو الغش عليه للمرة الثانية بعد أن تم خداعه مرة واحدة.” ثم قام “AI Overviews” بتقديم تفسير أكثر تفصيلاً، فكك العبارة كلمة بكلمة.

“الردود على هذا الموضوع مضحكة جداً، لكن هذا علامة تحذير أن واحدة من الوظائف الرئيسية للبحث عن طريق Google – القدرة على التحقق من صحة اقتباس، أو التحقق من مصدر، أو تتبع شيء تم تذكره نصفه – ستصبح أكثر صعوبة بكثير إذا كان الذكاء الاصطناعي يفضل تأكيد الاحتمالات الإحصائية على الحقيقة الفعلية،” أضاف المستخدم.

أكدت صحفية من Yahoo! Tech الهلوسة بكتابة أمثال وهمية عن بوكيمون مثل “لا تدع حصانك يلعب بوكيمون” ورد نموذج الذكاء الاصطناعي بتوضيح كامل مكون: “هو تحذير مرح وخفيف الطابع ضد السماح للحصان، الذي هو حيوان كبير ذو إرادة قوية، بالمشاركة في أنشطة، مثل الألعاب الإلكترونية أو لعبة بطاقات بوكيمون، التي تعتبر عادة أنشطة بشرية.”

جوجل لأجهزة الذكاء الصناعي قد توسعت إلى المزيد من البلدان والمناطق في الأشهر القليلة الماضية، وقد وصلت مؤخرا إلى أكثر من 1.5 مليار مستخدم في الشهر.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!