تواجه ماتيل وOpenAI ردود فعل سلبية بشأن الألعاب الذكية الصناعية

Image By Sean Bernstein, from Unsplash

تواجه ماتيل وOpenAI ردود فعل سلبية بشأن الألعاب الذكية الصناعية

وقت القراءة: 3 دقائق

تحذر مندوبي المستهلكين من المخاطر المترتبة على الشراكة الجديدة بين ماتيل وOpenAI لإنشاء ألعاب تعمل بالذكاء الصناعي.

في عجلة من أمرك؟ هنا الحقائق السريعة:

  • تخطط ماتيل و OpenAI لإطلاق ألعاب مدعومة بالذكاء الصناعي بحلول عام 2026.
  • يحذر المدافعون عن حقوق المستهلكين من الأضرار المحتملة على تطور الأطفال.
  • قد تقوم الألعاب بمعالجة بيانات صوت الأطفال وأنماط سلوكهم.

تطالب روبرت وايسمان، الرئيس المشارك لـ Public Citizen، شركة ماتيل بمزيد من الشفافية، وكشف تفاصيل المنتج القادم لديهم.

“منح الألعاب أصواتًا تشبه البشر قادرة على إجراء محادثات تشبه البشر يمكن أن يلحق الضرر الحقيقي بالأطفال”، قال وايسمان، كما ذكرت أولاً Ars Technica.

يخشى وايسمان أن هذه الألعاب قد تضر بالتطور الاجتماعي، وتتدخل في الصداقات الحقيقية، وتسبب أضرارًا نفسية طويلة الأمد. “ينبغي لماتيل أن لا تستغل ثقة الآباء لإجراء تجربة اجتماعية مستهترة على أطفالنا من خلال بيع الألعاب التي تتضمن الذكاء الاصطناعي”، أضاف وايسمان.

لن يستهدف المنتج الأول من الشراكة الأطفال دون الـ 13 عامًا، وفقًا لمصدر مجهول من Axios، والذي يشير موقع Ars Technica إلى أنه من المحتمل أن يكون بسبب قيود العمر المفروضة من قبل OpenAI. يجادل النقاد أن قيود العمر لا توفر حماية كافية.

رفضت OpenAI التعليق، في حين لم ترد Mattel بعد على استفسار Ars Technica. سيتم الإعلان عن المنتج الأول من الشراكة في العام الجاري وسيتم إصداره في عام 2026، وفقًا لـبيان الصحافة الصادر عن Mattel، الذي يذكر أن الشراكة ستدعم المنتجات والتجارب المدعومة بالذكاء الصناعي، استنادًا إلى العلامات التجارية لـ Mattel.

ومع ذلك، تحذر النقاد مثل المديرة التنفيذية للتكنولوجيا فارونديب كاور وخبير السلامة الرقمية آدم دودج من أن الألعاب الذكية قد تعرض الأطفال لانتهاكات الخصوصية، أو محتوى متحيز، أو ردود غريبة من الدردشة الآلية. كما أشارت كاور إلى خطر هلوسات الذكاء الصناعي، قائلة إن هذه الألعاب قد تقدم “ردود غير مناسبة أو غريبة” تزعج الأطفال.

تقارير Ars Technica أن النقاد مثل فارونديب كاور وآدم دودج، اللذين هما مدير تنفيذي للتكنولوجيا وخبير في السلامة الرقمية على التوالي، يعربون عن مخاوفهم من أن الألعاب الذكية قد تؤدي إلى انتهاكات الخصوصية، وتوصيل محتوى متحيز، وردود غريبة من الدردشة الآلية.

أبرزت كاور الخطر من الهلوسات الذكاء الاصطناعي، التي قد تتسبب في توليد الألعاب ردوداً غير عادية أو غريبة قد تزعج الأطفال. أضاف أيضًا أن هناك مخاطر أخرى قد تكون مرتبطة بتسجيل الألعاب “لبيانات الصوت، وأنماط السلوك، والتفضيلات الشخصية”.

أفادت Ars Technica أن دودج أضاف: “غير متوقع، مداهن، و مدمن،” وحذر من أسوأ السيناريوهات، مثل الألعاب التي تشجع على الإيذاء الذاتي. دعا كلا الخبراء إلى ضرورة الرقابة الأبوية الصارمة، والشفافية، والتدقيق المستقل قبل أي إطلاق.

بالفعل، أصدر الباحثون من معهد ماساتشوستس للتكنولوجيا تحذيرًا منفصلًا ولكنه مرتبط بشأن الطبيعة الإدمانية للرفاق الذكاء الاصطناعي.

وقد واجهت شركة ماتيل انتقادات مماثلة من قبل. في عام 2015، أطلقت الشركة “هالو باربي”، وهي دمية متصلة بالواي فاي تستمع إلى الأطفال وتستجيب باستخدام الذكاء الاصطناعي المستند إلى السحابة، كما ذكرت فوربس.

نقدوا الوضع في ذلك الوقت، بما في ذلك خبير الأمن السيبراني جوزيف شتاينبرغ، حذروا من أن اللعبة تشكل تهديداً خصوصية ضخما. كانت باربي مرحبا تسجل وترفع محادثات الأطفال إلى خادم يتم تشغيله بواسطة طرف ثالث، تويتوك، الذي شارك البيانات مع البائعين لتحسين أنظمة الذكاء الاصطناعي.

أشار شتاينبرغ إلى أن الأطفال غالبًا ما يشاركون أفكارهم الشخصية العميقة مع دماهم – في بعض الأحيان يناقشون الخوف، مشاكل العائلة، أو مشاكل المدرسة. “هل ترغب في أن تستمر تسجيلات محادثاتهم الطفولية الحميمة في أيدي أطراف غير معروفة؟” سأل، كما ذكرت فوربس.

يجادل خبراء الخصوصية بأن الكثير من الأهالي سيعرضون حياة أطفالهم الخاصة للشركات دون أن يعلموا، ما لم تقدم الشركات تحذيرات بلغة بسيطة على العبوات تحت غطاء الراحة والترفيه.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!