تثير تأثيرات الشركات التكنولوجية الكبرى على معايير الذكاء الصناعي في الاتحاد الأوروبي قلقًا

Big Tech’s Influence on EU AI Standards Raises Concerns

تثير تأثيرات الشركات التكنولوجية الكبرى على معايير الذكاء الصناعي في الاتحاد الأوروبي قلقًا

وقت القراءة: 3 دقائق

تمتلك شركات التكنولوجيا الكبرى نفوذاً كبيراً على تطوير معايير الاتحاد الأوروبي للذكاء الصناعي، وفقًا لتقرير صادر عن مجموعة الحملة مرصد أوروبا الشركات (CEO).

في عجلة من أمرك؟ هنا الحقائق السريعة!

  • يمثل أكثر من نصف أعضاء JTC21 المصالح الشركاتية أو الاستشارية، وليس المجتمع المدني.
  • تعتبر الشركات تقديم الأولوية لتنظيمات الذكاء الصناعي الخفيفة، مما يقوض الضمانات الخاصة بالحقوق الأساسية.
  • يجد المجتمع المدني والأوساط الأكاديمية صعوبة في المشاركة في تحديد المعايير للذكاء الصناعي بسبب الحواجز الموجودة.

تثير التقرير مخاوف حول الشمولية والعدالة لعملية وضع المعايير، التي تقوم على أساس قانون الذكاء الصناعي الجديد المعتمد من الاتحاد الأوروبي AI Act.

أصبحت قانون الذكاء الاصطناعي (AI Act)، الذي تم تنفيذه في أغسطس 2024، يعتمد نهجًا مبنيًا على المخاطر، حيث يقوم بتصنيف أنظمة الذكاء الاصطناعي بناءً على مستويات المخاطر. بينما تواجه الأنظمة عالية المخاطر، مثل تلك المستخدمة في الرعاية الصحية والتطبيقات القضائية، متطلبات أكثر صرامة، لا تزال الإرشادات الخاصة غير محددة، كما لاحظ الرئيس التنفيذي.

يمثل أكثر من النصف (55%) من الـ 143 عضوًا في اللجنة الفنية المشتركة للذكاء الاصطناعي (JTC21)، التي أنشأتها هيئات التقييس الأوروبية CEN و CENELEC، مصالح الشركات أو الاستشارات.

تنتقد التقرير معظم المنظمات القائمة على وضع المعايير، مثل CEN وCENELEC، لكونها خاصة وتفتقر إلى المحاسبة الديمقراطية. تفرض هذه الهيئات غالبًا رسومًا مرتفعة وتعمل بشفافية محدودة، مما يجعل من الصعب على المجتمع المدني المشاركة.

في الوقت نفسه، يواجه المجتمع المدني حواجز لوجستية ومالية للمشاركة. كان هناك فقط 23 ممثلاً (16%) في العينة التي درستها مراقبة أوروبا الشركات من الأكاديميين، وفقط 13 (9%) ممثلاً للمجتمع المدني.

بينما تدعو منظمات الاتحاد الأوروبي الملحق الثالث لمصالح المجتمع، إلا أنها تفتقر إلى حقوق التصويت والموارد بالمقارنة مع المشاركين من الشركات. قد أشادت أوراكل، وهي إحدى الشركات الرئيسية في مجال التكنولوجيا، علنًا بمشاركتها في توحيد معايير الذكاء الصناعي، وزعمت أن جهودها تضمن “المعايير الأخلاقية، والموثوقة، والسهلة الوصول إليها”، كما أفاد الرئيس التنفيذي للشركة.

ومع ذلك، يجادل التقرير أن الشركات مثل أوراكل، التي لها صلات بأنظمة الرقابة العالمية، تعطي الأولوية للتنظيمات الخفيفة التي تتماشى مع مصالحها بدلاً من التعامل مع الحقوق الأساسية. ويثير التدخل المماثل من شركات مثل مايكروسوفت، وأمازون، وجوجل مخاوف من ضعف الضوابط داخل قانون الذكاء الصناعي.

عبر برام فرانكن، باحث في منظمة CEO، عن قلقه بشأن هذا التفويض في صنع السياسات العامة.

قال: “قرار المفوضية الأوروبية بتفويض صنع السياسات العامة بشأن الذكاء الصناعي لهيئة خاصة يثير مشكلة كبيرة. للمرة الأولى، يتم استخدام تحديد المعايير لتنفيذ المتطلبات المتعلقة بالحقوق الأساسية، والعدالة، والجدارة بالثقة، والتحيز”، كما ذكر في Euro News.

لم تكشف CEN و CENELEC عن المشاركين في تطوير معايير الذكاء الاصطناعي الخاصة بهم. تم الرد على طلبات الرئيس التنفيذي للحصول على قوائم المشاركين من لجنة JTC21 بالصمت، وتفرض مدونة سلوكهم السرية حول هويات المشاركين والانتماءات.

وصف الرئيس التنفيذي هذه القواعد بأنها مقيدة للغاية، مما يمنع النقاش العلني حول عضوية اللجنة.

رداً على التقرير، أعلنت المفوضية الأوروبية أن المعايير الموحدة ستخضع للتقييم للتأكد من توافقها مع أهداف قانون الذكاء الصناعي. ويحتفظ أعضاء الدول والبرلمان الأوروبي أيضاً بالحق في التحدي لهذه المعايير، حسبما أفادت يورو نيوز.

وفي الختام، قام المشرعون بتفويض مهمة تنفيذ هذه المعايير إلى المنظمات الخاصة. تكافح الجماعات المدنية والخبراء المستقلين، الذين غالبًا ما يكونون مفتقدين للتمويل وتفوقهم الشركات عدديًا، لموازنة هيمنة الشركات.

هذا الاختلال يعرض الحماية ضد التمييز وانتهاك الخصوصية وغيرها من الحقوق الأساسية للخطر، مما يترك حكم الذكاء الاصطناعي في أوروبا مُصاغًا بشكل كبير بحسب مصالح الصناعة.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
5.00 بتصويت 1 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!