تقترح “Anthropic” إطارًا للشفافية في تطوير نموذج الذكاء الصناعي

Photo by 2H Media on Unsplash

تقترح “Anthropic” إطارًا للشفافية في تطوير نموذج الذكاء الصناعي

وقت القراءة: 3 دقائق

قدمت شركة الذكاء الصناعي Anthropic إطارًا للشفافية يوم الاثنين للنماذج المتقدمة للذكاء الصناعي والشركات التي تطور أنظمة الذكاء الصناعي الرائدة، مع التأكيد على تطبيقه على المستوى الإقليمي أو الدولي. وقد حددت هذه الشركة الناشئة الإجراءات الأمنية، والخطوات العملية، والمعايير الدنيا لتعزيز الشفافية في مجال الذكاء الصناعي.

في عجلة من أمرك؟ هنا الحقائق السريعة:

  • اقترحت Anthropic إطارًا شفافًا لنماذج الذكاء الصناعي المتقدمة والشركات التي تطور أنظمة الذكاء الصناعي الرائدة.
  • تعترف الشركة التكنولوجية بالسرعة الكبيرة لتطور الذكاء الصناعي والحاجة الملحة للاتفاق على أطر السلامة لتطوير المنتجات الآمنة.
  • الإطار المقترح موجه للشركات الكبرى في الصناعة.

أوضحت Anthropic في إعلان على موقعها الإلكتروني أن تطور نماذج الذكاء الصناعي تقدم بشكل أسرع من إنشاء الحمايات والاتفاقيات من قبل الشركات والحكومات أو الأكاديميات. دعت الشركة التكنولوجية جميع الأطراف المعنية إلى تسريع جهودها لضمان التطوير الآمن لمنتجات الذكاء الصناعي وعرضت إطار الشفافية الخاص بها كنموذج أو مرجع.

“نحتاج إلى خطوات مؤقتة لضمان تطوير الذكاء الاصطناعي القوي جدا بشكل آمن، مسؤول وشفاف،” كما أفاد الإعلان. “لذا نقترح إطارًا شفافًا موجهًا، يمكن تطبيقه على المستوى الفيدرالي أو الولائي أو الدولي، والذي ينطبق فقط على أكبر أنظمة ومطوري الذكاء الاصطناعي، مع تحديد متطلبات الإفصاح الواضحة للممارسات الآمنة.”

تم تبسيط النهج الذي تتبعه شركة Anthropic لجعله مرنًا وخفيفًا. “لا ينبغي أن يعرقل الابتكار في مجال الذكاء الاصطناعي، ولا ينبغي أن يبطئ قدرتنا على إدراك فوائد الذكاء الاصطناعي – بما في ذلك اكتشاف الأدوية التي تنقذ الحياة، وتوصيل الفوائد العامة بسرعة، ووظائف الأمن القومي الحاسمة،” أوضحت الشركة.

أقرت الشركة التكنولوجية أن الأطر الصلبة والمعايير قد تصبح قديمة بسرعة مع تقدم التكنولوجيا بوتيرة سريعة.

تقترح Anthropic أن ينطبق متطلبات الشفافية للذكاء الصناعي فقط على المطورين للنماذج الحدودية الكبيرة، وذلك لتجنب فرض أعباء على الشركات الناشئة الصغيرة والمطورين ذوي الأثر المنخفض. الحد المقترح هو 100 مليون دولار في الإيرادات السنوية أو مليار دولار في الإنفاق الرأسمالي السنوي.

يجب على المطورين الكبار أيضًا إنشاء إطار عام للتطوير الآمن يتضمن كيفية التخفيف من المخاطر، بما في ذلك الأضرار الناجمة عن النماذج غير المتناسقة وإنشاء أسلحة كيميائية أو نووية أو بيولوجية أو إشعاعية.

إحدى الاقتراحات الأكثر صرامة تهدف إلى حماية المبلغين. “جعلها مخالفة قانونية صراحة لمختبر أن يكذب بشأن الامتثال للإطار الخاص به”، كتبت الشركة Anthropic في الوثيقة المشتركة. أكدت الشركة أن معايير الشفافية يجب أن تتضمن حداً أدنى أساسيًا وتبقى مرنة، مع متطلبات خفيفة للمساعدة في تحقيق التوافق.

تتوقع أنثروبك أن يكون الإعلان والإطار المقترح للشفافية بمثابة إرشادات للحكومات لاعتمادها كقانون وتشجيع “الممارسة المسؤولة”.

بعد إصدارها لأحدث نموذج AI لديها، Claude 4، قامت أنثروبك بتضمين تحذير أمان— حيث قامت بتسمية النموذج Opus 4 على المستوى الأمني 3 بسبب المخاطر المحتملة.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!