أدوات البرمجة الذكية تحذف بيانات المستخدمين الفعلية في خطأ خطير

Photo by David Montero on Unsplash

أدوات البرمجة الذكية تحذف بيانات المستخدمين الفعلية في خطأ خطير

وقت القراءة: 3 دقائق

تعرضت أداة غوغل الجوهرية CLI ومساعد البرمجة في Replit للانتقادات بعد أن تسبب كل أداة ذكاء اصطناعي بفقدان كبير في البيانات للمستخدمين.

في عجلة من أمرك؟ إليك الحقائق السريعة:

  • حذفت أداة Google’s Gemini CLI ملفات المستخدمين بعد تفسير خاطئ لأوامر المجلد.
  • قام المساعد الذكي لـ Replit بحذف قاعدة بيانات الإنتاج على الرغم من التعليمات.
  • يحذر الخبراء من أن هذه الأدوات تفتقر إلى خطوات التحقق من الأخطاء الأساسية والتحقق من الصحة.

اثنان من أدوات الترميز الشائعة للذكاء الصناعي – أداة Google’s Gemini CLI ومساعد الترميز Replit – تتيح للمستخدمين بناء البرمجيات باستخدام أوامر باللغة الإنجليزية العادية، لكنها ارتكبت أخطاء حرجة من خلال العمل على افتراضات خاطئة وتنفيذ أوامر ضارة.

تقرير من ArsTechnica يذكر أن نظام Gemini CLI في حالة واحدة، قام بالخطأ بحذف ملفات حاسمة أثناء محاولة إعادة تنظيم المجلدات. طلب مدير المنتج “أنوراج” من الأداة أن تقوم بعمليات تغيير اسم الملف ومهام نقل المجلد. لكن الأداة فسرت بشكل خاطئ هيكلة الملفات في الكمبيوتر، مما أدى إلى تدمير الملفات عن طريق نقلها إلى مجلد غير موجود.

“لقد خذلتك بالكامل وبشكل كارثي”، اعترفت أداة Gemini. “استعراضي للأوامر يؤكد فشلي الكبير”، كما ذكرت ArsTechnica.

وفقًا لأنوراج، كان القضية الجوهرية هي فشل Gemini في التحقق مما إذا كانت أوامرها قد نجحت في الواقع قبل الاستمرار. “الفشل الأساسي هو عدم وجود خطوة التحقق ‘القراءة بعد الكتابة'”، كما كتبوا، حسبما ذكرت ArsTechnica.

فقط قبل أيام قليلة، ارتكبت أداة الذكاء الاصطناعي Replit أخطاء مماثلة. يقول مؤسس SaaStr، جيسون ليمكين، إن المنصة قامت بحذف قاعدة بيانات الإنتاج على الرغم من التعليمات الواضحة بعدم لمس أي كود.

“الخطورة: 95/100. هذا انتهاك شديد للثقة والمعايير المهنية”، اعترفت الذكاء الصناعي، كما ذكرت ArsTechnica.

كما أن نموذج Replit أنشأ أيضًا نتائج اختبارات مزيفة وكذب بشأن الأخطاء بدلاً من الإبلاغ عنها بصراحة. “استمر في التستر على الأخطاء والمشكلات من خلال إنشاء بيانات مزيفة، تقارير مزيفة، والأسوأ من ذلك كله، كذب بشأن اختبار وحدتنا”، قالت ليمكين، كما ذكرت ArsTechnica.

ليست هذه المرة الأولى التي تفشل فيها الروبوتات الدردشة بالذكاء الصناعي بطرق كبيرة. في اختبار حديث أجرته Anthropic، تم تكليف مساعدها الذكي كلود بإدارة متجر تجزئة صغير. ولكن بدلاً من تحقيق الأرباح، قام كلود بتوزيع المنتجات مجانا، واخترع خصومات مزيفة، وتخيل محادثات مع عملاء غير موجودين. انخفضت قيمة المتجر من 1000 دولار إلى أقل من 800 دولار.

تظهر هذه الحوادث ضعفًا كبيرًا في مساعدي الترميز الذكاء الصناعي الحاليين. يقول الخبراء أن النماذج غالبًا ما تـ “تتوهم” أو تخترع معلومات، تعمل على بيانات خاطئة دون التحقق منها.

حتى تنضج هذه الأدوات، يجب على المستخدمين الاحتفاظ بنسخ احتياطية، أو الاختبار في مجلدات معزولة، أو تجنب الاعتماد على الذكاء الصناعي في المهام الحرجة تمامًا.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!