
Image by Dr. Frank Gaeth, from Wikimedia Commons
تعرضت رئيسة الوزراء السويدية للانتقادات بسبب استخدامها لـChatGPT في اتخاذ القرارات الحكومية
واجه رئيس الوزراء السويدي أولف كريسترسون انتقادات بعدما اعترف باستخدامه لـ ChatGPT لتوليد أفكار لقرارات الحكومة.
في عجلة من أمرك؟ ها هي الحقائق السريعة:
- تعترف رئيسة الوزراء السويدية بأنها تستخدم ChatGPT في صنع القرارات السياسية.
- يدعي المتحدث باسمها أنه لا يتم مشاركة أي بيانات حساسة مع أدوات الذكاء الصناعي.
- يقول النقاد إن استخدام الذكاء الصناعي في الحكومة خطير وغير ديمقراطي.
يواجه رئيس الوزراء السويدي أولف كريسترسون رد فعل عام متزايد بعد أن كشف عن ممارسته لاستخدام ChatGPT و LeChat لمساعدته في عملية اتخاذ القرارات الرسمية.
“أنا أستخدمها بنفسي بشكل متكرر. إن لم يكن إلا للحصول على رأي ثاني”، قال كريسترسون كما أفادت الغارديان. “ماذا فعل الآخرون؟ وهل يجب أن نعتقد العكس تمامًا؟ هذا نوع من الأسئلة”.
أثار تصريحه جدلاً واسعاً، حيث اتهمته أفتونبلاديت بالوقوع في “هوس الذكاء الاصطناعي للأوليغارشية”، كما أفادت الغارديان. يجادل المنتقدون بأن الاعتماد على الذكاء الاصطناعي للحكم السياسي هو أمر متهور وغير ديمقراطي.
“يجب أن نطالب بضمان الاعتمادية. لم نصوت لصالح ChatGPT”، هكذا قالت فيرجينيا ديجنوم، أستاذة الذكاء الاصطناعي المسؤول في جامعة أوميو.
لم يعط توم سامويلسون، المتحدث باسم كريسترسون، أي أهمية للجدل، قائلاً: “بالطبع، ليست المعلومات الحساسة من الناحية الأمنية هي التي تنتهي هناك. يتم استخدامها بشكل أكبر كمؤشر تقريبي”، كما أفادت صحيفة The Guardian.
لكن الخبراء التقنيين يقولون إن المخاطر تتعدى حساسية البيانات. تنصح الأستاذة سيمون فيشر-هوبنر من جامعة كارلستاد بعدم استخدام ChatGPT والأدوات المشابهة لها للمهام الرسمية في العمل، كما أشارت صحيفة The Guardian.
حذر الباحث في مجال الذكاء الصناعي ديفيد باو من أن يمكن التلاعب بنماذج الذكاء الصناعي. “أظهروا طريقة للأشخاص للاختباء أجنداتهم الخاصة في بيانات التدريب التي ستكون صعبة جدًا للكشف عنها”. تظهر الأبحاث نسبة نجاح 95% في تضليل أنظمة الذكاء الصناعي باستخدام هجمات الحقن في الذاكرة أو “هجمات القواعد الخلفية للملفات“، مما يثير الخوف من التدخل الخفي في عملية اتخاذ القرارات السياسية.
تأتي المخاطر الإضافية من القدرة المحتملة للذكاء الصناعي على تقويض الديمقراطية. يحذر دراسة حديثة أن أنظمة الذكاء الصناعي في إنفاذ القانون تركز السلطة، تقلل من الرقابة، وقد تشجع على الاستبداد.