حذرت محكمة المملكة المتحدة المحامين: قد تؤدي الاستشهادات الاصطناعية المزيفة بالذكاء الاصطناعي إلى توجيه الاتهامات الجنائية

Image by Sue Winston, from Unsplash

حذرت محكمة المملكة المتحدة المحامين: قد تؤدي الاستشهادات الاصطناعية المزيفة بالذكاء الاصطناعي إلى توجيه الاتهامات الجنائية

وقت القراءة: 3 دقائق

أصدرت المحكمة العليا في إنجلترا وويلز تحذيرا شديدا للمحامين، مشيرة إلى أنهم يجب أن يمتنعون عن استخدام المعلومات القانونية الكاذبة التي تنتجها أدوات الذكاء الصناعي مثل ChatGPT، لأنهم سيواجهون عقوبات جنائية.

في عجلة من أمرك؟ هنا الحقائق السريعة:

  • تحذر المحكمة البريطانية المحامين من التهم الجنائية بسبب الاستشهادات الوهمية التي تم إنشاؤها بواسطة الذكاء الصناعي.
  • كانت الإشارات المرجعية للقضايا التي تم إنشاؤها بواسطة الذكاء الصناعي المستخدمة في دعوى قضائية بقيمة 89 مليون جنيه إسترليني تفتقر إلى أساس واقعي.
  • أبلغ المحامي عن نفسه بعد تقديم 18 قضية كاذبة مختلطة بالاستشهادات الحقيقية.

أصبح التحذير ضروريًا بعد إجراءين قانونيين حديثين. الرجل الذي رفع دعوى قضائية بقيمة 89 مليون جنيه إسترليني ضد بنكين قام بإنشاء اقتباسات قانونية مبنية على الذكاء الصناعي، كما ذكرته صحيفة نيويورك تايمز.

من بين 45 إشارة قضية تم تقديمها، كانت هناك ثمانية عشر تفتقر تماماً إلى أي أساس واقعي. أفادت صحيفة الجارديان أن المحامية قدمت اقتباسات حقيقية، ولكن الاقتباسات الحقيقية والمزيفة فشلت في إقامة علاقات صحيحة بالقضية.

تحمل المحامية مسؤولية إغفالها للإشارات قبل أن تبلغ عن نفسها إلى الهيئة التنظيمية.

قدمت “مركز هارينغي للقانون” دعوى قضائية ضد مجلس بلدية لندن بسبب نزاعهما حول الإسكان. قدمت المحامية للمحكمة خمس قضايا سابقة ملفقة تمامًا. حددت المحكمة أنها مسؤولة عن خلق نفقات قانونية غير ضرورية، وفقاً لما ذكرته صحيفة The Guardian.

على الرغم من أنها نفت استخدام الذكاء الاصطناعي مباشرة، إلا أنها اعترفت بأنها ربما قد “أجرت بحثًا على Google أو Safari” واعتمدت دون قصد على ملخصات تم إنشاؤها بواسطة الذكاء الاصطناعي، كما ذكرت صحيفة The Times.

قالت القاضية فيكتوريا شارب، رئيسة قسم محكمة الملك، “هناك تداعيات خطيرة على إدارة العدل والثقة العامة في النظام القضائي إذا تم استغلال الذكاء الصناعي بطريقة خاطئة”، كما أفادت صحيفة The Times. وحذرت من أن المحامين قد يتعرضون للمسائلة الجنائية أو يمنعون من ممارسة المحاماة.

أضاف الحكم أن أدوات الذكاء الصناعي “يمكن أن تنتج استجابات متناسقة وم plausible … [لكن] قد تقدم تأكيدات واثقة غير صحيحة ببساطة”، كما ذكرت صحيفة The Times. وأيد إيان جيفري من جمعية القانون الحكم، قائلاً إنه “يكشف عن مخاطر استخدام الذكاء الصناعي في العمل القانوني”، كما أفادت صحيفة The Guardian.

دعت المحكمة القادة القانونيين إلى تدريب الطاقم بشكل عاجل على كيفية استخدام الذكاء الصناعي بمسؤولية، والذي يعرف بأنه يُحدث “هلوسة” في المعلومات.

أدى استخدام الذكاء الصناعي دون رقابة بالفعل إلى حدوث مشكلات مشابهة في جميع أنحاء الولايات المتحدة وكذلك أستراليا وأوروبا، مما أثار قلقًا واسع النطاق بين المحترفين القانونيين.

قام القاضي الأمريكي بتغريم مكتبي محاماة بمبلغ 31,000 دولار لاستخدامهما الذكاء الاصطناعي لإنشاء مذكرات قضائية اصطناعية تضمنت استشهادات قانونية مزيفة. وكانت الوثيقة القضائية المتعلقة بـ “ستيت فارم” تتضمن إشارات قضائية غير صحيحة، والتي تجاهل محامو كلا المكتبين التحقق من صحتها.

عبر القاضي مايكل ويلنر عن خيبة أمله تجاه المحامين لعدم التحقق من المحتوى المنشأ بواسطة الذكاء الاصطناعي، مما كاد يؤدي إلى إدراجهم معلومات مضللة ضمن أمر محكمة.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!