Image by Nik Shuliahin, from Unsplash
المرضى في حالة إنذار بعد أن اتجه الأخصائيون النفسيون سرًا إلى ChatGPT خلال الجلسات
تم الكشف عن أن بعض الأخصائيين النفسيين يلجأون سراً إلى ChatGPT لاستشارة مرضاهم، الذين أصبحوا الآن في حالة صدمة وقلق بشأن خصوصياتهم.
في عجلة من أمرك؟ هنا الحقائق السريعة:
- بعض المعالجين يستخدمون سرًا ChatGPT خلال الجلسات بدون موافقة العميل.
- اكتشف أحد المرضى استخدام المعالج للذكاء الصناعي من خلال خلل في مشاركة الشاشة.
- اكتشفت مريضة أخرى استخدام المعالج للذكاء الصناعي عندما تركت مطالبة في رسالة.
يُظهر تقرير جديد من مراجعة تكنولوجيا MIT حالة ديكلان، وهو شاب في الـ 31 من عمره من لوس أنجلوس، الذي اكتشف أن طبيبته النفسية كانت تستخدم الذكاء الاصطناعي في جلساته العلاجية نتيجة لعطل فني.
خلال جلسة عبر الإنترنت، قام المعالج الخاص به بمشاركة شاشته بطريقة غير مقصودة. “فجأة، بدأت أراقبه وهو يستخدم ChatGPT”، يقول ديكلان. “كان يأخذ ما كنت أقوله ويضعه في ChatGPT، ثم يقوم بتلخيص الأجوبة أو اختيار أفضلها”.
لعب ديكلان اللعبة، حتى صدى العبارات التي كانت تستخدمها الذكاء الاصطناعي. “أصبحت أفضل مريض على الإطلاق”، يقول. “أنا متأكدة أنه كانت جلسته المثالية”. لكن الاكتشاف جعله يتساءل “هل هذا قانوني؟” لاحقًا، اعترف المعالج أنه توجه إلى الذكاء الاصطناعي لأنه كان يشعر بالعجز. “ما زلت أدفع ثمن تلك الجلسة”، قال ديكلان.
أفاد المرضى الآخرون بتجارب مشابهة. أمل، على سبيل المثال، أرسلت رسالة لمعالجها عن فقدانها لكلبها. بدا الرد مواسيًا، حتى لاحظت أمل الأمر الذكي في الجزء العلوي: “ها هو نسخة أكثر إنسانية وصادقة بلهجة حوارية لطيفة”. تذكرت أمل، “ثم بدأت أشعر بنوع من الخيانة. … لقد أثر ذلك بالتأكيد على ثقتي فيها”.
يحذر الخبراء من أن استخدام الذكاء الاصطناعي دون الإفصاح عنه يهدد القيمة الأساسية للأصالة في علاج الطب النفسي. “الناس يقدرون الأصالة، خاصة في العلاج النفسي”، كما يقول أدريان أجيليرا، أستاذ في جامعة كاليفورنيا بيركلي، وفقًا لما ذكرته معهد ماساتشوستس للتكنولوجيا. ثم طرح أجيليرا سؤالًا: “هل أرسل رد ChatGPT لزوجتي أو أطفالي؟ لن يبدو ذلك صادقًا”.
الخصوصية هي مشكلة أخرى رئيسية. “هذا يخلق مخاطر كبيرة لخصوصية المريض إذا تم الكشف عن أي معلومات عن المريض”، كما قالت بارديس إمامي-ناييني من جامعة دوك، كما أشارت إليها MIT.
يحذر خبراء الأمن السيبراني من أن الدردشة الآلية التي تتعامل مع المحادثات الشخصية بشكل عميق هي هدف جذاب للقراصنة. يمكن أن يؤدي انتهاك معلومات المريض ليس فقط إلى انتهاكات الخصوصية، ولكن أيضًا يخلق فرصًا للقراصنة لسرقة الهويات، وإطلاق مخططات للتلاعب العاطفي، بالإضافة إلى هجمات الفدية.
بالإضافة إلى ذلك، طلبت الجمعية الأمريكية للعلوم النفسية إجراء تحقيق من قبل لجنة التجارة الاتحادية حول الدردشة الذكية الصناعية التي تتظاهر بتقديم خدمات الصحة العقلية، حيث يمكن لهذه الروبوتات أن تعزز الأفكار الضارة بدلاً من التحدي لها، كما هو مُدرب عليه الأطباء النفسيين البشر.
بينما تشير بعض الأبحاث إلى أن الذكاء الاصطناعي يمكن أن يُعِد ردودًا تبدو أكثر احترافية، الشك وحده يجعل المرضى يفقدون الثقة. كما تقول عالمة النفس مارغريت موريس: “ربما توفر لنفسك بضع دقائق. لكن ماذا تقدم بالمقابل؟”