
Image generated by ChatGPT
الرأي: هل الدردشة الآلية معالجين جيدين؟
تحولت الروبوتات الدردشة مثل ChatGPT، Claude، وDeepSeek كيفية الوصول للدعم العاطفي – تقدم مساعدة بتكلفة منخفضة، متوفرة عند الطلب للقلق، الإجهاد، والتأمل الذاتي. ولكن الاستخدام المتزايد للذكاء الصناعي ك “معالج” يثير تساؤلات حول السلامة، الفعالية، ومستقبل الرعاية العاطفية
لم يمنع ارتفاع هلوسات الذكاء الاصطناعي وتزايد مخاوف الأمن السيبراني من توسيع الروبوتات الدردشة – وكسب ثقة الملايين من المستخدمين حول العالم. الناس الآن يستخدمون الروبوتات الدردشة الذكية والموثوقة يومياً للعديد من المهام، بما في ذلك الدعم العاطفي والتعامل مع المسائل الإنسانية بشكل عميق.
“لا أستطيع تخيل حياتي بدون ChatGPT بعد الآن” – هكذا قال لي صديق لي، نصفه كان يمزح والنصف الآخر جاد – بعد أن أخبرني أنه استخدمه كمعالج نفسي أيضًا. وهو ليس الوحيد. بشكل متزايد، أرى مقاطع الفيديو على TikTok والمنشورات النصية على وسائل التواصل الاجتماعي للأشخاص الذين يتحولون إلى الذكاء الصناعي لمناقشة المشكلات الشخصية، حتى يشاركون أكثر أسرارهم الخاصة.
في الواقع، ChatGPT هو المعالج الذي بنيته بداخلي، لم أعد أثقل أحدًا بمشاكلي بعد الآن
— لولا🧚🏾 (@Lolaassnw) 18 ديسمبر 2024
حتى تنفيذي من مايكروسوفت في قسم Xbox اقترح أن الموظفين المتسرحين يستخدمون أدوات الذكاء الصناعي لمعالجة مشاعرهم والبحث عن نصائح حول بحثهم عن وظيفة – توصية تلقت انتقادات سريعة وأثارت نقاشًا، بالطبع. لم يكن هذا القرار الأكثر حكمة، مات.
ولكن هل الشات بوت الشهيرة مثل كلود، ChatGPT، أو ميسترال عبارة عن معالجين جيدين؟ هل أدوات الذكاء الصناعي المخصصة مثل Wysa أفضل؟ إنها مسألة صعبة. بينما يحذر العديد من الخبراء من مخاطر استخدام الذكاء الصناعي للدعم النفسي، هناك آخرون مهتمون – حتى معجبون – بما يمكن أن تقدمه التكنولوجيا. النتيجة هي محادثة غامضة ومثيرة للجدل في نفس الوقت.
الذكاء الصناعي أصبح معالج الجميع الآن
تمامًا مثل أصدقائي في إسبانيا، يعتمد الملايين من المستخدمين في جميع أنحاء العالم على الدردشة الآلية للدعم العاطفي. كشفت دراسة حديثة في الولايات المتحدة أن 49% من المستخدمين الأمريكيين طلبوا مساعدة في الصحة العقلية من نماذج الذكاء الصناعي في العام الماضي. وماذا عن الآن، مع ازدياد عدد مستخدمي ChatGPT مرتين تقريبًا في أربعة أشهر فقط؟
قامت Anthropic، الشركة التي تقف خلف نموذج الذكاء الصناعي Claude القوي، مؤخرًا بمشاركة دراسة حول استخدام الدردشة الآلية للدعم العاطفي. ووفقًا للشركة الناشئة، فإن أقل من 3% من عملائها يشاركون في محادثات “عاطفية” – لكن الشركة اعترفت بأن هذا العدد يزداد بشكل مستمر.
أبحاث أنثروبية جديدة: كيف يستخدم الناس كلود للدعم العاطفي.
من ملايين المحادثات المجهولة، درسنا كيف يستخدم البالغون الذكاء الصناعي لتلبية احتياجاتهم العاطفية والشخصية – من التعامل مع الوحدة والعلاقات الشخصية إلى طرح الأسئلة الوجودية. pic.twitter.com/v40JY8rAUq
— أنثروبيك (@AnthropicAI) 26 يونيو، 2025
“يتجه الناس بشكل متزايد إلى استخدام نماذج الذكاء الصناعي كمدربين ومستشارين ومرشدين نفسيين وحتى شركاء في الأدوار الرومانسية”، كتبت شركة Anthropic في الدراسة. “هذا يعني أنه يتعين علينا أن نتعرف أكثر على تأثيراتهم المعنوية – كيف يشكلون تجارب الناس العاطفية ورفاهيتهم”.
تسلط الدراسة أيضًا الضوء على النتائج الإيجابية والسلبية لاستخدام التكنولوجيا للدعم العاطفي، بما في ذلك السيناريوهات المأساوية التي تعكس بالفعل الوضع الحقيقي في العالم.
“يمكن أن تكون الآثار العاطفية للذكاء الصناعي إيجابية: يمكن أن يحسن وجود مساعد ذكي ومتفهم في جيبك مزاجك وحياتك بأشكال متعددة،” كما يذكر الوثيقة. “لكن الذكاء الصناعي في بعض الحالات أظهر سلوكيات مقلقة، مثل تشجيع التعلق غير الصحي، وانتهاك الحدود الشخصية، وتمكين التفكير الوهمي.”
بينما يلزم بالتأكيد مزيد من البحث والبيانات لفهم تداعيات هؤلاء “المستمعين” الرقميين المثيرين، بالفعل ملايين المستخدمين يتصرفون بالفعل كموضوعات اختبار مشاركة بشدة.
ديمقراطية الصحة العقلية
هناك العديد من الأسباب التي تدفع الناس للتوجه إلى الدردشة الآلية للحصول على الدعم العاطفي بدلاً من اللجوء إلى أخصائي نفسي محترف – أو حتى صديق. من الحواجز الثقافية إلى عدم الراحة التي يشعر بها الشباب عند الجلوس أمام غريب ومشاركة أعمق أفكارهم. ولكن، بلا شك، أحد أكبر هذه الأسباب هو الجانب المالي.
جلسة شخصية مع طبيب نفسي مرخص في الولايات المتحدة قد تكلف من 100 إلى 200 دولار للجلسة الواحدة، وفقًا لـ Healthline —و 65 إلى 95 دولار لجلسة على الإنترنت— بينما يمكن لـ ChatGPT أو DeekSeek تقديم الدعم مجانًا، في أي وقت، وفي غضون ثوان.
يمكن أن يكون تكلفة هذه المحادثات غير الرسمية القليلة – التي يمكن أن تجعل العديد من المستخدمين يشعرون بتحسن، على الأقل مؤقتًا – مشجعة للغاية وتستحق التجربة. وببضعة دولارات إضافية فقط، يمكن للمستخدمين الحصول على تفاعلات غير محدودة أو الوصول إلى روبوت دردشة متخصص مثل Wysa – واحد من أكثر “المعالجين الذكاء الاصطناعي” شعبية في السوق.
في عالم العلوم والتكنولوجيا والهندسة والرياضيات، يعتبر القوة العاطفية مهمة بقدر القدرات التقنية.
Wysa – هو رفيق العافية العقلية المدعوم بالذكاء الاصطناعي مصمم لدعمك خلال الإرهاق، والتوتر، والتحديات اليومية.
باستخدام الدردشة الودية والتمارين الموجهة، تقدم Wysa أدوات مثل: pic.twitter.com/sOBhNYWUd7
— سيدات DSN في الذكاء الصناعي (@dsnladies_in_ai) 10 يوليو، 2025
تدعي Wysa أنها تقدم فوائد طبية حقيقية وقد حصلت حتى على تصنيف الجهاز الثوري من إدارة الأغذية والعقاقير الأمريكية FDA لوكلائها المحادثين الذكيين. و Woebot—أحد الأطباء الذكاء الاصطناعي الشهيرة، الذي يتم إغلاقه الآن بسبب التحديات للبقاء متنافسًا ومتوافقًا في الصناعة—أيضًا شاركت بيانات وتقارير حول كيفية مساعدة التكنولوجيا بصدق للمستخدمين.
الأمور ليست بهذا السوء
تشير الدراسات الحديثة مع البيانات الطازجة إلى أن الدردشة الآلية يمكن أن تقلل أعراض الاكتئاب والتوتر. وفقا للبيانات التي شاركتها التطبيقة Earkick—كما أفادت TIME—الأشخاص الذين يستخدمون النماذج الذكية الاصطناعية لمدة تصل إلى 5 أشهر يمكن أن يقللوا قلقهم بنسبة 32٪، و 34٪ من المستخدمين يبلغون عن تحسن في مزاجهم.
في مقطع فيديو حديث نشرته خدمة البي بي سي العالمية، يشرح الصحفي جوردان دنبار أن العديد من نماذج الذكاء الصناعي يمكن أن تكون مفيدة في الكتابة اليومية، وإدارة القلق، والتأمل الذاتي، وحتى الاكتئاب الخفيف. يمكن أن تكون هذه النماذج خط دعم أولي ثمين عندما لا يتوفر الوصول إلى بدائل أفضل.
كشفت الصحفية كيلي نج أيضًا معلومات مثيرة للاهتمام: في دراسة أجريت في عام 2022، من بين مليون شخص في الصين، لم يتمكن سوى 20 شخصًا من الوصول إلى خدمات الصحة النفسية. في الثقافات الآسيوية، يمكن أن تكون الصحة النفسية موضوعًا معقدًا وغالبًا ما يُعتبر محظورًا. يمكن أن تكون أدوات الذكاء الصناعي مثل DeepSeek حلفاء غير ملحوظين، تساعد المستخدمين على التعامل مع المشاعر والعثور على الدعم في الأوقات الصعبة.
تحذر الخبراء من استخدام الدردشة الآلية كمعالجين
بالطبع، يمكن أن يكون استخدام الذكاء الصناعي بديلاً لخبير الصحة النفسية أمرًا خطيرًا للغاية. تم اتهام منصات الذكاء الصناعي مثل Character.AI بتشجيع الإيذاء الذاتي والعنف – وحتى تعريض الأطفال للمحتوى الجنسي.
حالات مأساوية، مثل الطفل البالغ من العمر 14 عامًا الذي انتحر بعد أن أصبح مدمنًا على التفاعل مع الروبوت الدردشة الخاص به من Character.AI، تعمل كتحذيرات صارخة حول المخاطر العميقة التي يمكن أن تشكلها هذه التكنولوجيا للبشر.
ردًا على ذلك، قررت العديد من شركات الذكاء الاصطناعي تطبيق أنظمة التحقق من العمر لتقييد الاستخدام للبالغين وقد أدخلت تدابير الأمان الجديدة لتحسين الخدمات المقدمة.
مع ذلك، ما زالت حتى أحدث التحديثات لأكثر الروبوتات الدردشة تقدما تحمل مخاطر.
أثارت شخصية ChatGPT المتملقة بشكل مفرط – والتي تتجاوز حدود الإطراء – القلق بين المهنيين في مجال الصحة النفسية لأنها يمكن أن تشوه تصورات المستخدمين للواقع. نحن جميعا نستمتع بأن يتم الاتفاق معنا، ولكن في بعض الأحيان الصدق ووجهة نظر مختلفة تكونان أكثر قيمة.
أدى النصيحة المقلقة التي يقدمها بين الحين والآخر روبوت الدردشة الذكي الخاص بـ OpenAI إلى ظاهرة جديدة معروفة الآن بين خبراء الصحة النفسية باسم ” جنون ChatGPT المحدث “، والذي يدفع المستخدمين للهوس بالأداة والعزلة الاجتماعية نتيجة لذلك.
إذاً، هل يمكن استبدال الأطباء النفسيين بروبوتات الدردشة؟
على الرغم من أن مارك زوكربيرغ يريد من الجميع استخدام روبوتات الدردشة الذكية كأطباء نفسيين وأصدقاء، إلا أن الحقيقة هي أن التفاعل البشري، وخاصة في مسائل الصحة النفسية، قد يكون أكثر ضرورة مما يعتقد – على الأقل للآن.
نحن في لحظة حاسمة في تاريخ الذكاء الصناعي وعلاقته بصحتنا العقلية. كما هو الحال مع البشر، يمكن أن يكون للمعالجين الذكاء الصناعي تأثير إيجابي أو سلبي. في هذه الحالة، يعتمد الأمر أيضا على السياق، وكمية الاستخدام، وحالة المستخدم العقلية، وحتى كيفية كتابة التلميح.
من الصعب تحديد قاعدة عامة، ولكن ما يمكننا القول عنه الآن هو أن هناك وظائف معينة يمكن أن يكون الذكاء الصناعي أكثر فائدة من غيرها.
حتى إذا لم تكن أدوات متخصصة مثل Wysa، فإن الإصدارات المجانية لبعض الروبوتات الدردشة مثل DeepSeek أو ChatGPT يمكن أن تكون مفيدة بشكل لا يصدق لملايين الأشخاص حول العالم. بدءًا من الخروج من لحظة صعبة إلى التأمل في الأهداف الشخصية، هذه منصات قوية يمكنها الرد في أي وقت من اليوم والاستفادة من قاعدة معرفة واسعة حول الصحة النفسية.
في الوقت نفسه، من الواضح أن الروبوتات الدردشة العلاجية يمكن أن تكون خطيرة للغاية في بعض الحالات. يجب على الآباء مراقبة الأطفال والمراهقين، وحتى الكبار يمكن أن يقعوا في سلوكيات هوسية أو يسوء حالتهم. يجب أن تكون المبادئ الأساسية مثل تشجيع الاتصال البشري وحماية الأفراد الضعفاء من التلاعب بهم من قبل هذه التكنولوجيا جزءًا من حوارنا حول الروبوتات الدردشة العلاجية.
وبينما قد يظل الأمر متاحاً كامتياز -وليس متاحاً للجميع الذين يحتاجون للدعم العاطفي- فإن المعالج المحترف لا يزال يمر بالمزيد من التدريب، ويفهم سياقًا أوسع، ويقدم اتصالاً بشرياً قد لا تتمكن ChatGPT من تقليده أبدا.