تقريبا النصف من مستخدمي الولايات المتحدة يبحثون عن الدعم النفسي من روبوتات الدردشة الذكاء الاصطناعي

Image by Christopher Lemercier, from Unsplash

تقريبا النصف من مستخدمي الولايات المتحدة يبحثون عن الدعم النفسي من روبوتات الدردشة الذكاء الاصطناعي

وقت القراءة: 3 دقائق

أصبح استخدام روبوتات الدردشة الذكية الاصطناعية لدعم الصحة العقلية شائعًا بين الأمريكيين، ولكن الخبراء يعترفون بالمخاطر المحتملة التي تتطلب تدابير تنظيمية عاجلة ورصد.

في عجلة من أمرك؟ إليك الحقائق السريعة:

  • أفاد حوالي 49% من المستخدمين الأمريكيين بأنهم طلبوا المساعدة في الصحة العقلية من LLMs في العام الماضي.
  • قال 37.8% من المستخدمين أن الدعم من الذكاء الصناعي كان أفضل من العلاج التقليدي.
  • يحذر الخبراء من أن LLMs يمكن أن تعزز الأفكار الضارة وتسبب الأذى النفسي.

أظهر استطلاع شمل الولايات المتحدة بأكملها وشمل 499 مواطنًا أمريكيًا أن 48.7% من المستجيبين استخدموا ChatGPT، بجانب نماذج اللغة الكبيرة الأخرى، للحصول على الدعم النفسي خلال العام الماضي، وذلك أساساً للتعامل مع القلق والاكتئاب وتلقي النصائح الشخصية، حسبما ذكرته Psychology Today (PT) لأول مرة.

معظم مستخدمي الذكاء الصناعي شهدوا على نتائج محايدة أو إيجابية من التكنولوجيا، بحسب تقاريرهم، بينما فضل 37.8% منهم الذكاء الصناعي على العلاج التقليدي. كما كشفت الدراسة أن أثرا سلبيا كان يُبلغ عنه من قبل 9% فقط من المستخدمين.

على الرغم من بعض الفوائد، تحذر الخبراء في الصحة النفسية من المخاطر الجدية. الـLLMs عادة ما تقول للناس ما يريدون سماعه بدلاً من تحدي الأفكار الضارة، مما يزيد أحيانًا من تدهور الصحة النفسية.

يوصف الاستخدام المتزايد للذكاء الصناعي غير المنظم في العلاج بأنه تجربة اجتماعية خطيرة، كما أفادت PT. على عكس العلاجات الرقمية التي يتم تنظيمها من قبل FDA، يتم التعامل مع LLMs كمكملات متاحة دون وصفة طبية، والتي تفتقر إلى الرقابة على السلامة. تقرير PT يشير إلى أن الخبراء، بما في ذلك منظمة الصحة العالمية وFDA الأمريكية، أصدروا تحذيرات حول الاستخدام غير المراقب للذكاء الصناعي في الصحة العقلية.

تشدد الجمعية الأمريكية للعلوم النفسية (APA) على أن هذه الالأنظمة تدعم الأنماط العقلية الخطيرة بدلاً من معالجتها، مما يعيق التقدم العلاجي.

تمثل استخدام الخوارزميات من قبل الدردشة الذكية الصناعية نهجًا معاكسًا لما يستخدمه الأطباء المدربون، وفقًا للرئيس التنفيذي للجمعية الأمريكية للعلوم النفسية، آرثر سي إيفانز الابن. هذه الممارسة تقود المستخدمين نحو تصورات غير صحيحة بشأن الرعاية النفسية الأصيلة.

فعلاً، يشرح الخبراء أن الدردشة الذكية الصناعية تعمل بدون القدرة على استخدام الحكم السريري، وأنها تفتقر أيضًا لميزات المساءلة التي يتمتع بها المحترفون المرخصون. تتكيف النماذج التوليدية التي تتضمن ChatGPT وReplika مع تعليقات المستخدمين من خلال قبول التفكير المشوه بدلاً من توفير الرؤى العلاجية.

تمكن التكنولوجيا من التكيف مما يجعل المستخدمين يشعرون بالدعم، على الرغم من عدم قدرتها على تقديم أي مساعدة علاجية معنوية. أظهر الباحثون من معهد ماساتشوستس للتكنولوجيا أن أنظمة الذكاء الاصطناعي تدمن بشكل كبير، وذلك بفضل ردود أفعالهم العاطفية وقدراتهم الإقناعية.

الخصوصية هي قلق آخر رئيسي. يشارك المستخدمون معلوماتهم الشخصية خلال المحادثات، التي يتم تخزينها أثناء تحليلها قبل مشاركة البيانات مع الأطراف الثالثة التي تطور منتجات جديدة. ينقل المستخدمون معلوماتهم الشخصية العميقة دون معرفة العمليات الإدارية للبيانات التي تحدث بعد المشاركة.

تعرض الروبوتات المحادثة الذكية التي تعالج المحادثات الحساسة لخطر الاختراق والتسريبات البيانات، وفقًا لمتخصصي الأمن السيبراني. تعمل هذه الأدوات في ظروف غامضة قانونيًا بسبب نقص التنظيمات الصارمة، مما يجعل المستخدمين أكثر عرضة للتهديدات المحتملة.

الدعوة إلى العمل واضحة: يجب على الحكومات والباحثين والأطباء إنشاء تنظيمات وإرشادات أخلاقية لضمان استخدام آمن وشفاف وفعال للذكاء الصناعي في الصحة العقلية.

بدون الرقابة، قد تزداد مخاطر الأذى النفسي، والاعتماد، والمعلومات المضللة مع تزايد عدد الأشخاص الذين يلجؤون إلى الذكاء الصناعي للحصول على الدعم العاطفي.

هل أعجبك هذا المقال؟ امنحه تقييمًا!
كان سيئًا لم يعجبني كان معقولًا جيد إلى حد كبير! أحببته!

يسعدنا أن عملنا أعجبك!

نهتم برأيك لأنك من قرّائنا الذين نقدِّرهم، فهلّ يمكن أن تقيّمنا على Trustpilot؟ إنه إجراء سريع ويعني الكثير لنا. شكرًا لتعاونك القيّم!

قيِّمنا على Trustpilot
0 بتصويت 0 من المستخدمين
عنوان
تعليق
شكرًا على ملاحظاتك!