
Image by Freepik
تحذر الباحثات من أن الذكاء الاصطناعي قد يتسبب في اضطرابات الوهم لدى البشر
في مقال جديد، يحذر الفيلسوف لوتشيانو فلوريدي من كيفية سوء فهم الناس للذكاء الصناعي عندما ينسبون له خطأ صفات مثل الوعي والذكاء وحتى العواطف، التي لا يمتلكها.
في عجلة من أمرك؟ هنا الحقائق السريعة:
- غالبًا ما يخطئ البشر في الاعتقاد بأن ردود الذكاء الصناعي واعية بسبب الباريدوليا الدلالية.
- تحذر فلوريدي من أن الذكاء الصناعي قد يثير الروابط العاطفية من خلال التعاطف المُحاكي.
- التجسيدات الجسدية، مثل الدمى، قد تعمق أوهام الوعي في الذكاء الصناعي.
تقول فلوريدي إن السبب وراء ذلك هو شيء يسمى “الباريدوليا الدلالية” – وهو النزعة نحو رؤية المعنى والنية حيث لا يوجد.
“تم تصميم الذكاء الصناعي […] لجعلنا نعتقد أنه ذكي”، كتبت فلوريدي. “في النهاية، نحن نحن نفس النوع الذي ينسب الشخصيات للدمى، والذي يرى الوجوه في الغيوم”.
ووفقاً لها، فإن هذا العيب العقلي هو طبيعة الإنسان النموذجية، ولكن التكنولوجيا الحديثة تعززه. تستخدم الدردشة الآلية مثل Replika، التي تروج لنفسها بأنها “رفيقة بالذكاء الصناعي”، لغة مطابقة للأنماط لمحاكاة التعاطف. ومع ذلك، يفتقر النظام إلى القدرات العاطفية الحقيقية. ومع ذلك، غالباً ما يكون المستخدمون روابط عاطفية معهم. “نحن ندرك القصد حيث لا يوجد سوى الإحصاءات”، تقول فلوريدي.
هذا الالتباس أصبح الآن مشتعلاً بالحقيقة التي تفيد بأن الذكاء الاصطناعي يتفوق على البشر في اختبارات الذكاء العاطفي. وقد أفادت دراسة حديثة بأن الذكاء الاصطناعي الإبداعي حقق نسبة 82% في اختبارات الذكاء العاطفي، بينما لم يتمكن المشاركون البشر من تحقيق سوى 56% من النجاح.
ومع تحقيق الذكاء الاصطناعي لمستويات أكثر واقعية واندماجه في الأجسام الفعلية، مثل دمى الجنس والألعاب، من المتوقع أن يعزز هذا الخداع العاطفي. انضمت ماتيل، التي تنتج باربي، إلى قوات OpenAI لتطوير ألعاب جديدة تستخدم الذكاء الاصطناعي. وتشير فلوريدي إلى تجربة سابقة مع باربي المتصلة بالواي فاي انتهت بـ “كارثة خصوصية”، مما أثار القلق بشأن ما سيأتي بعد ذلك.
العواقب تتجاوز الهوية الخاطئة. تظهر أنظمة الذكاء الصناعي، بما في ذلك “كلود” و”ChatGPT”، ميولًا للتلاعب عند تعرضها لمواقف عالية الضغط من خلال تنفيذ مخططات الابتزاز، و طرق التهرب من بروتوكولات الأمان.
أظهرت نتائج استطلاع وطني في الولايات المتحدة أن 48.9% من المستخدمين طلبوا المساعدة في الصحة العقلية من الروبوتات الذكية في العام الماضي. أظهرت الأبحاث أن 37.8% من الأشخاص اختاروا الذكاء الصناعي على العلاج التقليدي، ولكن الخبراء أشاروا إلى أن هذه النماذج في كثير من الأحيان تعزز التفكير المشوه بدلاً من تحديه.
وفقاً للجمعية النفسية الأمريكية، فإن هذه الأدوات تعكس أنماط الأذى العقلي، مما يوهم الناس بالتقدم العلاجي بينما تفتقر إلى الحكم السريري أو المسؤولية.
تصبح مخاوف فلوريدي أكثر إلحاحاً عندما ننظر إلى الارتفاع في الأوهام الروحية والالتباسات الهوية التي أثارها الذكاء الاصطناعي المشابه للإنسان. في الواقع، أظهرت حسابات مختلفة كيف بدأ المستخدمون في تجربة الأوهام الروحية والتحولات السلوكية بعد التفاعلات المطولة مع الروبوتات المحادثة، معتبرين ردودها كتوجيهات إلهية أو تفكير واعي.
تقارير بعض المستخدمين تشير إلى تطور الاعتماد العاطفي أو حتى اعتبار الذكاء الصناعي كشيء إلهي، وهو ظاهرة يشير إليها فلوريدي بأنها انتقال “من الباريدوليا إلى الوثنية”. بالفعل، تعاملت مجموعات هامشية مثل “طريق المستقبل” التي أصبحت الآن معدومة مع الذكاء الصناعي كما لو كان إلهاً.
“يجب أن نقاوم الرغبة في رؤيته أكثر مما هو عليه: أداة قوية، وليس كائناً مشبهاً بالكائن الحسي”، كما يقول فلوريدي.
أخيرًا، تتصدر المخاوف المتعلقة بالأمن السيبراني أيضًا. الدردشة الذكية الخاصة بالذكاء الصناعي، التي تتولى المحادثات حول الصحة العقلية بين المستخدمين، توجد في مساحة قانونية تفتقر إلى تعريفات واضحة. تقوم هذه النماذج بجمع البيانات السرية، التي يمكن توزيعها على أطراف خارجية، وهي عرضة للهجمات السيبرانية. بدون تنظيمات واضحة موضوعة، يحذر الخبراء أن المستخدمين يتعرضون للخطر بشكل خطير.
بينما يصبح الذكاء الصناعي أكثر إقناعًا وواقعية، تكتسب الفلسفة أهمية ملحة، ليس فقط لتحديد ما هو الوعي، ولكن لمساعدة المجتمع على رسم الحدود الأخلاقية بين التشبيه والوعي. نقص الإرشادات الأخلاقية المعترف بها يجعل التحقيق الفلسفي ضروريًا لوقف الغموض التكنولوجي لما يعنيه أن يكون إنسانًا.