تحذر الدراسة: قد يعزز الذكاء الاصطناعي الاستقطاب على وسائل التواصل الاجتماعي
يمكن أن تعزز الذكاء الصناعي الاستقطاب على وسائل التواصل الاجتماعي، حسب ما حذر منه باحثون وطلاب في جامعة كونكورديا، مما يثير القلق حول حرية التعبير، والمعلومات المضللة.
في عجلة من أمرك؟ هنا الحقائق السريعة:
- يمكن لخوارزميات الذكاء الصناعي أن تنشر الانقسام باستخدام عدد المتابعين والمشاركات الأخيرة فقط.
- تتكيف الروبوتات التي تعتمد على التعلم من التقوية بسرعة لاستغلال ضعف وسائل التواصل الاجتماعي.
- يحذر الخبراء من أن المنصات تواجه خطر الرقابة أو التلاعب غير المحدود.
رغم أن الانقسام على وسائل التواصل الاجتماعي ليس جديداً، إلا أن الباحثين والناشطين الطلاب في جامعة كونكورديا يحذرون من أن الذكاء الصناعي قد يُفاقم المشكلة بشكل كبير.
“بدلاً من أن يتم عرض لقطات لما يحدث أو محتوى من الصحفيين الذين يقومون بالتوثيق له، نرى بدلاً من ذلك فن الذكاء الاصطناعي المبالغ فيه لأشياء يجب أن نهتم بها سياسيًا […] هذا يبعد الناس ويزيل المسؤولية”، هذا ما قالته دانا بالانتين، منسقة الشؤون الخارجية والتعبئة لاتحاد الطلاب في كونكورديا، كما أفادته The Link.
أصداء مخاوفها تتماشى مع بحث جديد من كونكورديا، حيث أظهر البروفيسور راستكو ر. سيلميك وطالب الدكتوراه محمد ن. زارير كيف يمكن لبوتات التعلم التعزيزي أن تسهم في تفاقم الانقسام عبر الإنترنت. “هدفنا كان فهم الحد الذي يمكن أن يكون له الذكاء الاصطناعي في الاستقطاب وشبكات التواصل الاجتماعي، ومحاكاته […] لقياس كيف يمكن أن ينشأ هذا الاستقطاب والاختلاف.”، قال زارير كما أفادته The Link.
تشير النتائج إلى أن الخوارزميات لا تحتاج إلى بيانات خاصة لتثير الانقسام، حيث تكفي إشارات أساسية مثل عدد المتابعين والمنشورات الأخيرة. “هذا مقلق، لأنه بالرغم من أنه ليس روبوت بسيط، إلا أنه لا يزال خوارزمية يمكنك إنشاؤها على جهاز الكمبيوتر الخاص بك […] وعندما يكون لديك قوة حوسبة كافية، يمكنك التأثير على المزيد والمزيد من الشبكات” كما أوضح زارير لـ The Link.
يعكس هذا جسمًا أوسع من الأبحاث التي تظهر كيف يمكن استخدام التعلم التعزيزي كسلاح لدفع المجتمعات بعيدًا عن بعضها. أظهرت الدراسة التي أجرتها كونكورديا باستخدام Double-Deep Q-learning أن وكلاء الذكاء الاصطناعي المعادي يمكنهم “التكيف بمرونة مع التغييرات داخل الشبكة، مما يسمح له بالاستغلال الفعال للضعف الهيكلي وتضخيم الانقسامات بين المستخدمين”، كما لاحظت البحث.
بالفعل، تعلم Q-Double-Deep هو تقنية من التقنيات الذكاء الاصطناعية التي يتعلم من خلالها الروبوت الإجراءات المثلى من خلال التجربة والخطأ. يستخدم شبكات عصبية عميقة للتعامل مع المشكلات المعقدة ويستخدم تقديرين للقيمة لتجنب تقدير المكافآت بشكل مبالغ فيه. في وسائل التواصل الاجتماعي، يمكن أن ينشر المحتوى بشكل استراتيجي لزيادة الاستقطاب مع البيانات القليلة.
حذر زارير أن صانعي السياسات يواجهون توازنًا صعبًا. قال لـ The Link: “هناك خط رفيع بين المراقبة والرقابة ومحاولة التحكم في الشبكة”. الإشراف القليل جدًا يسمح للروبوتات بتManipulate المحادثات، في حين أن الكثير قد يعرض حرية الكلام للخطر.
في الوقت نفسه، تخشى الطلاب مثل بالانتاين أن الذكاء الصناعي يمحو الخبرات المعيشة. قالت بالانتاين لـ The Link “الذكاء الصناعي يتجاهل تلك الخبرات تمامًا”.