
Image by Phạm Trần Hoàn Thịnh, from Unsplash
تسبب الذكاء الصناعي في ارتفاع مستمر في عمليات الابتزاز الجنسي على تطبيقات المواعدة
تجعل الذكاء الصناعي الأمور أسهل للمحتالين لتنفيذ خطط الابتزاز الجنسي على تطبيقات المواعدة، مما يثير مخاوف عاجلة للمراهقين، والطلاب، ومسؤولي إنفاذ القانون.
في عجلة من أمرك؟ هنا الحقائق السريعة:
- تتزايد حوادث الابتزاز الجنسي بشكل حاد، وخاصة بين المراهقين والطلاب.
- يتظاهر المحتالون بأنهم مهتمون عاطفياً باستخدام الروبوتات والملفات الشخصية الوهمية.
- تم تسجيل ما يقرب من 8000 حالة ابتزاز مرتبطة بالابتزاز الجنسي في المملكة المتحدة في عام 2023
لطالما كانت ممارسة الابتزاز الجنسي موجودة منذ بعض الوقت، ولكن تكنولوجيا الذكاء الاصطناعي تمكن المجرمين من إنشاء هويات وهمية أكثر مصداقية. هذا يتيح لهم تسريع الاتصال بالضحايا، وإنتاج محتوى جنسي اصطناعي من خلال تكنولوجيا الواقع الافتراضي المعمق، كما أفادت Vice.
تعرف الـ FBI الابتزاز الجنسي بأنه طريقة يستخدمها المجرمون لخداع القاصرين لمشاركة صور صريحة قبل المطالبة بصور إضافية أو أموال كدفع مقابل منع الكشف عن هذه الصور.
يستخدم الجناة الآن ملفات تعريف متولدة من الذكاء الصناعي لخلق اهتمامات رومانسية وهمية، غالباً باستخدام صور مزيفة عميقة ودردشات آلية. تحذر الـ FBI من أن الضحايا عادة ما يخطئون في التعرف على المحتالين على أنهم أقران يقدمون علاقات رومانسية أو هدايا، ولكنهم في الواقع يتم التلاعب بهم.
لقد ازدادت حالات الابتزاز الطلابي بشكل ملحوظ، وفقًا لما ذكرته وكالة الجريمة الوطنية. تقارير BBC تشير إلى أن عدد حالات الابتزاز المرتبطة بتهديدات الجنس عبر الإنترنت ارتفع إلى 8000 في عام 2023، بينما كان الإجمالي فقط 23 في عام 2014.
وأفادت هيئة الإذاعة البريطانية BBC بأن جيم وينترز، رئيس الجرائم الاقتصادية في Nationwide، نصح الشباب بعدم السكوت عن الابتزاز: “الابتزاز هو أحد أصعب الأمور التي يمكن مواجهتها وهو يحدث بشكل متزايد. ليس الأمر سهلاً ولكن إذا كان هناك شيء لا يبدو صحيحًا، فعليك التحدث عنه-”
المحتالون الآن يستخدمون تقنية “ديبفيك” لوضع صور وجوه الضحايا على محتوى إباحي، حتى وإن لم يشارك الضحايا أي مادة إباحية. هذه الطريقة الجديدة في الابتزاز تلغي الحاجة للضحايا لمشاركة المحتوى قبل بداية الابتزاز.
تقترح الـ BBC أنه يمكن التعرف على الاحتيال من خلال العبارات المتكررة في الرسائل، وصور الملف الشخصي الخالية من العيوب، وأنماط الحوار الغير طبيعية. يقترح الخبراء من BPS استخدام عمليات البحث العكسية للتحقق من الصور المشبوهة. ولكن، هذه الطرق تصبح أقل فعالية عند التعامل مع المحتوى الذي يتم توليده بواسطة الذكاء الصناعي.
تشدد الخبراء على الحاجة إلى الحوار المفتوح، التعليم، واستراتيجيات الوقاية المحدثة، حيث إن الأبحاث المتوفرة حول كيفية دعم الذكاء الاصطناعي لهذه الجرائم محدودة. هذه الجهود ضرورية لحماية الأكثر ضعفا من التهديدات الرقمية.