
Image by Matthew Henry, from Unsplash
ترفع Google الحظر عن استخدام الذكاء الاصطناعي للأسلحة وتقنيات المراقبة
قامت شركة ألفابيت، الشركة الأم لـ Google، بالتراجع عن وعدها بعدم استخدام الذكاء الاصطناعي لتطوير الأسلحة أو أدوات المراقبة.
في عجلة من أمرك؟ هنا الحقائق السريعة!
- قامت جوجل بتحديث مبادئها الأخلاقية للذكاء الاصطناعي، وأزالت القيود المتعلقة بالأذى، قبل تقرير الأرباح بقليل.
- أكد رئيس الذكاء الاصطناعي ديميس حسابيس على الأمن القومي والمنافسة العالمية للذكاء الاصطناعي كعوامل رئيسية.
- يحذر الخبراء من أن الإرشادات المحدثة لجوجل قد تؤدي إلى تطوير المزيد من الأسلحة الذاتية.
يوم الثلاثاء، قبل الإعلان عن الأرباح التي كانت أقل من المتوقع، قامت الشركة بتحديث مبادئها الأخلاقية للذكاء الصناعي، مع إزالة الإشارات إلى تجنب التكنولوجيات التي قد تسبب الضرر، كما أفادت الجارديان.
رأس قسم الذكاء الاصطناعي في Google، ديميس هاسابيس، أوضح أن المبادئ التوجيهية تتم مراجعتها لتتكيف مع عالم متغير، حيث أصبح الذكاء الاصطناعي الآن يُنظر إليه على أنه ضروري لحماية “الأمن الوطني”.
في منشور على مدونة، أكد هاسابيس ونائب الرئيس الأول جيمس مانيكا أنه مع تصاعد المنافسة العالمية في مجال الذكاء الاصطناعي، تعتقد الشركة أن “الديمقراطيات يجب أن تقود تطوير الذكاء الاصطناعي”، مدعومة بمبادئ “الحرية والمساواة واحترام حقوق الإنسان”.
أبرزت WIRED أن جوجل قدمت تحديثات على مبادئها المتعلقة بالذكاء الاصطناعي في ملاحظة أضيفت إلى أعلى منشور على المدونة لعام 2018 الذي قدم الإرشادات. وتقول الملاحظة “لقد أجرينا تحديثات على مبادئ الذكاء الاصطناعي لدينا. زوروا AI.Google للحصول على أحدث المعلومات”.
ذكرت الجزيرة أن جوجل قدمت أولاً مبادئها المتعلقة بالذكاء الاصطناعي في عام 2018 بعد احتجاجات الموظفين على مشاركة الشركة في مشروع مافن لوزارة الدفاع الأمريكية، والذي استكشف استخدام الذكاء الاصطناعي لمساعدة الجيش في تحديد الأهداف للضربات بالطائرات بدون طيار.
رداً على الردود السلبية التي أدت إلى استقالة العديد من الموظفين وآلاف العرائض، قررت غوغل عدم تجديد عقدها مع البنتاغون. في وقت لاحق من ذلك العام، اختارت غوغل أيضاً عدم المنافسة على عقد الحوسبة السحابية بقيمة 10 مليارات دولار مع البنتاغون، مشيرة إلى القلق من أن المشروع قد لا يتماشى مع مبادئها في مجال الذكاء الصناعي، كما أشارت الجزيرة.
كما تلت الإضافة إلى سياسة غوغل الأخلاقية حضور الرئيس التنفيذي لشركة Alphabet Inc.، سوندار بيتشاي، بجانب قادة التكنولوجيا مثل جيف بيزوس من أمازون ومارك زوكربيرغ من Meta، في حفل تنصيب الرئيس الأمريكي دونالد ترامب يوم 20 يناير.
ومع ذلك، في إعلان الثلاثاء، قامت جوجل بمراجعة التزاماتها بشأن الذكاء الصناعي. الصفحة المحدثة updated webpage لم تعد تذكر استخدامات محظورة محددة لمشاريع الذكاء الصناعي الخاصة بها، بل تعطي الشركة أكثر مرونة لاستكشاف التطبيقات الحساسة.
يؤكد الوثيقة المعدلة الآن على أن جوجل ستحافظ على “الإشراف البشري المناسب، الديوانية الموضوعية، وآليات التغذية الراجعة للتواصل مع أهداف المستخدمين، والمسؤولية الاجتماعية، والمبادئ المقبولة على نطاق واسع للقانون الدولي وحقوق الإنسان.” بالإضافة إلى ذلك، تعلن الشركة عن نيتها لـ “تخفيف النتائج غير المقصودة أو الضارة.”
ومع ذلك، يحذر الخبراء من أنه قد يتم نشر الذكاء الاصطناعي على نطاق واسع في ساحة المعركة قريبا، على الرغم من القلق المتزايد حول استخدامه، خاصة فيما يتعلق بأنظمة الأسلحة المستقلة.
“بالنسبة لقائد عالمي في الصناعة للتخلي عن الحدود الحمراء التي وضعها لنفسه، فإن هذا يشير إلى تغيير مقلق، في وقت نحن بحاجة فيه إلى قيادة مسؤولة في الذكاء الاصطناعي أكثر من أي وقت مضى،” قالت آنا باشياريلي، الباحثة الرئيسية في الذكاء الاصطناعي في هيئة حقوق الإنسان، حسبما ذكرته BBC.
لقد أشارت باتشياريلي أيضًا إلى أن القرار “الأحادي” يسلط الضوء على “لماذا المبادئ التطوعية ليست بديلاً مناسبًا للتنظيم والقانون الملزم.”