حذر باحث وخبير في أمن المعلومات من الجامعة الأمريكية في نيويورك من مخاطر آليات الذكاء الاصطناعي في قطاعي الشرطة وأمن الدولة على مستقبل الناس إذا تم اتخاذ قرار قاتل بناءً على خلل في برامج التعلم الآلي. الأنظمة. تسلط البروفيسور كيت كروفورد الضوء على الخوف والقلق من التأثير والسلطة والسيطرة الوحيدة في هذا المجال ، والتي يمكن أن تؤدي إلى برمجة أنظمة الذكاء الاصطناعي باستخدام البيانات والأنماط الناتجة عن التحيز البشري وعدم التسامح والقرارات الخاطئة ، مما يؤدي في النهاية إلى “الظلام” و المستقبل “الفاسد”. “ليس عدلا”.
يحذر كروفورد من الخلط بين العنصرية وطبيعة عمل آليات الذكاء الاصطناعي ، والتي تعتمد على الشبكات العصبية التي تحاول محاكاة العقل البشري وكيف يعمل الدماغ البشري على التعلم.
يمكن تدريب هذه الشبكات العصبية على التعرف على الأنماط في المعلومات ، بما في ذلك الحوار والبيانات النصية والصور المرئية. هذه المعلومات المعطاة من أصل بشري وربما تحتوي على نفس الأخطاء والعيوب التي تشكل جزءًا لا يتجزأ من الطبيعة البشرية.
ويمكن للخوارزميات التي تشكل هذه الشبكات العصبية أن تعزز بشكل غير مقصود التحيز البشري ، مما يمنحهم وزنًا لا داعي له في عملية صنع القرار.
يقول كروفورد: “تتعلم هذه الأنظمة من البيانات الاجتماعية التي تعكس التاريخ البشري ، بكل تحيزاته السلبية والمواقف الإيجابية”.
وكان كروفورد يبني على تجربة أجراها الباحثون في مايو 2016 حيث قاموا بتدريب نظام ذكاء اصطناعي على البيانات التي تم إنشاؤها بواسطة الإنسان بناءً على الأخطاء والتمييز العنصري والتحيز ، واستخدامها على نطاق واسع من قبل الشرطة الأمريكية لأنه كان متحيزًا ضد الأمريكيين من أصل أفريقي.
كان المعدل المتوقع لإعادة التنظيم أكثر احتمالًا بين السود أكثر من البيض لأن الأنماط التي استندت إليها منظمة العفو الدولية كانت قائمة على التمييز والعنصرية بين السود والبيض ، على سبيل المثال ربط الكلمات أسود مع السجن.