أجرى فريق علماء من التشيك وألمانيا مجموعة أبحاث لتحديد تأثير التحيز المعرفي للإنسان على تفسير المخرجات المستخدمة لإنشاء قواعد التعلم الآلي، وتُشير نتائج الباحثين إلى أنهم اختبروا أنظمة تعلم آلي متعددة، ووجدوا أن صفات التحيز البشري توجد في أنظمة الذكاء الاصطناعي. ويوضح تقرير الفريق البحثي كيف أن 20 تحيزاً معرفياً مختلفاً يمكن أن يغيروا من تطور قواعد التعلم الآلي ويقترح أساليب للتخلص من هذا التحيز، بحسب ما ورد في موقع البوابة العربية للأخبار التقنية، اليوم الاثنين. ووفقاً لتقرير الباحثين يكمن التحيز في التعليمات البرمجية والخوارزميات سواء قصد المطورون ذلك أم لا، ولكن عندما تصبح هذه الأنواع من الأخطاء البشرية مخبأة داخل أجزاء من الذكاء الاصطناعي هذا يعني أن تحيزنا هو المسؤول عن اختيار قاعدة التدريب التي تشكل إنشاء نماذج التعلم الآلي ليدل ذلك على أننا لا ننشىء ذكاءً اصطناعياً، بل نضع أخطاءنا داخل صندوق أسود ولا نعلم كيف سيستخدمه ضدنا! يقترح الباحثون معالجة الأمر بتغيير طريقة تمثيل البيانات، كما يَفترض الفريق على سبيل المثال تغيير مخرجات الخوارزميات، بحيث يتم استخدام أعداد طبيعية بشكل أكبر من النسب قد يقلل إلى حد كبير من احتمال إساءة تفسير نتائج معينة. ولكن للأسف لا يوجد حل جذري لهذه المشكلة في معظم الأوقات، لذلك من المهم أن يكمل الباحثون في جميع أنحاء العالم على هذا العمل ويكتشفوا أساليب فعالة لتجنب التحيز المعرفي في التعلم الآلي تماماً، لأن الذكاء الاصطناعي ليس أكثر من مكبر للصوت البشري، والمعرفة السيئة لابد أنّ تصنع روبوتات سيئة.