أكد خبراء من جامعة كامبريدج أن تقنيات الذكاء الاصطناعي في مجال الموارد البشرية تختار الموظف من خلال تحليلات تستند إلى التحيز في التوظيف ولا تراعي التنوع.
وهذه الأدوات تم تصميمها لمعالجة كميات كبيرة من المتقدمين للوظائف عبر خوارزميات تُقّيم سمات الشخصية وأنماط الكلام وتعبيرات الوجه على سبيل المثال، وهو ما يعتبره خبراء نتائج مضللة وربما خطيرة على مستقبل سوق العمل.
وشبه الخبراء بعض أدوات الذكاء الاصطناعي بـ "العلوم الزائفة الآلية" التي تذكرهم بالمعتقدات التي عفا عليها الزمن مثل علم الفراسة.
قال الخبراء إن تقييم الذكاء الاصطناعي للموظف من خلال تحليل المفردات والسمات الشخصية، مثل الملابس والمظهر ما هي إلا قراءات شخصية غير دقيقة قد تؤدي إلى ظلم المرشح للوظيفة في أغلب الأحيان.
وأشار خبراء في جامعة كامبريدج إلى أن هذه التقنيات خاضعة لأحكام تعسفية، ويمكن أن تؤثر بشكل غير عادل على الباحثين عن عمل.
ويدعو الباحثون الشركات إلى مزيد من التنظيم والشفافية لمنع سيطرة تقنيات الذكاء الاصطناعي على سوق العمل.