مساعد ذكاء اصطناعي يفحص آلاف السير الذاتية خلال ثوانٍ ويعرض أفضل 5 مرشحين هو حلم لكل قائد موارد بشرية. لكن هذا الحلم يحمل مخاطرة قانونية وأخلاقية كبيرة: التحيز الخوارزمي.
مشكلة الصندوق الأسود
تتعلّم نماذج الذكاء الاصطناعي من بيانات الماضي. إذا كانت الشركة قد عيّنت قيادات من جامعة أو فئة معينة لفترة طويلة، سيستنتج النظام أن هذا هو "الملف الناجح"، فيستبعد مرشحين مؤهلين دون أن نلاحظ.
"السرعة ليست ميزة إذا كنا نسير في الاتجاه الخاطئ. أتمتة الموارد البشرية لا تستبدل الحكم البشري بل تجعله قابلاً للتدقيق."
بنية ذكاء اصطناعي أخلاقية تقلل التحيز
أنظمة تتبع المرشحين الحديثة تستخدم التوظيف الأعمى لتقليل التحيز. لبناء عملية تركز على الكفاءة، ينبغي اتباع الخطوات التالية:
- إخفاء البيانات الديموغرافية: يُخفى الاسم والعمر والجنس والصورة، ويجري التقييم على الخبرة والمهارات والشهادات.
- تدقيق التنوع والشمول: يجب اختبار المخرجات دورياً من قبل خبراء الموارد البشرية. الذكاء الاصطناعي شريك مساعد وليس القاضي النهائي.
عند تصميمه بشكل صحيح، يمكن للذكاء الاصطناعي تقليل التحيزات اللاواعية وبناء فرق أكثر تنوعاً وابتكاراً.