La inteligencia artificial está transformando la forma en que las empresas contratan, pero una demanda reciente contra Workday, un proveedor líder de software de recursos humanos, está poniendo en evidencia los posibles riesgos del reclutamiento automatizado. El caso, presentado por Derek Mobley y acompañado por otros cuatro, alega que la tecnología de selección de empleos impulsada por IA de Workday discriminó sistemáticamente a los solicitantes mayores y a personas con discapacidades.
El Núcleo de la Demanda
Derek Mobley afirma que fue rechazado en más de 100 empleos durante siete años a través de la plataforma de Workday. Cree que estos rechazos no fueron coincidencia, sino el resultado de algoritmos que filtraron injustamente a los candidatos basándose en la edad, raza y discapacidad. El grupo de demandantes, todos mayores de 40 años, dice que sus solicitudes fueron descartadas, a veces en cuestión de minutos, lo que plantea dudas sobre la transparencia y equidad de la contratación impulsada por IA.
Workday ha negado las acusaciones, declarando: “Seguimos creyendo que este caso carece de fundamento.” Sin embargo, la demanda ha generado una conversación más amplia sobre el papel de la inteligencia artificial en las decisiones laborales y la necesidad de supervisión.
El Auge de la IA en el Reclutamiento
Cada vez más empresas recurren a la IA para agilizar la contratación, con el objetivo de reducir el sesgo humano y acelerar el proceso. Estos sistemas analizan currículums, buscan palabras clave y clasifican a los candidatos según criterios predefinidos. Aunque esto puede hacer que el reclutamiento sea más eficiente, también introduce nuevos riesgos, especialmente si los algoritmos se entrenan con datos sesgados o carecen de supervisión adecuada.
Entendiendo el Sesgo Algorítmico
El sesgo algorítmico ocurre cuando los sistemas de IA reflejan o amplifican prejuicios existentes en sus datos de entrenamiento. Por ejemplo, si los datos históricos de contratación favorecían a ciertos grupos de edad o antecedentes, la IA puede perpetuar inadvertidamente esos patrones. Esto puede llevar a que candidatos calificados sean descartados injustamente, como se alega en el caso de Workday.
¿Qué Pueden Hacer las Empresas?
Para garantizar la equidad, las organizaciones deberían:
- Auditar regularmente las herramientas de contratación con IA para detectar sesgos
- Utilizar datos de entrenamiento diversos y representativos
- Ser transparentes sobre cómo se toman las decisiones automatizadas
- Proporcionar vías para que los candidatos apelen o soliciten revisión humana
Estos pasos pueden ayudar a generar confianza y reducir el riesgo de demandas por discriminación.
Consejos para Solicitantes de Empleo que Navegan la Contratación con IA
Si estás postulando a empleos en línea, es probable que tu solicitud sea revisada por un sistema de IA. Aquí algunos consejos prácticos:
- Adapta tu currículum para que coincida con la descripción del puesto
- Usa palabras clave claras y relevantes
- Destaca habilidades y logros específicos
- Evita gráficos o formatos inusuales que puedan confundir a los escáneres automáticos
Mantenerse informado sobre cómo se usa la IA en el reclutamiento puede ayudarte a posicionarte mejor en el mercado laboral.
Resumen: Puntos Clave
- Workday enfrenta una demanda que alega que su selección de empleos con IA discrimina a solicitantes mayores y con discapacidades
- Las herramientas de contratación con IA pueden introducir nuevos sesgos si no se gestionan adecuadamente
- Auditorías regulares, datos diversos y transparencia son esenciales para una contratación justa con IA
- Los solicitantes deben optimizar sus currículums para la selección automatizada
- El caso destaca la necesidad de supervisión continua a medida que la IA se vuelve más común en la contratación