Blog

¿Está la IA lista para contratar? Retos, sesgos y recomendaciones

La adopción de IA en reclutamiento o en el área de personas busca eficiencia: filtrar CVs, agendar entrevistas, analizar video, responder con chatbots. Suena eficaz, pero surgen alarmas con respecto a equidad y transparencia. Te mencionamos algunas a continuación:

Sesgos incorporados: el reflejo de la historia

La mayoría sabe que la inteligencia artificial se entrena con datos humanos. Y si esos datos reflejan sesgos históricos —como la discriminación por género, edad o etnia—, la IA puede no solo replicarlos, sino también amplificarlos. Un caso emblemático fue el de Amazon, cuyo sistema de reclutamiento basado en IA penalizaba a las postulantes mujeres, ya que el algoritmo había sido entrenado con datos de contrataciones pasadas dominadas por hombres. Este ejemplo evidencia un riesgo clave: si no se revisan críticamente los datos y criterios utilizados, la promesa de eficiencia puede terminar reforzando inequidades.

Deshumanización en los procesos

Automatizar demasiado puede hacer que los candidatos se sientan desconectados. Un informe de Korn Ferry muestra que el 40 % de los reclutadores teme perder el toque humano en el proceso. Además, según el Washington Post, muchas personas se frustran con procesos impersonales y la dificultad para captar matices emocionales o personales en las interacciones.

Falta de transparencia y regulación

Muchas IAs toman decisiones sin explicar cómo ni por qué. Esto significa que los candidatos pueden ser descartados sin entender los motivos, lo que afecta directamente la confianza en el proceso. Esta falta de transparencia dificulta además la posibilidad de apelar o corregir errores, lo que puede perpetuar injusticias y alejar a buenos talentos.

Debemos preguntarnos: ¿La IA reduce sesgos o los agrava?

La IA ofrece herramientas como anonimización de CVs, redacción neutral y filtrar según habilidades, no prejuicios. Estas herramientas pueden ayudar a reducir sesgos inconscientes en las primeras etapas del proceso. Pero su efectividad depende de cómo se diseñan y supervisan. Sin una revisión humana crítica, incluso las mejores intenciones pueden fallar.

La Universidad de Australia del Sur advierte que IA solo mejora diversidad si hay objetivos claros, transparencia en decisiones y auditorías constantes. Sin supervisión humana o datos representativos, la IA puede perpetuar o incluso agravar desigualdades .

¿Cuáles son algunas recomendaciones para usar IA responsablemente?

  • Audita y depura tus datos para eliminar sesgos históricos antes del uso de IA
  • Transparencia en cada etapa: explica a candidatos que IA se usará, cómo y por qué .
  • Combina IA con supervisión humana: la tecnología filtra, pero las decisiones finales las toma un reclutador capacitado 
  • Herramientas éticas: usa IA para crear descripciones de trabajo, quitar nombres/datos demográficos y generar preguntas estándar 
  • Auditorías contínuas: revisa resultados, detecta patrones discriminatorios (género, etnia, acento) y corrige el modelo.
Te invitamos a saber más al respecto en la conversación que tuvo Conzuelo Pi, nuestra managing partner en el podcast U and AI: EP04 | Sesgos y ética en tiempos de IA: https://www.youtube.com/watch?v=58k1bwOlfu4&t=774s La IA en reclutamiento no está completamente lista: tiene gran potencial, pero entraña riesgos de reproducir sesgos históricos, deshumanizar el proceso y vulnerar derechos. Su uso responsable depende de tres pilares:
  • Auditoría de datos
  • Supervisión humana continua
  • Transparencia y ética
Es clave preguntarnos no solo qué puede hacer la IA, sino qué debe hacer.  El futuro del reclutamiento no debe ser solo más tecnológico, sino también más humano. ¿Requieres apoyo en el reclutamiento? agenda una reunión en https://who-co.com/headhunting-recruiting/ y conoce cómo podemos trabajar juntos.
Conzuelo Pi – Managing Partner & Founder WHO&Co. – Consultora experta en el Desarrollo y la Gestión de Talentos (Hunting/Career Advisory)