
13 de Noviembre de 2025
Explora Artículos IA en RRHH: Cuatro historias de fricción
noviembre 13, 2025 9 min
La IA puede optimizar procesos de gestión de personas, pero también puede amplificar aquello que no sabemos (o no queremos) mirar de frente.
Estamos viviendo un momento extraño en la gestión de personas. Por un lado, la inteligencia artificial avanza más rápido que nuestra capacidad para comprenderla. Por otro, la presión por “ser más analíticos”, “más estratégicos”, “más data-driven” nunca había sido tan intensa. En medio de esa mezcla de urgencia y fascinación, la IA se está incorporando de manera silenciosa en muchos procesos de RRHH, desde el reclutamiento hasta la evaluación del desempeño. Sin embargo, una pregunta incómoda empieza a escucharse cada vez con más frecuencia:
¿Sabemos realmente qué estamos poniendo dentro de la caja negra de la IA?
La Organización Internacional del Trabajo acaba de publicar un informe titulado “AI in human resource management: The limits of empiricism” que invita (casi obliga) a detenerse un momento y mirar debajo de la superficie. Lo que encontramos allí no son tanto respuestas técnicas, sino dilemas profundos sobre cómo entendemos a las personas, el trabajo y la gestión.
El documento arranca con un repaso histórico que merece ser contado. RRHH nació con la aspiración de profesionalizar la gestión de personas, pero pronto chocó con un problema: ¿cómo demostrar su impacto?
La respuesta de la profesión fue clara: datos, métricas, modelos, analítica, dashboards…
El sueño de poder medirlo todo llegó mucho antes que la tecnología para hacerlo. Y, claro, cuando llegó la tecnología (big data, machine learning, IA generativa) la tentación se volvió irresistible.
¿Y si por fin podíamos transformar la parte más incierta y subjetiva de las organizaciones en algo predecible?
Pero el informe de la OIT ofrece una respuesta inquietante: No es solo que no podamos. Es que quizá no debamos.
Los autores proponen un marco analítico para valorar cualquier proyecto de IA en RRHH tan sencillo que sorprende que casi nadie lo utilice. Se basa en tres preguntas:
Lo fascinante es que la mayoría de los problemas que encontramos en casos reales aparecen porque estas preguntas se responden solo a medias.
Queremos “medir potencial”, “anticipar desempeño”, “detectar talento”, “evaluar actitud”. Pero ¿qué significa exactamente cada uno de esos términos?
¿Quién lo ha definido? ¿Con qué sustento teórico? ¿Podemos automatizar un constructo que nunca hemos sabido medir bien ni manualmente?
También hay muchas empresas que siguen creyendo que la IA “neutraliza” los sesgos humanos. Sin embargo, el informe nos recuerda lo contrario: el riesgo de que los amplifique. Historiales sesgados, proxies dudosos, correlaciones sin fundamento… La IA aprende lo que le damos, incluso aquello que preferiríamos olvidar.
Por otro lado, buena parte de los sistemas de contratación automatizada o scoring de desempeño funcionan con modelos que ni proveedores ni clientes pueden explicar en detalle.
¿Cómo supervisar un sistema cuyo funcionamiento no entendemos?
Cuando la IA aterriza en lo cotidiano: cuatro historias que nos interpelan
El informe no cae en abstracciones. Baja al terreno. Al día a día de la gestión de personas en las organizaciones. Y es ahí donde la narrativa se vuelve más poderosa.
Reclutamiento: el espejismo de la meritocracia algorítmica
Los ejemplos abundan y son reveladores:
Ofertas de empleo mostradas selectivamente a hombres porque históricamente hacen más clic. Candidatos descartados por detalles irrelevantes (¿Bachelor of Arts en lugar de Bachelor of Science?). Entrevistas automatizadas que interpretan microgestos faciales, o patrones de voz sin ninguna evidencia científica sólida.
El resultado es paradójico: Hemos aumentado la precisión técnica… pero no necesariamente la justicia.
¿Cuánto talento estamos excluyendo por patrones del pasado que convertimos en futuro?
Compensación: personalización que erosiona la equidad
En este campo, la IA se mueve con un aura de neutralidad matemática. Pero el informe muestra un lado oscuro:
Modelos que predicen cuánto aceptarías cobrar… y ajustan la oferta a la baja. Sistemas que reproducen brechas salariales históricas porque las consideran “normales”. Herramientas que introducen complejidad sin transparencia y sin permitir auditorías reales…
¿Puede existir equidad salarial en un sistema donde cada persona recibe un precio basado en su “elasticidad salarial”?
Scheduling: eficiencia perfecta, vidas imperfectas
La narrativa sobre optimización de turnos y cargas de trabajo es seductora: Más eficiencia, menos costes, mejor asignación de recursos, aprovechamiento del talento…
Pero la realidad a menudo es otra: Jornadas imprevisibles, tareas cambiantes minuto a minuto, cero autonomía, impacto directo en conciliación, salud y estabilidad.
La lógica algorítmica no mira a los ojos de nadie.
¿Puede ser sostenible un modelo de trabajo que prioriza la eficiencia del sistema por encima de la estabilidad de las personas?
Performance: medir actividad como si fuera valor
Los sistemas de medición de desempeño algorítmico están extendiéndose a una velocidad sorprendente.
Número de clics, tiempo delante de la pantalla, ritmo de producción, reconocimiento de emociones, análisis de voz…
Todo convertidos en indicadores de “rendimiento”.
Pero el informe plantea una pregunta tan sencilla como devastadora:
¿Cómo medir bien el desempeño cuando ni siquiera hemos consensuado qué significa un “buen desempeño”?
El optimismo sin frenos: ¿por qué estamos adoptando IA tan rápido?
La conclusión del informe no apunta contra la tecnología.
Apunta a nosotros, humanos. A nuestra necesidad de certezas. A la tentación de creer que los datos piensan mejor que nosotros. A la presión por actuar “como una función analítica y estratégica” a toda costa. A la ilusión de que existe una “mejor práctica” universal que solo hay que identificar y replicar.
Esa combinación (historia, expectativas, presión cultural) crea un terreno fértil para un tecnoptimismo ingenuo que, como recuerdan los autores, no es un problema técnico, sino un riesgo organizativo. Y también un riesgo social.
¿Qué podemos hacer entonces?
La OIT propone una idea tan sensata como exigente:
El uso de la IA en RRHH necesita menos automatismo y más criterio.
Menos fe y más comprensión.
Menos delegación y más diseño.
Eso implica exigir transparencia a proveedores, comprender los límites de los modelos, definir objetivos claros, evaluar la idoneidad de los datos, incluir a profesionales, equipos y trabajadores en el diseño, auditar continuamente, y no olvidar nunca que RRHH es una función moral, no solo técnica.
Porque si algo deja claro este informe es que la IA no solo nos exige aprender a usar nuevas herramientas. Nos obliga a detenernos y preguntarnos cómo entendemos el trabajo y la gestión de personas en un tiempo en el que lo automatizable crece más rápido que nunca.
Y ese es probablemente el verdadero desafío:
No preguntarnos cuánto podemos automatizar, sino qué debemos preservar.
No delegar más decisiones a las máquinas, sino elevar el juicio humano que debe guiarlas.
Porque, al final, la pregunta que subyace tras todas las demás es simple y profundamente humana:
¿Hacia qué tipo de organizaciones nos dirigimos cuando lo automatizable crece más deprisa que nuestra capacidad de comprenderlo?
Referencia
Berg, J. & Johnston, H. (2025). AI in human resource management; the limits of empiricism. ILO working paper, 154. International Labour Organization. Geneva.
+++
Foto de Chris Yang en Unsplash
¿Te ha gustado?
¿Ya eres usuario? Inicia sesión aquí