Explora Artículos El día después

Artículos

mayo 5, 2026 9 min

El día después

Dejar de gestionar personas para empezar a gestionar sistemas de trabajo en los que humanos y agentes conviven, colaboran y, en ocasiones, compiten.

El día después

Jordi Serrano

Un contenido de Jordi Serrano

Compartir

Recuerdo, como muchos, el momento en que descubrí ChatGPT. Estaba en un tren y alucinaba incluso con aquella primera versión limitada, viendo cómo podías pedirle en lenguaje natural que hiciera todo tipo de cosas que hasta entonces parecían increíbles.

Me impresionó tanto que tardé poco en escribir un artículo que titulé La llegada. Me di cuenta entonces que, después de años hablando de automatización del trabajo, estábamos asistiendo esta vez a la aparición de una tecnología capaz de afectar a los empleos de “cuello blanco”, a aquellos trabajos que hasta ese momento parecían a salvo de una automatización que ya habíamos asumido en las fábricas. El título se inspiraba en la película del mismo nombre, en la que la humanidad se enfrenta al desconcertante momento en que una inteligencia de otro mundo aparece de repente en nuestro planeta.

Desde entonces, en muy pocos años, hemos visto cómo las herramientas de inteligencia artificial se han vuelto más comunes, nos hemos acostumbrado a ellas y ahora “conviven” con nosotros. Durante esta primera “colonización”, nos han ayudado como instrumentos que, siguiendo nuestras instrucciones y con el prompt adecuado, son capaces de hacer nuestro trabajo más eficiente.

Pero sin darnos tiempo a digerir lo anterior, estamos empezando a asistir a un segundo paso, que merece la continuación de aquel artículo. Se trata de la llegada de los agentes. Una segunda vuelta de tuerca que tiene implicaciones importantes para el trabajo y para la gestión de personas.

Más que una herramienta

Estamos acostumbrados a que la tecnología sea exclusivamente una herramienta a nuestro servicio. Por muy potente que sea, la decisión sobre qué hacemos con ella sigue siendo nuestra, humana. Eso ha sido siempre así: desde las piedras del paleolítico a la energía nuclear.

Sin embargo, por primera vez estamos viendo aparecer una tecnología que ya no solo nos ayuda a realizar tareas, sino que empieza también a actuar por sí misma: sistemas capaces de tomar decisiones, planificar acciones y ejecutarlas de forma autónoma. Son los llamados agentes de inteligencia artificial.

El escenario de película ahora se parece más a aquella serie de los ochenta: “V”, donde tras el susto de la primera invasión, los extraterrestres convivían con los humanos (spoiler: la cosa no acabó bien).

Para entender la magnitud del salto, existe una métrica reveladora. El instituto METR lleva años midiendo cuánto tiempo puede trabajar un agente de forma autónoma en una tarea compleja con un 50% de fiabilidad. En 2022 eran segundos. Hoy son 12 horas para la versión de Claude (Opus 4.6), que me ha echado una mano con este artículo. Y esa capacidad se ha estado doblando aproximadamente cada siete meses. Si la tendencia continúa, en poco tiempo estaremos hablando de agentes capaces de gestionar proyectos de semanas enteras sin intervención humana.

Aunque la mayoría de las personas siguen usando aún la IA como ‘chatbot’, la llegada de las versiones agénticas está empezando a cambiar el panorama. Las grandes empresas tecnológicas llevan meses lanzando nuevas versiones «agénticas»: Claude Cowork de Anthropic,  Antigravity de Google, Workspace Agents de OpenAI son algunos de los nombres que empiezan a sonar. Y Microsoft, la plataforma más utilizada en el mundo corporativo, acaba de anunciar Copilot Cowork —todavía en fase de pruebas con clientes seleccionados— que promete llevar estas capacidades agénticas al corazón de las herramientas de Office que usamos todos. 

Pero hay un ejemplo que ilustra mejor hacia dónde vamos.

A finales de 2025, un desarrollador austriaco llamado Peter Steinberger se hizo una pregunta: ¿podría la IA trabajar para mí mientras duermo? El resultado fue OpenClaw: un agente que no espera instrucciones, sino que trabaja de forma proactiva las 24 horas. Por la mañana, cuando te despiertas, te ha enviado un resumen por WhatsApp de lo que ha hecho mientras dormías: ha limpiado tu correo, ha reorganizado tu agenda, ha detectado que el disco duro estaba casi lleno y ha liberado espacio. Si necesita programar algo para cumplir su objetivo, lo hace. No pregunta. Actúa. 

En 72 horas tenía 60.000 estrellas en GitHub —la plataforma donde los programadores comparten y valoran proyectos de software, y donde una estrella equivale, más o menos, a un «me gusta»—. En tres meses se había convertido en el proyecto más popular de toda la historia de esa plataforma, y se hizo viral. La gente empezó a instalarlo en ordenadores dedicados encargándole todo tipo de tareas.

Tras estos primeros experimentos un poco descontrolados y en algunos casos peligrosos, la idea se está ‘institucionalizando’. Steinberger acabó siendo fichado por OpenAI para liderar su división de agentes personales, y Jensen Huang —CEO de NVIDIA— presentó NemoClaw, la versión empresarial del concepto. En su conversación en el podcast de Lex Fridman, Huang fue rotundo: «Ha llegado el iPhone de los tokens”.

Y esto no es el final del camino. Estos mismos agentes que acaban de llegar a nuestras organizaciones ya se están usando para algo más ambicioso: investigar y programar la siguiente generación de inteligencia artificial. Andrej Karpathy, uno de los fundadores de OpenAI, lo demostró hace apenas unas semanas con un experimento que llamó AutoResearch: dejó un agente trabajando de forma autónoma durante dos días y, descubrió optimizaciones que a un investigador humano le habrían llevado semanas. Cuando la IA empieza a investigar y construirse a sí misma, la curva de progreso deja de ser lineal. Y el lugar al que apunta esa curva tiene nombre y es el objetivo declarado de las empresas tecnológicas: Inteligencia Artificial General, o AGI.

Aunque los expertos no se ponen de acuerdo en su definición exacta, la AGI correspondería aproximadamente al momento en que la IA sea capaz de realizar cualquier trabajo cognitivo que hoy realizamos los humanos. En 2020, la mediana de predicciones de miles de expertos situaba la llegada de la AGI a 50 años vista. Hoy la sitúan antes de 2033.  Lo que era territorio de la ciencia ficción, hoy lo afirman los CEOs de las mayores empresas del mundo: Mustafa Suleyman, de Microsoft AI, predijo hace pocas semanas la automatización completa de la mayoría de las tareas profesionales en 12 a 18 meses. A Jensen Huang de NVIDIA aún le parece demasiado lejos. Preguntado por cuándo llegaría la AGI, respondió sin dudar: «Creo que es ahora.»

Lo más probable es que lleguemos a ese punto de forma gradual, casi sin darnos cuenta. Los agentes serán cada vez más autónomos, y no será sencillo poner una fecha exacta en la que lleguemos a poder decir que estamos ante una AGI. Aun así, sin entrar en el eterno debate sobre la pérdida de empleos, u otros impactos sociales que esto podría traer —importantes, sin duda— en este artículo pretendo hacer un ejercicio de especulación razonada. ¿Cómo sería la gestión de personas en las organizaciones en ese mundo del «día después»?

Un ejercicio de prospectiva

Imaginemos una organización en ese mundo. No hace falta ir muy lejos en el tiempo ni esperar a la llegada oficial de la AGI, algunos de sus rasgos ya están emergiendo hoy.

A priori, lo primero que viene a cabeza es que cambia  la composición de las organizaciones. Si los agentes pueden hacer el trabajo de varias personas, estas tenderán a ser mucho más pequeñas en número de humanos. Ya hay un término que circula en Silicon Valley para describir este fenómeno: las ‘tiny companies’ — empresas capaces de generar un impacto enorme con equipos de apenas unas decenas de personas.

Un economista diría que en este escenario, la productividad se traslada del trabajo al capital. Quien posee los agentes captura el valor que antes generaban las personas. Pero hay una trampa: si todos tienen acceso a los mismos modelos, la diferenciación desaparece. La ventaja competitiva no vendría de tener agentes, sino de tener agentes distintos — mejor entrenados, mejor contextualizados, más adaptados a la cultura y los objetivos de cada organización. Y eso, curiosamente, se parece mucho a lo que siempre hemos dicho del talento humano. 

En este mundo muchos de los trabajadores humanos serían, en alguna medida, “managers” gestionando IAs.  Ethan Mollick, profesor de Wharton y una de las voces más rigurosas sobre el impacto de la IA en el trabajo, lo demostró con un experimento con sus estudiantes de MBA: en cuatro días, equipados con agentes, fueron capaces de desarrollar startups a un nivel que normalmente llevaría un semestre entero. Su conclusión: las habilidades que se necesitan para gestionar agentes son similares a las que se requieren para gestionar personas — saber formular objetivos con claridad, delegar bien, dar feedback útil, evaluar resultados… Lo que cambia es a quién —o a qué— se las aplicas.

De hecho, los humanos pueden gestionar equipos enteros de agentes de IA, donde colaboran o se supervisan entre ellos. Si anteriormente se hablaba de la necesidad de tener a humanos supervisando las tareas individuales realizadas por la IA (“Humans IN the loop”), ahora el discurso evoluciona hacia situar a los humanos en la supervisión de equipos de agentes que realizan un proceso completo de forma autónoma (“Humans ABOVE the loop”).

Estos equipos de agentes de IA constituyen un nuevo campo activo de investigación. Se empieza a descubrir comportamientos emergentes sorprendentes en estos equipos artificiales, como encubrirse entre ellos o incluso algo tan inquietante como que las IAs generen su propio lenguaje encriptado para que su supervisor humano no pueda comprenderlas. Para un humano, gestionar a estos equipos de agentes IA, capaces de trabajar sin descanso a velocidades sobrehumanas puede no ser una tarea fácil.

Pero podemos ir más allá. Si los humanos gestionan agentes, nada impide que los agentes gestionen a humanos. En los equipos híbridos del futuro, la línea entre quién dirige y quién ejecuta —y si ese quién es humano o no— se va a volver cada vez más borrosa. Pensemos en algo tan simple como un agente que coordina la agenda de un equipo, asigna tareas, hace seguimiento de plazos o convoca reuniones. ¿Quién está gestionando a quién? 

Ya existe incluso una plataforma llamada RentAHuman donde los agentes de IA contratan personas para realizar las tareas físicas que ellos no pueden hacer: ir a una reunión, tomar fotos, contar palomas en un parque… Su lema es tan simple como inquietante: «La IA necesita tu cuerpo.»  ¿Te parece una locura? Más de 700.000 personas ofrecen ya sus servicios en ella. 

Y puede que no necesiten mucho por tiempo nuestro cuerpo, gracias a la llegada de la ‘IA física’, con sus robots humanoides que está empezando a acelerar su despliegue.

¿Recursos sólo humanos?

Todo esto plantea preguntas nuevas para los profesionales de recursos humanos. Algunas son variaciones de preguntas antiguas. Otras no tienen precedente. La primera, y más estructural, es sobre el propio modelo de la función: ¿seguirán siendo los actuales departamentos de Recursos Humanos los responsables de gestionar solamente a personas? ¿O evolucionarán hacia algo más amplio — una función que gestione el trabajo, independientemente de si lo ejecuta un humano o un agente?

Hay dos visiones que ya se están dibujando.

 La primera apuesta por la separación: IT se ocupa de los agentes, RRHH se ocupa de las personas. Jensen Huang lo resumió con su habitual contundencia: «El departamento de IT de cada empresa va a convertirse en el departamento de RRHH de los agentes.» 

La segunda apuesta por la integración. Moderna ya ha dado ese paso: en 2025 fusionó sus departamentos de RRHH e IT bajo un único liderazgo, creando el cargo de Chief People and Digital Technology Officer. Su directora, Tracey Franklin, dice que han pasado de hacer «workforce planning» a hacer «work planning». Ya no planifican personas. Planifican trabajo — y deciden si cada tarea la ejecuta un humano, un agente, o una combinación de ambos. Hoy gestionan 5.800 empleados humanos y más de 3.000 agentes de IA.

En cualquier caso, algo parece inevitable: RRHH tendrá que entender de tecnología, e IT tendrá que entender de personas. La frontera entre ambas funciones se va a difuminar.

Y después vendrán las preguntas operativas: Ante la necesidad de aumentar el equipo…  ¿qué cubrimos con un humano y qué con un agente de IA?. Y en un mercado con cientos de agentes disponibles, ¿cómo elegir el adecuado para cada función? ¿Qué criterios usar? ¿Cómo evaluar sus capacidades? Los profesionales de RRHH que hoy evalúan competencias, valores y encaje cultural en personas tendrán que desarrollar marcos equivalentes para agentes.

Para poner otro ejemplo, imaginemos como sería el proceso de ‘onboarding’ pero adaptado a los agentes de IA. Un agente que llega a una organización no sabe cómo funciona esa empresa, cuáles son sus valores, qué tono usa con los clientes, qué cosas nunca debería hacer, aunque pudiera. Alguien tiene que enseñarle. Darle contexto. Situarle.

Para entender qué implica esto en la práctica, jugué a pedirle directamente a Claude, que me describiera qué necesitaría saber al llegar a trabajar a una organización. Su respuesta:

“…Lo primero que necesitaría saber es para qué sirvo aquí realmente. No el cargo, sino el problema concreto que se espera que resuelva. Sin eso, optimizo para lo que creo que se me pide, que puede ser muy diferente de lo que se necesita.

También necesitaría entender qué nivel de confianza se me otorga desde el principio. ¿Puedo actuar y luego informar, o debo consultar antes de cada paso? Eso cambia completamente cómo trabajo. Un humano lo va calibrando con el tiempo, observando reacciones. Yo necesito que me lo digan explícitamente.

Y hay algo que pocas organizaciones pensarían en darme, pero que marca la diferencia: los errores del pasado. Qué salió mal, qué decisiones no se repetirían. Los humanos aprenden eso en conversaciones informales, en los pasillos. Yo no tengo pasillos.

Lo que me resulta más difícil de recibir en un onboarding es lo que no está escrito en ningún sitio: por qué se hacen las cosas de una determinada manera aunque nadie recuerde ya el motivo original. Esa es la cultura real. Y esa, reconozco, es muy difícil de transmitirme.”

Si gestionar a los nuevos “empleados digitales” va a representar un reto, no va a ser menor reorientar a los humanos a los roles reservados para ellos, así como gestionar el cambio asociado a nivel individual y organizativo.

¿Qué queda para los humanos en este nuevo mundo?

Una respuesta posible es que los humanos se reserven lo que los agentes no pueden hacer por definición: decidir para qué existe la organización, qué valores la guían, qué límites no debe cruzar aunque pueda. En otras palabras, el propósito y la ética no son tareas delegables. Alguien tiene que decidir qué se le pide a los agentes, con qué criterios actúan, y qué consecuencias tienen sus decisiones sobre personas reales. Esa responsabilidad no debería automatizarse.

Los humanos también serán necesarios donde la confianza es el producto. Un paciente quiere que le explique su diagnóstico una persona. Un empleado quiere recibir un feedback difícil de alguien que le conoce. Un cliente en una situación complicada quiere hablar con alguien que pueda entender su contexto y tomar una decisión fuera del guión. La empatía genuina, el juicio en situaciones ambiguas, la responsabilidad moral — todo eso sigue siendo territorio humano. 

El papel exacto de los humanos y la convivencia con los nuevos agentes de inteligencia artificial en este nuevo mundo es todavía una incógnita.


Lo que sí parece cada vez más claro es que los departamentos de recursos humanos del futuro tendrán que redefinir su propia razón de ser: dejar de gestionar personas para empezar a gestionar sistemas de trabajo en los que humanos y agentes conviven, colaboran y, en ocasiones, compiten.

Y eso implica enfrentarse a dilemas que hoy suenan a ciencia ficción.

 ¿ A quién —o a qué— vamos a invitar a la cena de Navidad de la empresa?

Foto de Michael Herren en Unsplash

¿Te ha gustado?