Explora Artículos ¿Es el token una nueva unidad de trabajo?

Artículos

abril 8, 2026 9 min

¿Es el token una nueva unidad de trabajo?

La IA ha traído una nueva unidad de observación al trabajo del conocimiento. El reto es decidir si eso se convierte en una señal útil o en el próximo error de medición a gran escala.

¿Es el token una nueva unidad de trabajo?

Rafa Diaz

Un contenido de Rafa Diaz

Compartir

Durante muchos años, las organizaciones han intentado encontrar una unidad de medida fiable para evaluar el trabajo del conocimiento. Han probado con objetivos, competencias, indicadores de productividad, evaluaciones 360, horas facturables, cumplimiento de hitos y, más recientemente, con los OKRs.

Ahora está emergiendo otra que no siempre aparece en los manuales internos. No siempre se nombra de forma explícita. Pero ya está empezando a influir en cómo algunas compañías interpretan la contribución profesional en la era de la IA.

Es el token. El fragmento mínimo de texto que procesa un modelo amplio de lenguaje de inteligencia artificial.

O, más exactamente, todo lo que el token representa. El uso de diferentes modelos, la intensidad de interacción con sistemas de IA, la integración de herramientas generativas en el flujo de trabajo o la capacidad de convertir potencia computacional en resultados.

Ese desplazamiento importa mucho más de lo que parece. Porque cuando una organización empieza a medir cómo trabajas con IA, no solo está incorporando una nueva tecnología. Está empezando a redefinir qué considera iniciativa, criterio, eficiencia, adaptación y, en última instancia, talento.

Pero, ¿estamos ante una evolución de la gestión del desempeño en profesionales aumentados por la IA? ¿O ante una nueva forma de medición que pierde de vista el valor real del trabajo?

La respuesta, como ocurre a menudo en la gestión de personas, no es binaria. Pero sí lo bastante importante como para tener una reflexión sobre este tema.

Del resultado al rastro digital del trabajo

La evaluación del desempeño en la economía del conocimiento siempre ha sido imperfecta. Durante décadas, las organizaciones se apoyaron en una combinación más o menos inestable de tres elementos: resultados observables, juicio de los managers y señales indirectas de contribución, como la colaboración, la autonomía o la calidad de ejecución.

Nunca fue un sistema limpio. Pero al menos partía de una intuición razonable, que el trabajo humano del conocimiento es contextual, relacional y difícil de reducir a una sola métrica.

La llegada de los LLMs a los entornos corporativos ha introducido una nueva tentación. No limitarse a evaluar el resultado final, sino empezar a medir también el proceso de trabajo a través de los datos que dejan estas herramientas.

Cuántas veces utilizas la IA. Con qué frecuencia. En qué tareas. Qué herramientas eliges. Qué volumen de interacción generas. Qué parte de tu producción ha sido asistida. Qué intensidad de uso registran tus sistemas frente a los de otros colegas.

En algunos entornos, esa capa de datos observables ya está empezando a entrar en conversaciones de desempeño, promoción y desarrollo. No siempre en forma de «tokens» como indicador formal y aislado. A menudo aparece como una combinación de adopción, frecuencia de uso, integración en el flujo de trabajo y señales de impacto atribuidas al uso de IA.

Pero la dirección es clara, el trabajo empieza a ser evaluado no solo por lo que produce, sino también por cómo se coordina con sistemas tecnológicos inteligentes.

Y ahí empieza un nuevo problema.

Lo que realmente está ocurriendo

En varias grandes compañías tecnológicas y de servicios profesionales, la adopción de IA está dejando de ser una recomendación para convertirse en una expectativa evaluable.

Los casos son distintos entre sí, y conviene no simplificarlos. No todas las empresas miden lo mismo. No todas usan el mismo nivel de detalle. No todas convierten los tokens en un criterio directo de compensación. Pero el patrón empieza a ser visible.

Meta ha desplegado una herramienta interna llamada “Checkpoint” que rastrea cuántas líneas de código se generan con ayuda de IA, las tasas de error y los fallos atribuibles al trabajo de cada persona. La lógica de incentivos no deja margen de duda, los empleados con la calificación más alta en adopción de IA acceden a multiplicadores de bonificación del 200%, y hasta el 300% para la élite. Mark Zuckerberg ha declarado que el «impacto impulsado por IA» es ya una «expectativa central» para todos los colaboradores.

En Amazon, el sistema interno “Clarity” monitoriza la frecuencia y profundidad con la que los empleados usan las herramientas corporativas de IA, y esos datos impactan directamente en las decisiones de promoción.

Accenture ha sido, probablemente, la compañía más explícita. Su CEO Julie Sweet, que supervisa un ecosistema de 550.000 empleados, ha declarado que el uso de sus herramientas será un dato visible en las discusiones de talento. El mensaje no deja margen de interpretación, quien no adopte regularmente las herramientas de IA, no avanzará en la organización. Y ya había ido más lejos en septiembre de 2025, cuando afirmó que los empleados que no puedan ser recapacitados para trabajar con IA serán desvinculados.

En Microsoft, Julia Liuson, presidenta de la división de desarrollo responsable de GitHub Copilot, lo dejó por escrito en un comunicado interno: usar IA «ya no es opcional, es parte esencial de cada rol y cada nivel».

Lo importante aquí no es si todas estas compañías miden tokens de la misma forma, o siquiera si los miden de forma directa. Lo importante es que la adopción de IA está empezando a funcionar como un nuevo indicador de empleabilidad interna, ambición profesional y capacidad de contribución.

Ese cambio, por sí solo, ya es enorme.

Cuando la adopción se convierte en espectáculo

Toda métrica crea comportamiento. Toda visibilidad produce adaptación. Y todo sistema de incentivos mal diseñado termina generando formas de distorsión bastante predecibles.

En el ecosistema tecnológico ya ha empezado a circular un término para describir una de esas derivas: el “tokenmaxxing”.

La lógica es sencilla. Si el sistema premia, aunque sea de forma informal, a quienes aparecen como usuarios intensivos de IA, los empleados aprenden rápidamente a optimizar esa apariencia. No necesariamente a generar más valor. A generar más rastro.

Meta, OpenAI y Shopify han implementado “leaderboards” internos en tiempo real que muestran cuántos tokens consume cada empleado, según reveló The New York Times en marzo de 2026. Un ingeniero de OpenAI procesó 210.000 millones de tokens en una semana —el equivalente a leer Wikipedia completa 33 veces—. La gamificación es total. Y las apuestas parece que cada vez serán más altas, Jensen Huang, CEO de Nvidia, ha propuesto que el presupuesto de tokens se convierta en un pilar fundamental de la compensación de los ingenieros de élite. Su argumento es que un ingeniero que gana 500.000 dólares anuales debería recibir al menos 250.000 dólares adicionales en tokens. Si consume solo 5.000 dólares al año, algo está profundamente mal. No en la empresa. En el ingeniero.

Esa lógica invierte el problema de forma radical, el bajo consumo ya no es señal de eficiencia. Es señal de obsolescencia.

El resultado de esta nueva tendencia de medición de tokens es muy predecible, el consumo deja de ser un medio y empieza a convertirse en un mensaje. Ya no se trata solo de resolver mejor. Se trata también de parecer intensamente aumentado.

Este cambio es importante porque distorsiona el significado de la actividad de los ingenieros. Una organización puede creer que está incentivando modernización cuando, en realidad, empieza a premiar visibilidad de consumo. Puede pensar que está acelerando productividad cuando en realidad favorece una nueva forma de presentismo, no estar más ocupado, sino parecer más conectado a la máquina.

Cuando eso ocurre, la métrica deja de describir el trabajo y empieza a moldearlo.

El gran error: confundir consumo con competencia

Aquí conviene introducir una distinción esencial. Más uso de IA no equivale automáticamente a mejor uso de IA. Y más consumo computacional no equivale automáticamente a más valor generado. De hecho, en muchos casos puede ocurrir lo contrario.

Quien trabaja con contexto claro, estructuras limpias, instrucciones precisas y buen criterio de delegación suele necesitar menos iteraciones, menos fricción y menos desperdicio. Quien llega al modelo con pensamiento difuso, tareas mal definidas o artefactos desordenados suele consumir más capacidad para obtener resultados peores.

Esto es especialmente visible en el desarrollo de software. La investigación sobre modelos de código preentrenados demuestra que los entornos más desordenados o menos legibles exigen más esfuerzo inferencial. Un empleado con ingeniería de contexto impecable puede resolver un problema en 579 tokens. Otro, carente de rigor estructural, necesita más de 1.800 para alcanzar un resultado equivalente o inferior. A escala corporativa, un sobrecoste de solo 1.000 tokens innecesarios por consulta, multiplicado por millones de transacciones diarias, puede representar pérdidas estimadas en 7,3 millones de dólares anuales.

La métrica verdaderamente interesante, por tanto, no es cuánta IA consume una persona, sino qué relación existe entre ese consumo y el valor que produce. No intensidad sin contexto, sino eficiencia contextual. No actividad, sino rendimiento aumentado.

Dicho de otra manera, en la economía del trabajo asistido por IA, la competencia no se mide por cuánto quemas, sino por cómo conviertes capacidad computacional en criterio, calidad y velocidad útil.

Si el sistema de evaluación termina recompensando el volumen por sí mismo, corre el riesgo de penalizar precisamente a quienes trabajan con más rigor.

Goodhart no perdona

Los profesionales de gestión de personas deberían recordar una ley básica antes de entusiasmarse con cualquier nueva métrica: cuando una medida se convierte en objetivo, deja de ser una buena medida. Eso es la conocida «Ley de Goodhart». Y en este caso aplica de lleno.

Si el sistema penaliza la baja utilización de IA, surgirán conductas destinadas a inflar utilización. Se glorifica la intensidad de uso y aparecerá sobreuso. Si la visibilidad importa más que el impacto, la organización obtendrá visibilidad aparente.

No porque sus empleados sean irracionales. Al contrario. Porque están respondiendo racionalmente a los incentivos que han recibido.

En foros técnicos como Hacker News y Reddit ya se describen conductas de este tipo. Automatizaciones redundantes, invocaciones innecesarias a modelos o resúmenes recursivos de materiales ya procesados. La intención no siempre es fraudulenta. A veces es simplemente adaptativa. Si la organización deja claro qué señal valora, las personas aprenden a producir esa señal.

Pero el resultado es el mismo, la compañía cree que está midiendo modernización, y puede terminar capturando una mezcla de ansiedad, optimización defensiva y teatralidad digital. Ese es el núcleo del problema.

Lo que los tokens no cuentan: el coste humano

El debate se vuelve aún más serio cuando dejamos de mirar solo la eficiencia y empezamos a mirar a las personas.

Cuatro experimentos pre-registrados con más de 4.400 participantes han documentado algo que los dashboards no capturan. Existe una penalización social por el uso de IA en el trabajo. Según el estudio, publicado en PNAS por investigadores de Duke University, los colegas tienden a atribuir el éxito del empleado a la máquina, juzgando negativamente su competencia y motivación.

La paradoja es delicada, la organización te pide que uses IA, pero parte de tu entorno puede valorar menos tu contribución cuando lo haces de forma visible.

A eso se suma la carga cognitiva de trabajar en flujos híbridos, con múltiples sistemas, decisiones continuas de delegación, revisión y corrección, y presión por demostrar productividad aumentada. En esos contextos, el sobreconsumo no siempre es señal de sofisticación. A veces es señal de saturación. El empleado agotado recurre a más IA, no a mejor IA, buscando alivio inmediato. Y así se cierra el ciclo.

JPMorgan Chase ha empezado a usar sus herramientas de vigilancia de forma diferente: no para rastrear métricas de producción, sino para identificar a los analistas que trabajan jornadas insostenibles de 100 horas e intervenir antes del colapso. Es un uso opuesto al de la mayoría. Y es, probablemente, el más sano.

Y hay una derivada aún más preocupante. Cuando la lógica de automatización entra en el terreno de la evaluación del desempeño, muchas organizaciones rozan una línea peligrosa. Delegar en la IA la redacción de evaluaciones , el fenómeno que los consultores de talento ya llaman prompt parroting, no mejora la calidad del management. La empobrece. Peter Cappelli, profesor de Wharton y director de su Center for Human Resources, lo advierte sin rodeos “los modelos de IA son conocidos por ser aduladores, por lo que una evaluación asistida por IA puede ser excesivamente positiva y no abordar adecuadamente los problemas reales de rendimiento.”

El feedback no es un trámite documental. Es una práctica de liderazgo. Cuando un empleado percibe que su manager delegó su evaluación anual a un modelo de IA, el contrato psicológico y la confianza se pueden romper. Los mejores se van. Los mediocres se quedan. La organización simula gestionar el talento pero simplemente automatiza más su negligencia.

Lo que le toca hacer a las áreas de gestión de personas

Aquí es donde Recursos Humanos tienen que decidir si van a ser espectadores de esta transición o arquitectos de su madurez.

La primera tarea es separar claramente adopción de eficiencia. Que una persona utilice IA con frecuencia no significa que la utilice bien. Y que la utilice poco no implica necesariamente resistencia o atraso. Lo importante no es el gesto tecnológico, sino el valor generado. Más calidad, menos retrabajo, más velocidad útil, mejor toma de decisiones, mayor capacidad de foco.

La segunda es mantener el juicio humano como instancia final. El uso y consumo de tokens pueden ser útiles como señal diagnóstica pero no debe convertirse en árbitro automático de mérito, potencial o compromiso. El contexto sigue importando. Rol, tipo de tarea, nivel de autonomía, madurez del equipo, momento profesional, curva de aprendizaje y condiciones reales de ejecución debe estar en la ecuación.

La tercera es detectar e identificar pronto el presentismo digital. Toda organización que convierta la actividad visible en sustituto de impacto terminará obteniendo inflación de actividad. Da igual que antes ocurriera con horas en la oficina y ahora ocurra con uso de modelos. El patrón es el mismo.

La cuarta es proteger el núcleo relacional del management. La IA puede asistir muchas tareas. Pero no debería vaciar de humanidad el desarrollo del talento. Evaluar, dar feedback, acompañar, confrontar con respeto, reconocer progreso y corregir desvíos siguen siendo responsabilidades directivas, no salidas generadas por una herramienta.

Las áreas de gestión de personas no tienen que decidir si la IA entra en la organización. Esa decisión ya está tomada.

Lo que sí debe decidir es si esa entrada se traduce en mejor trabajo o en peores métricas.

La pregunta que de verdad importa

La adopción de IA en el trabajo no es una moda pasajera. Es una transformación estructural que va a alterar procesos, roles, expectativas de rendimiento, criterios de empleabilidad y modelos de liderazgo. Negarlo sería ingenuo.

Pero aceptar esa transformación no obliga a aceptar cualquier métrica que prometa simplicidad porque ese es el riesgo, que las organizaciones queden fascinadas por la trazabilidad de los sistemas, y vuelvan a cometer un error clásico de gestión. Confundir lo fácilmente medible con lo verdaderamente valioso.

El token importa. Claro que importa. Importa como coste, como capacidad, como rastro técnico y como insumo de una nueva economía del trabajo aumentado con esta tecnología.

Pero convertirlo, de forma directa o indirecta, en unidad de mérito sin el contexto adecuado puede degradar exactamente aquello que una organización aspira a mejorar: el criterio, la diferenciación, la competitividad, la calidad, la eficiencia real y la confianza.

La madurez no consistirá en lograr que los empleados consuman más IA. Consistirá en ayudarles a usarla mejor.

No en premiar el volumen de interacción, sino la calidad de la traducción entre capacidad computacional y valor para el negocio.

No en medir quién quema más tokens. Sino en entender quién convierte mejor la inteligencia disponible en trabajo que merece la pena.

Referencias:

Built In. (2026, marzo 25). AI in performance reviews: How to show impact at work.

Carrier Management. (2025, noviembre 13). AI is writing performance reviews. What could go wrong?

CNBC. (2025, septiembre 26). Accenture plans on exiting staff who can’t be reskilled on AI.

Fortune. (2025, septiembre 27). Accenture’s $865 million reinvention: Exiting people who lack AI skills.

Fortune. (2026, marzo 17). Jensen Huang on AI infrastructure and token compensation for engineers.

GeekWire. (2026). Job candidates are starting to negotiate AI token budgets.

Gizmodo. (2026). Tech employees are reportedly being evaluated by how fast they burn through LLM tokens.

HR Dive. (2026). As major firms green-light AI for performance reviews, should others follow suit?

HR Grapevine. (2026, febrero 5). Meta links employee AI usage to performance reviews & rewards.

Hu, J., Zheng, W., Liu, Y., & Liu, Y. (2025). Optimizing token consumption in LLMs: A Nano Surge approach for code reasoning efficiency. arXiv.

The Guardian (2026). JP Morgan Chase to use computer estimates to monitor hours worked by junior bankers.

Reif, J. A., Larrick, R. P., & Soll, J. B. (2025). Evidence of a social evaluation penalty for using AI. Proceedings of the National Academy of Sciences, 122(19), e2426766122.

Remote Work Europe. (2026). Is tokenmaxxing the new digital presenteeism?

Roose, K. (2026, marzo 20). Tokenmaxxing AI agents. The New York Times.

The Chosun Ilbo. (2026, marzo 12). U.S. firms link AI use to employee evaluations.

The Guardian. (2026, febrero 19). Accenture links staff promotions to use of AI tools.

The Information. (2026, febrero 19). How Amazon tracks employee AI usage and measures results.

The New Stack. (2026). A guide to token-efficient data prep for LLM workloads.

Worklytics. (2026). Executive dashboard template: 12 metrics every C-Suite needs on employee AI usage.

+++

Foto de Google DeepMind en Unsplash

¿Te ha gustado?