11 de Diciembre de 2024
Explora Artículos Cuando decimos que el mundo es VUCA nos quedamos cortos
agosto 7, 2020 9 min
Cuando decimos que el mundo es VUCA nos quedamos cortos
Una cosa para la que está sirviendo la actual crisis es para que tomemos conciencia de lo complejo y difícil de predecir que es el mundo que nos ha tocado vivir.
La crisis Covid evidencia que vivimos en un mundo hiperconectado donde pequeños acontecimientos en un lugar remoto pueden acabar provocando crisis de dimensiones planetarias. Es la idea que, en los años sesenta del pasado siglo, trataba de transmitir Edward Lorenz, matemático y meteorólogo estadounidense, con la metáfora del ‘efecto mariposa’. El futuro de dos mundos, que inicialmente solo se diferencian en que en uno aletea una mariposa y en el otro no, puede acabar siendo muy distinto debido a las reacciones en cadena que puede provocar esa diferencia, en principio insignificante. Esto es lo que estudia la teoría del caos, de la que Lorenz es pionero: El comportamiento de sistemas dinámicos no lineales, tan sensibles a pequeñas variaciones en sus condiciones iniciales que nos resulta prácticamente imposible predecir su futuro. Sistemas impredecibles debido a que no somos capaces de conocer a la perfección todas sus condiciones iniciales, no porque sean impredecibles en sí mismos.
Se trate de un cisne (blanco o negro), de un elefante, o de un rinoceronte, la cuestión es que el coronavirus, una molécula de apenas 0,1 micras de diámetro, ha puesto nuestro mundo patas arriba.
Pequeños eventos pueden tener enormes consecuencias muy difíciles de anticipar. Esta es también la idea de fondo detrás de la ‘teoría del cisne negro’ desarrollada por Nassim Nicholas Taleb en su libro The Black Swan. Para Taleb, un ‘cisne negro’ es un evento que a) se produce por sorpresa, ya que nada indicaba que podía suceder; b) tiene un impacto extremo –Taleb considera que muchos descubrimientos científicos, eventos significativos y logros en la historia de la humanidad, como internet o la primera guerra mundial, pueden considerarse ‘cisnes negros’–; y c) una vez que sucede, tendemos a racionalizarlo en retrospectiva, como si pudiéramos haberlo previsto. Algunos analistas consideran la pandemia de coronavirus uno de esos ‘cisnes negros’. Sin embargo, otros autores, el propio Taleb entre ellos, no lo ven así. Para Taleb la pandemia no es un ‘cisne negro’ sino un ‘cisne blanco’. Sabíamos que podía suceder (la propia Organización Mundial de la Salud había advertido de este riesgo), y podíamos haber anticipado sus consecuencias sobre la economía mundial, dado el grado de conectividad del mundo en que vivimos. Otros analistas que niegan que la pandemia sea un ‘cisne negro’ se refieren a ella como un ‘rinoceronte gris’, una expresión que utilizó Michele Wucker para describir la crisis griega de 2012, o un ‘elefante negro’, término que empleó Adam Sweidan en 2014 para calificar ciertos riesgos medioambientales que combinan rasgos de ‘cisne negro’ y de la expresión inglesa ‘elephant in the room’, que se usa en ese idioma para referirse a problemas importantes que todo el mundo conoce pero nadie menciona por ser temas incómodos. En cualquier caso, se trate de un cisne (blanco o negro), de un elefante, o de un rinoceronte, la cuestión es que el coronavirus, una molécula de apenas 0,1 micras de diámetro, ha puesto nuestro mundo patas arriba.
Cada vez con más frecuencia nos encontramos frente a situaciones donde ya no es que no sepamos lo que no sabemos (unknown unknowns), es que no podemos saberlo (unknowable unknowns).
Esta idea de que vivimos en un mundo cada vez más complejo y difícil de predecir también está implícita en el acrónimo V.U.C.A. que llevamos usando años. Acuñado en el ámbito militar en los últimos años de la Guerra Fría para describir el contexto de los nuevos conflictos que surgían en esa época, hoy en día es un término de uso común en círculos empresariales para expresar lo volátil, incierto, complejo y ambiguo (en inglés Volatile, Uncertain, Complex, Ambiguous) que se ha vuelto el entorno de los negocios. Sin embargo, hay quien piensa que cuando decimos que vivimos en un mundo V.U.C.A. nos quedamos cortos. En las últimas décadas la complejidad del mundo se ha incrementado hasta tal punto que raya en lo caótico –hay quien habla de un “cambio de estado”, como cuando el agua se convierte en vapor–. Y cada vez con más frecuencia nos encontramos frente a situaciones donde ya no es que no sepamos lo que no sabemos (unknown unknowns), es que no podemos saberlo (unknowable unknowns). Situaciones cuyas consecuencias no es que sean inciertas, sino que son prácticamente imposibles de predecir. Esta es la tesis que lleva defendiendo desde hace años, al menos desde 2018, Jamais Cascio, miembro del Institute for the Future y uno de los Top 100 Global Thinkers de la revista Foreign Policy, que plantea la necesidad de sustituir, o cuando menos complementar, el marco conceptual que aporta la fórmula V.U.C.A. (que por los motivos anteriores considera insuficiente), por otro nuevo que nos ayude a encontrar sentido, aceptar y orientar nuestras acciones en un mundo “más que V.U.C.A.” En palabras de Cascio, “un marco que nos permita ilustrar la escala de las disrupciones, el caos en curso y qué tipo de respuestas serían útiles”.
Cascio resume ese marco alternativo con otro acrónimo: B.A.N.I., un término compuesto por las iniciales de las palabras inglesas Brittle (quebradizo), Anxious (que genera ansiedad), Non-linear (no lineal) e Incomprehensible (incomprensible).
Brittle: Un mundo quebradizo
Muchos de los sistemas sociales, económicos y tecnológicos con los que nos relacionamos son más frágiles de lo que aparentan. Son sistemas ‘quebradizos’ cuyo rendimiento se desploma en el momento en el que un input excede un determinado nivel, o las condiciones ambientales sobrepasan ciertos parámetros, en lugar de degradarse y disminuir su rendimiento de manera paulatina. Sin embargo, lo más peligroso es que esos sistemas tienen una apariencia solida, dura, que hace que nos confiemos. Por esto cuando fallan nos pillan desprevenidos. Salvando las distancias, es lo que sucede con la cobertura de chocolate de un polo un día de calor. Se abre una primera grieta y a los pocos segundos estamos haciendo malabarismos para evitar que el resto de la capa de chocolate se desmorone y el interior del helado se desparrame derretido sobre nuestra mano. Además, muchos de esos sistemas con los que nos relacionamos son susceptibles de sufrir fallos catastróficos en cascada. Un riesgo que se incrementa a medida que esos sistemas cada vez están más conectados unos con otros. Es decir, persiguiendo la eficiencia estamos desarrollando sistemas frágiles, cuando la prioridad tendría que ser, como argumenta Cascio, construir sistemas resilientes o, si vamos un paso más allá, como propone Taleb, diseñar sistemas ‘anti-frágiles’, que no solo consigan recuperarse rápido de las situaciones adversas a las que se enfrentan, sino salir reforzados de esas situaciones. Permitir redundancias, construir en capas para evitar puntos únicos de fallo, resistir nuestra tendencia a suprimir la aleatoriedad, tomar muchos riesgos pequeños, pero evitar riesgos que si salen mal supondrían el fin, mantener opciones abiertas, endeudarnos lo justo, respetar lo ‘viejo’ que ha conseguido existir durante mucho tiempo, jugar a largo en lugar de a corto, son algunas de las cosas que podemos hacer para construir sistemas menos quebradizos y más anti-frágiles.
Anxious: Un mundo que genera ansiedad
El mundo en que vivimos es, además, un mundo que genera ansiedad. Continuamente nos enfrentamos a nuevas situaciones con las que no estamos familiarizados, que nos sorprenden y desorientan. Hay muchas cosas, tal vez demasiadas, que sentimos que no podemos controlar. Todo parece potencialmente desastroso. Sea lo que sea lo que decidamos, nuestras decisiones no estarán nunca libres de riesgos. A menudo no nos atrevemos a tomar decisiones, por aquello de que el único que no se equivoca nunca es el que no decide, pero también nos produce ansiedad sentir que, al no decidir, podemos estar perdiendo oportunidades. Del mismo modo que nos genera ansiedad la posibilidad de que lo que decidamos hoy pueda limitar nuestra capacidad de maniobra si necesitamos cambiar de rumbo en el futuro. A esto hay que sumar el bombardeo de noticias, gran parte de ellas negativas, al que estamos sometidos. Somos conscientes de lo difícil que resulta en medio de esa avalancha informativa distinguir entre lo que es verdadero y lo que es falso, y aun así vivimos enganchados a los medios de comunicación y a las redes sociales. Nos angustia el futuro distópico que nos dibujan algunos, las teorías de la conspiración que plantean otros y en ocasiones sentimos que no hay salida. La propia idea de que vivimos en un mundo V.U.C.A., a pesar de que la mayoría la tenemos asumida, genera ansiedad. Es comprensible que aumenten los casos de estrés, depresión, incluso el número de suicidios. Empatía, atención plena, desconexión y confianza son algunas de las herramientas que nos pueden ayudar en este escenario.
Non-linear: Un mundo en que causas y efectos no encajan
Que los sistemas naturales, económicos y sociales son ‘no-lineales’ significa que si introducimos un mismo input en uno de esos sistemas no siempre obtenemos el mismo output. Variaciones en el tamaño o intensidad del input pueden dar lugar a cambios no proporcionales en los outputs, mientras que las consecuencias de las acciones que tomamos sobre esos sistemas llegan, con frecuencia, con un largo retraso, por lo que se hace todavía más complicado establecer conexiones entre unas y otras. Además, los sistemas no lineales tienen memoria, una propiedad que en Física se denomina “histéresis”. Su historia pasada influye en su comportamiento futuro de manera que dos sistemas que parecen idénticos en el presente pueden comportarse de manera muy diferente en el futuro porque sus pasados son diversos. Esta aparente desconexión y desproporción entre causas y efectos contribuye a la sensación que vivimos en un mundo en el que las cosas suceden de forma aleatoria, cuando en realidad no es así. Lo que pasa es que muchos de los sistemas que tratamos de entender, o sobre cuyo comportamiento queremos influir, son demasiado complejos para la tecnología actualmente disponible. Este es el motivo de que, por ejemplo, hoy por hoy sigamos sin ser capaces de hacer previsiones meteorológicas precisas a largo plazo. En cualquier caso, el primer paso es asumir que, en la naturaleza, en la economía y en la sociedad, lo lineal es la excepción y lo no lineal es la norma, y tener la humildad de aceptar que hay muchas cosas que, al menos por el momento, no somos capaces de entender.
Incomprehensible: Un mundo que no conseguimos comprender
Como humanos siempre buscamos explicaciones a las situaciones y fenómenos que observamos a nuestro alrededor. El problema es que, a menudo, nuestras explicaciones son demasiado simplistas y nos llevan a tomar decisiones equivocadas. Este riesgo se acrecienta en un mundo que se vuelve más complejo a medida que sus elementos están cada vez más interconectados y se multiplican los bucles de feedback entre ellos. Tenemos más datos que nunca, pero tener más datos no siempre es una ayuda para interpretar las situaciones a que nos enfrentamos. Por el contrario, el mayor volumen de datos genera una mayor confusión y hace que nos cueste más separar la señal del ruido. Las soluciones de inteligencia artificial, que cada día nos sorprenden con lo que son capaces de hacer, también contribuyen a esa sensación de que nos movemos en un entorno incomprensible. Aparentemente producen buenos resultados, pero no sabemos como han llegado a esas conclusiones, con lo que corremos el riesgo de que los algoritmos estén contaminados por los sesgos de las personas que los diseñaron, o por los que podían traer de origen los datos utilizados para entrenarlos. La incomprensibilidad del entorno es también la que nos lleva a tomar nuestras decisiones, cada vez con más frecuencia, en base a pruebas A/B, en las que observamos como funcionan dos soluciones y nos quedamos con la que da mejores resultados, sin necesidad de entender en detalle las causas por las que esa solución da mejores resultados que la otra. Es, en definitiva, un escenario en que pedimos a los algoritmos que nos expliquen cómo han llegado a sus conclusiones, pero también un escenario donde posiblemente toca desempolvar una cualidad que habíamos aparcado creyendo que en un mundo tecnificado y cuantificado ya no era necesaria: la intuición.
¿Te ha gustado?
Future for Work Institute funciona con un modelo de suscripción anual que incluye acceso a las actividades de nuestro calendario y a los recursos de nuestro repositorio de conocimiento, así como servicios in-company.
Plan
Curiosity
Recomendado para equipos de RRHH de entre 5 y 20 personas.
Plan
Pioneer
Recomendado para equipos de RRHH de entre 15 y 100 personas.
Plan
Exploration
Recomendado para equipos de RRHH de más de 100 personas.
Plan
Horizons
Para las organizaciones de mayor complejidad.
¿Ya eres usuario? Inicia sesión aquí