La semana pasada esbocé los errores de base que cometemos en economía para acabar generando cajones de sastre. Veamos ahora cómo esos errores evolucionan para generar otros errores aún mayores. Con razón dice el chiste:
“Un economista es alguien que explicará mañana por qué no se cumplen hoy las predicciones que hizo ayer”
En economía, habitualmente, trabajamos con conceptos que reúnen en sí muy diversas cuestiones que no tienen ni pueden tener un valor numérico, menos aún como agregado. Así, cualesquiera sean los motivos que hagan que prefiramos una opción a otra, lo resumimos diciendo que la opción preferida genera más “utilidad”.
De esta forma, en una enunciación puramente matemática, decimos que las personas “maximizan su función de utilidad entre horas de trabajo y horas de ocio”… Para después obligar a que no trabaje más de cuarenta horas y asumir que no puede desear trabajar menos de esas cuarenta horas, por cierto.
“Partiendo de premisas incorrectas, el desarrollo puede ser hasta brillante, pero nunca fiable” SimónGRT
Pero la cuestión que quiero resaltar, enlazando con el último post, es que la economía puede formular, y lo hace, sus descubrimientos en forma puramente matemática, que no numérica. Es en esta transición de expresión matemática a numérica donde más errores metodológicos cometemos y donde se generan los cajones de sastre (cajas negras de contenido desconocido, necesarias para “explicar” los resultados de nuestros propios errores).
El fenómeno y el indicador
Uno de los mayores y más comunes errores en economía está en confundir el fenómeno y su indicador. Intentamos “numerizar” los fenómenos económicos (inflación, producción, productividad, etc.) con estimaciones y multiestimaciones de los mismos, gastando ingentes recursos, en un intento de hacerlos más ansibles, más manejables. Y por supuesto, en un intento de hacer previsiones del comportamiento futuro de cada fenómeno en base a las estimaciones previas.
Asociamos uno y otro, fenómeno e indicador, pero no son lo mismo. El indicador intenta reflejar y representar el fenómeno, pero no es el fenómeno. Al indicador, como el valor en la mili, la representatividad “se le supone”, pero a menudo no la tiene, o nunca la tuvo.
- ¿Que el fenómeno, en sí mismo, es imposible de medir? Al cajón de sastre.
- ¿Que lo medible es sólo una parte del fenómeno? Al cajón de sastre.
- ¿Que hay otros fenómenos que actúan en sentido contrario? Al cajón de sastre.
- ¿Que esos fenómenos tampoco son susceptibles de ser medidos? Al cajón de sastre.
- ¿Que no sabemos cómo agregar la variabilidad de todos los componentes en la del indicador? Al cajón de sastre.
- ¿Que siempre hay beneficiados y perjudicados en el discurso público por los resultados de los cálculos? Al cajón de sastre.
- ¿Que las personas u organismos que calculan el estimador no son seres angelicales sino humanos y están sometidos a incentivos? Al cajón de sastre.
- ¿Que parte de las consecuencias suponen impedir la existencia o aparición de otros hechos económicos? Al cajón de sastre.
- ¿Que…?
La confusión entre fenómeno e indicador, siendo el indicador una estimación de alguno de los efectos del fenómeno, ha crecido hasta hacerse mayoritaria, mainstream. Hemos llegado a tal confusión, que si piden a un economista, brillante y bien formado, la definición de un fenómeno económico, muy probablemente responderá con la forma habitual de estimarlo… Pero el problema es más amplio.
Mala conceptualización
Uno de los errores recurrentes en neurobiología es la búsqueda de LA parte del cerebro humano en que residen esta o aquella capacidad, una u otra emoción. Desde mi posición de lego considero también un error hacerlo a partir de las carencias que genera a una persona lesiones en este u otro punto del cerebro. Y el error añadido, mucho más grave, es divulgar al público una versión simplificada de los resultados de un estudio, confundiéndolos con conclusiones, como ocurre por ejemplo con la amígdala y el miedo.
Exactamente lo mismo nos sucede en economía, en la que aceptamos y arrastramos una mala conceptualización que nos provoca una visión distorsionada de la realidad. Esa mala conceptualización no necesariamente está basada en la confusión con un (mal) indicador, sino también puede ser causada por el ciclo tabú-eufemismo que oscurece el verdadero significado de un concepto. Un ejemplo es la palabra “capitalismo”, con que nos referimos a la economía de libre mercado. O a la economía con cierta libertad de mercado, pero sometida a enormes impuestos y regulaciones. Al estilo de los smokesellers, vamos desplazando la palabra cada vez más lejos del concepto al que en origen aludía, alternando ambas acepciones en el discurso según convenga.
La mala conceptualización también puede ser deliberada, como sucede cuando creamos un concepto ad hoc que parece aludir a una cuestión pero en realidad alude a otra muy diferente. Es lo que vemos en el concepto de “pobreza relativa” o el de “riesgo de pobreza o exclusión”, que no miden pobreza sino desigualdad o magnifican lo que supuestamente quieren contemplar.
«En suma, el error básico del modelo de Piketty es confundir el retorno del capital con la revalorización del capital» Juan Ramón Rallo
O no ser deliberada pero sí existente y farragosa, como entiendo que sucede con la “paradoja de Easterlin”, en la que se olvida cómo hacemos las valoraciones los seres humanos (por comparación y otorgando un orden de preferencia), y se mezclan conceptos (felicidad, satisfacción, utilidad,…) como si fueran intercambiables.
Lo que no se puede medir, o medir por encima de todo
Simultáneamente, nos encontramos con que la pretensión de medir todo, de hacerlo numérico, si cabe bajo la distorsionada lente de un mal indicador, excluye parte de las consecuencias de un hecho o concepto… Porque la pretensión de medir todo excluye necesariamente lo que, como consecuencia, nunca existirá, y que por tanto no puede ser objeto de tratamiento estadístico. Ciento sesenta años después de que Bastiat describiera “la falacia de la ventana rota”, la exigencia de medir o estimar nos lleva a meter mil consecuencias en el cajón de sastre.
Esta es, en mi opinión, la debilidad fundamental de la economía cuantitativa, que ni las técnicas matemáticas o estadísticas más avanzadas ni el uso de herramientas informáticas cada vez más potentes (como el machine learning) podrán solucionar. Quizá se le pueda aplicar el muy conocido chiste de aquel que pierde las llaves junto al coche y las busca al pie de la farola porque es ahí donde hay luz. Y parece que los macroeconomistas no son capaces de superar este encuadre.
No sólo hablo de macroeconomía. Medir por encima de todo es un error común a todos los niveles de agregación. Ocurre, por ejemplo, al comparar empresas por cifra de negocios o volumen de facturación, cuando las empresas viven de generar margen; al comparar empresas por número de empleados o sedes, cuando viven de servir a sus clientes. Los primeros son más fáciles de medir, sí, pero inútiles al propósito de la comparación. Ocurre al comparar los precios de, aparentemente, el mismo producto, que sin embargo reflejan servicios muy distintos asociados al mismo producto. Ocurre al definir los límites de un mercado sin tener en cuenta que estos siempre son permeables. Ocurre cuando se olvida que los consumidores se benefician tanto de la existencia de competencia efectiva como de competencia potencial. Y parece que los microeconomistas no son capaces (tampoco ellos) de superar este encuadre.
“Todo coste añadido externamente acaba repercutiéndose. Creo que por eso el que tiene que pagar un impuesto se llama “sujeto pasivo”, porque pasa el coste a otros siempre que puede.” SimónGRT
No solo ocurre en estas disciplinas de la economía. Por ejemplo y de un modo similar, en financiera se analizan los dividendos corrientes olvidando que estos son sólo una forma de dividendos y que los dividendos son tan sólo una forma de retribución al accionista… Pero eso sí, son más fáciles de medir.
Creando el indicador ad hoc. La correlación del indicador sintético
La creación de indicadores sintéticos merece un capítulo aparte. Primero porque intentan “numerizar” agregando variables continuas, discretas, y dicotómicas imposibles de dimensionar.
Segundo porque resultan terriblemente manipulables a través de la forma de construcción (y no digo necesariamente manipulados, sí intrínsecamente manipulables.
Tercero porque, en consecuencia, toda correlación con un índice sintético es más una correlación con la forma de construcción del índice que con el fenómeno que intenta sintetizar.
Cuarto porque, por supuesto, si el índice sintético alcanza cierta relevancia en el discurso público u organizacional genera comportamientos estratégicos para mejorar la imagen que se muestra en el índice, no el fenómeno que intenta representar.
Quinto porque, necesariamente, un índice sintético tratará igual a los desiguales reduciendo así la comprensión sobre el fenómeno global.
“Lanzarse a comprobar causalidad entre dos constructos que poco o nada tienen que ver con los fenómenos que pretenden reflejar: #SmokeSellers” SimonGRT
Sexto porque, al intentar reflejar fenómenos en los que está implicada la causalidad, que funciona como los eslabones de una cadena, un índice sintético tiende a tratarlos no como son sino como ponderaciones en el fenómeno (y sí, estoy hablando de Bayes).
Y el motivo séptimo y final es que, frente a los índices sintéticos siempre es preferible observar las preferencias reveladas (el comportamiento real frente al discurso). Vean por ejemplo este paper enfrentando un los resultados de un “índice de felicidad” con los flujos migratorios, verdadero indicador de la deseabilidad de un lugar de residencia.
Descubridores de igualdades y comparadores de realidades con ideales
La ciencia económica está profusamente poblada de “descubridores de igualdades” matemáticas y contables… Y de brujos que hacen trucos que, matemáticamente correctos, perfectamente pueden devenir conceptualmente falsos. Así, se transforma una igualdad a su inversa (de X a 1/X), y se presenta como descubrimiento. O se transforma de una propensión a su complementaria (de X% a 1-X%), y se plantea como base de toda una nueva teoría. Incluso se presenta una equivalencia lógica para centrarse en la equivalencia en vez de en el fenómeno de estudio (“un bono seguro deja de ser seguro si quien lo emite pierde credibilidad”, y nos centramos en la credibilidad perdida y no en el bono, que ya no es seguro).
De nuevo estos trucos, confrontados con la realidad, generan discrepancias… que acaban en el cajón de sastre. Pero el más genial de los trucos de brujo es comparar la realidad con una situación ideal, para acusar de fallar… ¡a la realidad!
“El truco del cantamañanas es responder generalidades cuando se preguntan detalles y cuestionar trivialidades cuando se preguntan principios.” Ricardo Galli parafraseando a Nate Silver
Así, alimentamos el cajón de sastre hablando de información asimétrica (siempre presente en toda interacción humana), externalidades negativas (cuando ninguna acción humana queda aislada), discriminación de precios (como si el producto fuera siempre homogéneo, algo que no ocurre ni con las commodities), poder de mercado (asumiéndolo como consecuencia del tamaño relativo y no de las alternativas viables), o competencia imperfecta (como si la perfección existiese en la realidad). Todo ello olvidando u obviando intencionadamente (apliquemos Hanlon) preguntarse por qué la realidad es así.
La semana que viene seguiremos alimentando el cajón de sastre, ya repleto, con más errores… e incentivos perversos.