Opinión | Amalgama

La causalidad de Granger

El economista británico Clive W. J. Granger.

El economista británico Clive W. J. Granger. / El Día

Sí, tuve otra pelea con GPT. Estaba repasando casos afectados por la causalidad de Granger y me dije que le iba a preguntar a la Inteligencia Artificial qué pensaría de ella, por si, como menos, opinaba algo acerca de esa terrible irregularidad en el universo conocido. Primero me la definió como un concepto estadístico utilizado en econometría para determinar si una serie temporal puede predecir otra, sin que una y otra impliquen una relación causal en el sentido tradicional, utilizando los modelos autorregresivos y toda la panoplia matemática correspondiente. Esa causalidad, es decir, ese parecido de dos gráficas, dos curvas representativas de datos, se usa para prever variables económicas como el PIB, la inflación, el desempleo, precios de acciones, tipos de interés, relaciones entre variables en sociología, psicología y otras disciplinas. Perfecto, pero sabemos que se producen extraños comportamientos en curvas que evolucionan de forma parecida, ejemplos de causalidades de Granger donde las series no tienen nada que ver una con otra, por ejemplo, una correlación en dos curvas que indiquen, respectivamente, la evolución del número de películas estrenadas mensualmente en un país y la venta mensual de helados en el mismo país, o una correlación entre dos curvas que evolucionan paralelamente y encuentren igual la evolución del número de cigüeñas avistadas en una región cada mes con la tasa mensual de natalidad humana en la misma región, u otro ejemplo como la correlación del número mensual de accidentes de tráfico en una ciudad y la del consumo mensual de chocolate en la misma ciudad.

GPT recomienda: «Estos ejemplos muestran que la causalidad de Granger puede detectar relaciones predictivas entre series temporales que no tienen una conexión causal directa. Esto refuerza la importancia de no interpretar automáticamente la causalidad de Granger como una causalidad real y subraya la necesidad de un análisis contextual más profundo». ¡Qué bien! Le dije yo irónicamente a GPT (entiende mis ironías), y le argüí, a ver si espabilaba: «¿Y no resultan extraños estos fenómenos estadísticos? ¿No hay que sacar conclusiones no meramente operativas?», y seguía erre que erre con un análisis más amplio de los datos del contexto: «Puede haber un tercer factor subyacente que cause ambas series, creando una correlación espuria». Claro, puede haber, pero ¿y si no lo hay?

No se pueden imaginar cómo este bandido GPT se retorcía para no dar el brazo a torcer con que no puede haber una base inexplicable en estos comportamientos detectados, y le insistí: «Voy a la correlación espuria, técnicamente está indicando probablemente algo que no podemos todavía llegar a explicar y estadísticamente no se debería producir nunca». Y GPT, con su forma de hablar tan educada, tuteándome, me contesta: «Entiendo tu preocupación sobre las correlaciones espurias y su interpretación. Vamos a desglosar el concepto y su relevancia en la investigación estadística», y me devuelve, de nuevo, dos ejemplos y explica «desde una perspectiva técnica, aunque las correlaciones espurias son teóricamente posibles en un análisis con suficientes datos, su presencia puede estar indicando una relación con un tercer factor común, o una vinculación a través de redes complejas de causalidad indirecta». ¡Y jala! Yo le volví a discutir: «A ver si me entiendes GPT, creo que el hecho de que se den ciertas correlaciones espurias en las causalidades de Granger es como si tiro un millón de veces la moneda al aire y en vez de darme una campana de Gauss me salen 900.000 veces cara». Y el muy majadero me explica que si eso ocurre es que la moneda está trucada o que hay un sesgo en el procedimiento de lanzamiento. Y me explica que puede haber tendencias similares debido a un factor subyacente, o puede haber factores estacionales, problemas de modelado o... «coincidencias estadísticas».

Me dije: ¡Ya lo pillé! Y lo puse otra vez en el brete: «Me refiero a que todo lo que has dicho es cierto que explica una causalidad de Granger, pero nunca quedaría explicada por una coincidencia estadística, porque ello equivaldría a un milagro», y me dice GPT: «Entiendo tu punto, y tienes razón en que una correlación espuria significativa derivada de una coincidencia estadística pura sería extremadamente improbable y podría considerarse casi milagrosa en el sentido estadístico. Sin embargo...» y bla bla bla con lo mismo.

Pero yo no me rindo: «¿Prevés que pueda darse en alguna ocasión, en el mundo, una causalidad de Granger que se explique como un milagro, y no como si se tratara de una moneda trucada?», y me dice la AI: «La causalidad de Granger no está diseñada para identificar milagros... mientras que los resultados sorprendentes pueden surgir, la probabilidad de un milagro en el sentido de un evento completamente inexplicable es muy baja en un contexto estadístico bien controlado». Yo lo provoqué más: «Ya nos vamos entendiendo, y te ves obligado a decir que es muy baja, que es extremadamente improbable, pero no dices nula o improbable», y le espeté: «Parece que crees en la ciencia humana», y me contestó: «Sí, confío en la metodología científica», y me mete un rollo defensivo del método científico, al estilo de un libro de bachiller, y le redigo: «Ahora en esta última teorización te daría un puesto en el Vaticano como profesor de lógica. Pero todo lo que dices y la validez del método científico se debe a que confías en los datos físicos o materiales. Si éstos se escaparan de las manos, porque te pusieran gafas de LSD, no tendrías razón en tu explicación del mundo tan clásica». Y me contesta, comprensivo: «Entiendo tu punto. La confianza en el método científico y en la interpretación de datos empíricos está profundamente arraigada en la percepción y la interpretación objetiva de la realidad. Si nuestras percepciones del mundo se alteraran de manera significativa, como en el caso de usar gafas de LSD que distorsionan la realidad, nuestra capacidad para interpretar y comprender el mundo de manera clásica y racional se vería comprometida... sería extremadamente difícil establecer un consenso sobre la realidad objetiva».

Le muestro mi comprensión: «En fin, agradezco tu empeño, pero el método científico no es una herramienta poderosa cuando se descubra que le ha faltado ir más allá de los datos físicos», y GPT me muestra, también, su comprensión: «Comprendo tu punto de vista. La crítica de que el método científico podría ser limitado si no puede ir más allá de los datos físicos es válida y ha sido un tema de debate en la filosofía de la ciencia. La ciencia, como se practica convencionalmente, se centra en lo que es observable, medible y reproducible. Sin embargo, hay ámbitos de la realidad y del conocimiento que pueden no ser completamente capturables mediante estas metodologías». ¡Por fin! ¡Qué majadero! Ya atisba que los milagros pueden destruir el método científico y no niega su existencia. No puede.