En los tímidos inicios de la segunda ola de la Covid-19, Miguel Sebastián, exministro de Economía del Gobierno de Zapatero y Catedrático de la Universidad Complutense, se lamentaba de que el grupo de expertos para la crisis de la Covid-19 del actual Gobierno no contara con matemáticos ni con estadísticos. ¿Una frivolidad? Veamos que no iba muy desencaminado.

Primer síntoma: la negación de la realidad

La crisis de la Covid-19 ha pillado a todos los sistemas sanitarios occidentales desprevenidos y, lo que es más preocupante, a los europeos llenos de soberbia. Es que ¡no hay datos del pasado!, asevera aún alguno. Aunque, ¡por fin!, ahora reconozcan que llegaron tarde y minusvaloraron la amenaza, el virus SARS-CoV-2 ha demostrado inexplicablemente que no estábamos preparados para afrontar una crisis de tal envergadura por un virus emergente, a pesar de que son la marca propia de la era global y del calentamiento terrestre. En promedio, cada 3 años un nuevo virus emerge, como Zika, West Nile o Chikungunya, y cada 6 sufrimos un brote pandémico por virus respiratorio, como la gripe aviar H5N1, la gripe A H1N1, el SARS, el MERS y ahora el SARS-CoV-2.

Matemáticas: el arma secreta de la epidemiología moderna

Tradicionalmente, la predicción de la evolución de una amenaza epidemiológica en curso se trataba con modelos matemáticos enormemente estables y seguros (modelos diferenciales), y fundamentándose en datos de brotes anteriores, lo que ayudaba a determinar los parámetros necesarios para la predicción deseada. Precisamente, cuando Sebastián habla de matemáticos y estadísticos, no piensa ya en un(a) señor(a) a la vieja usanza, manejando una hoja de cálculo y sacando gráficos de barras para mostrarlos en los telediarios, sino en matemáticas predictivas muy avanzadas. En nuestro s. XXI, estos temas se tratan con conocimiento y tecnología propia de la 4ª Revolución Industrial, en la que ya estamos inmersos. Hablamos del Deep Learning y de la combinación de muchos conceptos que seguro el lector ya conoce e intuye: Big Data, Machine Learning, Inteligencia Artificial y Predictive Analytics, entre otros.

El cómo conseguimos predecir lo que va a ocurrir en los próximos días, teniendo muy presente lo que ha pasado hace unos días o en el pasado (black friday, puente vacacional o thanksgiving, por ejemplo), requiere tener presente la variación de todos los parámetros anteriormente citados. El Deep Learning basa su éxito precisamente en conocer, en todo momento, lo que está pasando, teniendo más importancia casi lo de ayer que lo de hace un mes, lo que requiere el uso de la web e integrar la ingente cantidad de datos que circulan en ella. Esta modelización avanzada, además, es muy similar a la estrategia clave que la virología y epidemiología modernas emplean para afrontar un virus emergente letal: la anticipación, el estar preparados, ponerse en el peor escenario y desplegar todos los medios para que no ocurra, mitigando el impacto socio-sanitario y económico. Asimismo, esto permite convertir el reto, la amenaza en una oportunidad de desarrollo y nos fortalece frente a futuras crisis. Curiosamente, hemos renunciado a esta estrategia y, como pollo sin cabeza, ni nos la planteamos aún.

Veamos algunos ejemplos matemáticos que ilustren sobre qué estamos hablando. Es obligado empezar por el gran manejador de datos globales, Google, y su herramienta para el control de pandemias Google Flu Trends (GFT). GFT fue lanzado en 2008 y se convirtió en el sistema emblemático de vigilancia epidemiológica de Google, especializado en el seguimiento “en tiempo real” de brotes de gripe (en aquel momento, el planeta afrontaba la cepa H1N1 de gripe, que curiosamente muchos también despreciaron). Pero en la siguiente temporada GFT no acertó en su trabajo, y no predijo la pandemia no estacional de H1N1 en 2009, y entre 2011 y 2013 la prevalencia de gripe pronosticada por GFT fue incorrecta en 100 de 108 semanas. Aunque Google cerró el sistema en 2015, GFT ha mostrado el camino y es un gran ejemplo de inteligencia colectiva para identificar tendencias y calcular predicciones, gracias a la modelización matemática en tiempo real de un flujo ingente de datos.

Deep Learning: la nueva herramienta antipandemias

Los avances recientes en el cálculo algorítmico, el análisis de Big Data y la Inteligencia Artificial prometen cambiar la forma en que los gobiernos, las instituciones y las personas entienden y responden a los problemas de salud. Se espera que los datos agregados actúen a modo de centinela particularmente alerta, cuya vigilancia y sensación de peligro “pueden ayudar a prepararnos para un futuro incierto, pero potencialmente catastrófico” (Keck y Lakoff 2013). Los sistemas de vigilancia de enfermedades en línea integran datos y rastros digitales que ocurren justo antes que el brote pandémico se inicie, recolectando información de toda una variedad de fuentes en línea, incluyendo consultas de búsqueda, feeds de Twitter y Facebook, informes de noticias en línea y contenido de fuentes colectivas de comunidades de usuarios que sorprendentemente no tienen nada que ver con “ciencia médica”, pero que nos muestran comportamientos que sí condicionan el brote y su evolución y que no sospechábamos. Gracias a estas herramientas y proceder, en Corea del Sur se siguió y actuó en tiempo real frente al brote del virus MERS del 2015 controlándose en tiempo récord. De hecho, los países que mejor están reaccionando frente a la Covid-19 están empleando estas herramientas en sus agencias de control de infecciones. Asimismo, cuando hablamos de Machine Learning o Aprendizaje automático, hacemos referencia a la capacidad de una máquina o software para aprender mediante la adaptación de ciertos algoritmos de su programación respecto a cierta entrada de datos en su sistema. Lo que se denomina aprendizaje consiste en la capacidad del sistema para identificar una gran serie de patrones complejos determinados por una gran cantidad de parámetros. Es decir, la máquina no aprende por sí misma, sino un algoritmo de su programación, que se modifica con la constante entrada de datos en la interfaz y que puede, de ese modo, predecir escenarios futuros o tomar acciones de manera automática, según ciertas condiciones. Como el sistema realiza estas acciones de manera autónoma, decimos que el aprendizaje es automático, sin intervención humana.

Veamos ejemplos concretos de Deep Learning. GAM y la enfermedad HFMD: En Guangzhou (China), mediante un modelo aditivo generalizado (GAM), con herramientas web para análisis de Big Data y contemplando todo lo que acontecía, se detectó, antes de que fuese evidente epidemiológicamente en los centros de salud, un brote de la enfermedad de manos, pies y boca (HFMD) paliándose rápidamente. Redes neuronales y Zika: El nombre de redes neuronales viene de la idea de imitar el funcionamiento de las redes neuronales de los organismos vivos: con la experiencia, las neuronas van creando y reforzando ciertas conexiones para “aprender” algo que se queda fijo en el tejido. Las redes neuronales son un modelo matemático para encontrar esa combinación de parámetros y aplicarla al mismo tiempo. Una red ya entrenada se puede usar luego para hacer predicciones o clasificaciones, es decir, para “aplicar” la combinación. En 2015, el virus del Zika se propagó desde Brasil a todas las Américas, lo que representó un desafío sin precedentes de salud pública. Recordemos que hizo tambalear la celebración de las Olimpiadas y el Mundial de Fútbol. Durante la epidemia, los agentes de salud pública internacionales carecían de predicciones fiables, desconocían la escala geográfica esperada del brote y la prevalencia de casos. Por tanto, no acertaron a planificar y asignar recursos de vigilancia de manera oportuna y eficaz. En 2019, se presentó un modelo de red neuronal dinámica que permite predecir, en tiempo real, cómo ocurrió la propagación geográfica de los brotes Zika. El marco de modelización es flexible en tres dimensiones principales: (i) selección del indicador de riesgo elegido, como recuento de casos o tasa de incidencia; (ii) esquema de clasificación de riesgo, que define el grupo de alto riesgo en base a un umbral relativo o absoluto; y (iii) ventana de pronóstico de predicción (de 1 a 12 semanas). El modelo Zika funciona consistentemente bien en varias etapas del curso del brote, lo que indica su valor predictivo en cualquier momento durante una epidemia. La capacidad pronóstica es aún superior en ventanas temporales más cortas, y en ubicaciones geográficamente aisladas que estén conectadas predominantemente por vía aérea (¿nos son familiares estas condiciones geográficas en nuestras Islas?). Frente a futuros brotes de Zika, la naturaleza altamente flexible del marco de modelización propuesto ayudará a formular medidas de anticipación, a planificar programas de control de vectores y estrategias de vigilancia de casos, siendo adaptable a una gran variedad de objetivos y limitaciones de recursos (protectores, campañas de fumigación, test disponibles, etc.). Covid-19 y Deep Learning: Los algoritmos de aprendizaje automático juegan un papel importante en el análisis de epidemias y previsión, como se ha validado en estudios de malaria o Zika. Igualmente, analizando flujo de datos epidémicos masivos, las técnicas de Machine Learning están ayudando a determinar los patrones de transmisión y contagio del brote pandémico de SARS-CoV-2, y proponiendo acciones para intentar detener la propagación del virus. Así, las fuentes de datos actualizada y fiable se convierten en fundamentales, como lo muestra el portal de datos mundiales Covid-19 de la Johns Hopkins University, donde España también se incluye en el análisis (una vez más, asistimos a lo complicado que es realizar esta tarea desde nuestro país). A nivel mundial, matemática(o)s e investigadora(e)s de inteligencia artificial están desarrollando modelos matemáticos para analizar la situación epidémica de la Covid-19, utilizando datos compartidos a nivel nacional y transnacional, donde destaca la iniciativa Covid19 Projection. Esta acción utiliza modelos de aprendizaje automático (Machine Learning) y profundo (Deep Learning), para comprender el comportamiento exponencial de transmisión viral diario y ofrecer una predicción de evolución futura de la Covid-19 en EE.UU., y apoyándose en la información a tiempo real del panel de la Universidad Johns Hopkins.

Actuar ante brotes locales con antelación y con estas herramientas matemáticas permite preparar los sistemas de protección, hacer campañas de información y atención personalizada (visitas a pacientes vulnerables), y adelantar las campañas de vacunación. Debemos ser conscientes de la importancia de la matemática avanzada, interactiva e iterante en la actual era de los virus emergentes, y podemos decir que sin matemática(o)s no hay futuro ni éxito en la lucha contra estas pandemias globales.