La máquina de la ira digital

Los algoritmos de las redes priman los contenidos extremos para secuestrar nuestra atención y facturar más en publicidad pero, en ese camino hacia la optimización económica, desatan crudos conflictos sociales y, como ocurrió en Birmania, un genocidio con 25.000 muertos

La máquina de la ira digital

La máquina de la ira digital / ED

Eduardo Lagar

En el rodaje de la primera versión de El planeta de los simios (1968), el actor Charlton Heston se quedó «espeluznado» cuando a la hora de la comida comprobó que todos los actores se sentaban espontáneamente en dos grupos separados: en un lado los chimpancés y en otro los gorilas. Cuando se rodó la secuela, ocurrió lo mismo. El ser humano nace programado para dividir el mundo entre «nosotros» y «ellos».

Eso es algo que sabían muy bien los ingenieros de Silicon Valey al programar los algoritmos que gestionan los tráficos de las redes sociales. Ese motor matemático diseñado para mantenernos pegados a las pantallas todo el tiempo posible —para que consumamos más publicidad— conoce todas nuestras debilidades psicológicas y no se le escapa cuánto nos seducen los contenidos que activan la emoción de la pertenencia grupal, o el pánico identitario a un enemigo común.

La necesidad de dopamina nos pondrá en marcha ciega, nos hará participar más y, por tanto, generar más valor económico para sus plataformas. El problema es el efecto secundario sobre la vida real: ese miedo al otro, tan rentable para el capitalismo de vigilancia porque segrega clics por billones, se traslada a la realidad convirtiéndose, en el peor de los casos, en auténticos genocidios.

Objetivo Birmania

Esto es algo que ahora saben bien en Birmania —su denominación oficial es República de la Unión de Myanmar—, un país del sudeste asiático de 59,5 millones de habitantes. Se calcula que entre 2015 y 2018, la limpieza étnica ejecutada por civiles y el Ejército birmano, de mayoría budista, contra la minoría musulmana de los rohinyá se saldó con 25.000 muertos y unos 725.000 desplazados. Los investigadores de la ONU atribuyeron a la red social Facebook un papel clave en la proliferación y difusión masiva de las mentiras que atizaron la ira popular contra los musulmanes. «Me temo que Facebook se ha convertido en una bestia», dijo Yanghee Lee, investigadora de Naciones Unidas.

Birmania fue uno de esos países subdesarrollados donde Facebook entró como un elefante en una cacharrería. Regaló el uso de datos a la población, lo mismo que en otros países como Kenia, Guatemala, Colombia o Tanzania. El objetivo era hacerse con todas esas almas. Con los años, el progreso económico y el correspondiente consumismo llegarían las ganancias. En Birmania todos empezaron a leer las noticias en Facebook, que en su mayoría eran falsas. El algoritmo de nuevo exprimió nuestra debilidades: lo que más engancha son los contenidos que nos indignan, aquellos que surgen del fango emocional del «nosotros contra ellos».

En 2015, Wirathu, el monje al que llamaban «el Bin Laden birmano», tenía 117.000 seguidores. Eran muchísimos en una época en la que el país debutaba todavía en Facebook. Su mensaje contra los rohinyás era inequívoco: «Voy a decirlo sin tapujos. Número uno, disparadles y matadlos. Número dos: disparadles y matarlos. Número 3, disparadles y enterradlos». En 2016, un estudio del Center for Advances Defense Estudies (C4ads) de Washington analizó 32.000 cuentas birmanas de Facebook «repletas de odio y desinformación». Había imágenes falsas de canibalismo atribuido a los rohinyás sacadas realmente de un videojuego y compartidas 40.000 veces. Los memes que revelaban que los rohinyás estaban introduciendo armas de contrabando habían sido compartidos 47.000 veces. El informe decía que Facebook estaba poniendo en peligro una sociedad que no entendía. Ese año, el 38% de los birmanos solo consumían noticias (falsas) a través de Facebook. La sangre no tardó en empezar a correr.

La compañía fundada por Mark Zuckerberg fue advertida en repetidas ocasiones de que su red social se había convertido en un lanzallamas. «Un solo ingeniero podría haber desactivado la red entera mientras acababa de tomarse su café matutino. Tocando cuatro teclas, un millón de ronginyás aterrorizados no habrían terminado muertos o desplazados». Pero no lo hizo.

El motor oculto

Quien escribe el último entrecomillado es Max Fischer, periodista y articulista de «Internacional» del diario «The New York Times» en su libro «Las redes del caos» (Península), cuya traducción al español acaba de publicarse. Fischer ha rastreado en profundidad los numerosos conflictos sociales atribuibles a las redes sociales. Ahonda en el efecto dañino sobre la vida real de la vida digital, que ha sido motorizada por unos algoritmos diseñados para optimizar nuestro tiempo de permanencia y participación en las redes. Las matemáticas son las que dictan cuál es la «decisión moral» correcta. Que es la que incrementa los ingresos publicitarios. Y como el tribalismo, la indignación, los contenidos altamente emocionales o los argumentos radicales -sin que nada de esto necesite un anclaje con la verdad- nos llevan como las moscas a la miel, esa es la vía que explotan incansables los algoritmos. Mientras tanto, refuerzan la polarización encerrándonos en cámaras de eco -donde solo vemos opiniones o memes que nos dan la razón- y se llevan por delante la estructura social y la estabilidad democrática. Están redibujando la realidad de millones de personas, alterando la percepción de lo que está bien y lo que está mal, normalizando el linchamiento. Porque para la máquina lo que está bien es aquello que respalda una mayoría, la jungla donde llueven «me gusta». No es nada personal, esos gigantes tecnológicos no quieren poner el mundo (aún más) patas arriba. Simplemente es su modelo de negocio. Ordeñan nuestros datos y eso da mucho dinero. Meta (Facebook, WhatsApp, Instagram) o Alphabet (Google, Youtube) están entre las empresas más capitalizadas del mundo.

Sri Lanka

Lo ocurrido en Sri Lanka en 2018 es otro caso paradigmático del efecto destructivo que pueden alcanzar las redes sociales. En marzo de ese año, el Gobierno de este país de 22 millones de habitantes, la antigua Ceilán, bloqueó las cuentas de Facebook por considerarla responsable de la difusión masiva de los mensajes de odio que desataron una semana de ataques contra la minoría musulmana por parte de la etnia mayoritaria, los cingaleses, de religión budista. Murieron tres personas, ardieron templos budistas y mezquitas. ¿Qué había pasado?

Fisher reconstruye toda la historia visitando a sus protagonistas. En marzo de 2018 se hizo viral en Sri Lanka un rumor en Facebook: la Policía había decomisado 32.000 píldoras esterilizadoras a un farmacéutico musulmán de una zona próxima al pueblo de Ampara. Era mentira, claro. Pero la plataforma no frenó su difusión. En redes sociales, al contrario que en los medios de comunicación, no hay editor que filtre previamente una publicación. Ahí manda el algoritmo y su mandato optimizador. Al día siguiente de la difusión del rumor se desató un incidente en el restaurante que unos hermanos musulmanes tenían en Ampara. Ellos hablaban la lengua minoritaria tamil y no el mayoritario cingalés. Un cliente empezó a protestar: había encontrado algo raro en su curri de carne. Los hosteleros lo tomaron, en principio, por un cliente borracho. No le hicieron mucho caso. No sabían que corría el rumor de las píldoras esterilizantes. Tampoco entendían qué era exactamente de lo que les estaba acusando el cliente. Al tiempo que el supuesto damnificado se ponía más agitado, otros comensales empezaron a rodear a uno de los dueños, el que estaba atendiendo la caja registradora. Le preguntaban si «había puesto», él creía que se quejaban por un grumo de harina y, como pudo, en el poco cingalés que hablaba dijo: «No lo sé. Si ¿hemos puesto?» Los clientes lo tomaron por una confesión: sí les había echado píldoras esterilizantes. Lo patearon, lo dejaron sangrando. Arrasaron el restaurante. La turba creció. Otro grupo, tras oír que aquello leído en Facebook era cierto -la «confesión» ya lo hacía evidente- quemó la mezquita del pueblo.

Alguien grabó la supuesta confesión del dueño del restaurante y la subió a Facebook. Como los datos en Birmania eran datos gratuitos, barra libre de gasolina digital, la bola fue creciendo. Poco después, hubo una pelea de tráfico. Unos jóvenes musulmanes apalearon a un camionero. Y uno de los extremistas cingaleses más activos en la red en Sri Lanka, difundió memes asegurando que aquello era el inicio de un ataque masivo de los musulmanes, lo que refrendaba con la noticia falsa del supuesto decomiso de los fármacos esterilizantes y la supuesta confesión del dueño del restaurante. El país entró en caos. Los cingaleses quemaron mezquitas, allanaron e incendiaron casas y comercios de musulmanes. El Gobierno, harto de que la plataforma ignorase sus llamamientos (les respondían asépticamente que rellenaran el cuestionario preceptivo que está en la plataforma y lo enviaran por vía digital), bloqueó las redes en Sir Lanka. Entonces la masa enfurecida se retiró. En ese momento Facebook sí respondió al Gobierno. «Pero no para preguntarles por la violencia, sino para saber por qué el tráfico se había reducido a cero», apunta Max Fischer.

Alemania odia

Este no es un problema de países tercermundistas, por supuesto. El algoritmo teje en silencio su nuevo destino mercantil para todos los seres humanos. También para los del primer mundo. Karsten Müller y Carlo Schartz, investigadores alemanes de la Universidad de Warwick, en el Reino Unido, estudiaron la relación entre redes y delitos de odio. En 2021 publicaron un trabajo sobre los 3.335 ataques contra refugiados producidos en Alemania en los años anteriores. Concluyeron que las redes hacen que «comunidades enteras sean más propensas a la violencia real». Encontraron que las poblaciones alemanas con un uso de Facebook mayor que la media solían experimentar más ataques contra los refugiados. Y eso pasaba «en casi todos los tipos de comunidades, grandes, pequeñas, adineradas o con dificultades, liberales o conservadoras». Y no tenía que ver con el uso general de internet, tenía que ver con el uso de Facebook. Donde el uso de esa red social crecía por encima de la media los ataques contra los refugiados crecían un 35%. El algoritmo se excita en cuanto huele que alguien puede amenazar el estatus de los acomodados usuarios de la mayor economía europea. Esos mensajes xenófobos eran los que adquirían más difusión.

Los dos investigadores, para determinar el efecto real de Facebook, aprovecharon que en Alemania la infraestructura de internet tiende a ser local, con lo que se producen apagones «habituales pero aislados». Es decir, podían medir si al apagar Facebook descendía también la violencia. Y eso fue lo que constataron: cuando internet fallaba en un área con alto uso de Facebook «los ataques contra los refugiados disminuían de forma significativa». Y además en el mismo porcentaje, el 35% que ellos habían calculado que Facebook incentivaba el rechazo a los extranjeros.

La «ampliganda»

El mismo combinado altamente combustible (emoción, pensamiento tribal, usuarios encerrados en burbujas por el filtrado automático de los contenidos que reciben) es lo que alimenta a la «Derecha alternativa» en Estados Unidos, supremacista, conspiranoica, negacionista, protagonista de un innimaginable asalto al Congreso de EE UU. Es lo que llevó a la Presidencia a Trump y, en Brasil, a Bolsonaro. En el caso concreto del expresidente brasileño, su gran respaldo fue Youtube. Según Zeynep Tufekci, socióloga de la Universidad de Carolina del Norte -una de las referencias en el análisis crítico del impacto de las nuevas tecnologías- Youtube, por el diseño de sus algoritmo y sus sistemas de recomendación que llevan gradualmente al usuario hacia contenidos más extremistas (más ‘emocionantes’) es «uno de los instrumentos de radicalización más potentes del siglo XXI».

El poder de las redes, donde la propaganda se hace invisible y adquiere un poder amplificador nunca visto (»Ampliganda»), es algo que ya estamos sufriendo en nuestras carnes con el auge de la extrema derecha, que ha encontrado en esas plataformas una potente herramienta acelerante de sus mensajes incendiarios, llenos de mentiras. Algunos ya vieron venir el papel que, en ese campo, estaban jugando las redes. Fue en un estudio de agosto de 2015 publicado en el «Proceedings of the National Academy of Sciences» de Estados Unidos acerca de los posibles efectos de manipulación causados por el motor de búsqueda de Google en las elecciones que vendrían en 2016 (cuando ganó Trump). El trabajo se hizo con dos grupos. Se les pidió que investigasen en una simulación de Google para elegir entre dos candidatos. A todos se les mostraron 30 resultados de cada uno de los candidatos, pero en orden distinto. El estudio concluyó que solo el orden en el que el buscador de Google mostrase los enlaces, según fueran más o menos favorables al candidato, podría hasta alterar un 20% la intención de voto. Es decir: el próximo presidente de EE UU podría llegar al cargo, además de sus discursos y su campaña pública, por «las decisiones secretas de Google», indica Max Fisher. Es decir, por la indescifrable jerarquía que impusieran el algoritmo de Google que seleccionaba cómo se mostraba el resultado.

Chalecos amarillos

Las redes están cambiando no solo las elecciones, la acción política institucionalizada, digamos. También están generando una mutación en el modo y la velocidad en que se producen los movimientos sociales. Las redes le han quitado las llaves del acceso al poder a sus guardianes tradicionales, el «establishment», porque son una herramienta de movilización espontánea inmejorable de la masa popular. Es la «ciberdemocracia». El movimiento de los «Chalecos Amarillos» de Francia, a finales de 2018, es un buen ejemplo de ese cambio social operado por la tecnología digital.

Todo arrancó con una petición en las redes sociales para pedir que bajasen los precios de la gasolina. Eso fue la base de un grupo de Facebook que animaba a los conductores a bloquear las carreteras de su zona, subraya Max Fischer, quien añade: «Nunca había existido una forma escalable, gratuita y abierta a todo el mundo para organizarse». En noviembre salieron a cortar las carreteras. Era un movimiento sin líderes, horizontal. El algoritmo les alentaba porque incentivaba la identidad compartida: «Cualquier francés con un chaleco de un euro podía sentir que formaba para de algo grande y representativo». Iban a «rehacer la democracia francesa», pero se presentaban con una «cacofonía» de propuestas, algunas contradictorias entre sí. Fue el movimiento ciudadano más grande desde los años sesenta en el país que inventó los movimientos ciudadanos, subraya Fisher.

Hubo mucho caos, pero casi nulo impacto. Como vino, se fue. «Como si no hubiera existido nunca». Erica Chenoweth, investigadora de la Universidad de Harvard sobre resistencia civil, constató en un estudio en que el movimiento de los «Chalecos Amarillos» no era un caso aislado. Era una tendencia. El promedio de este tipo de este tipo de movimientos de protesta masivos se había disparado en el mundo en un 50% entre 2000 y 2010. Sin embargo, su éxito iba disminuyendo. Si en el 2000, el 70% de estas protestas lograban los cambios sistémicos que pedían, en 2010 solo el 30% de estas revueltas triunfaban. Fischer: «(Las redes) ponen más cuerpos en la calle más deprisa. Pero son incapaces de organizar reclamaciones coherentes, coordinarse y actuar siguiendo una estrategia». Y además, como apreció Chenoweth, las redes sociales dan más ventaja a la represión que a la movilización. «Los dictadores han aprendido a aprovecharlas a su favor, empleando mejores recursos para inundar las plataformas de desinformación y propaganda», añade el autor de «Las redes del caos».

Y a veces con la ayuda de las propias redes. Fisher refiere en su investigación que en 2019 la dictadura comunista de Vietnam hizo llegar a Facebook un mensaje privado: la plataforma tenía que censurar a los críticos con Gobierno vietnamita o, de lo contrario, este bloquearía la plataforma en el país. Zuckerberg aceptó. El negocio en Vietnam le reportaba mil millones de dólares al año.

Un león y un dentista

Obviamente, la infiltración de la máquina algorítmica de la ira no se limita al ámbito público. La indignación incrementa la corriente de datos -y por tanto los ingresos publicitarios- así que la potenciación de ese sentimiento puede desbordarse. La turba, como se vio en Birmania, sale pronta a la calle. A veces para ajusticiar a un único vecino. Y, llegados a este punto, toca contar la historia del león «Cecil» y el dentista Walter Palmer, al que Max Fischer entrevistó.

En verano de 2015, la BBC informó de que un cazador no identificado había abatido a un característico león en Zimbabue. Se llamaba «Cecil» y era conocido por su melena negra. Los guías habían llevado al misterioso cazador a una reserva donde estaba prohibido cazar. Un activísimo usuario de la red social Reddit -uno de los grandes nidos de polarización de internet- difundió esta noticia que llegó a un público de millones de personas. Luego, los medios tradicionales investigaron la historia y se conoció que el cazador era Walter Palmer, un dentista de 55 años que vivía en un barrio residencial de Minneápolis. El tema saltó a Twitter. En un solo día se hicieron 672.000 tuits. En 50.000 de ellos, con 222 millones de visualizaciones, se citaba expresamente a Palmer. «Era una infamia tal que, por lo común, solo pueden infligir los libros de Historia», valora Max Fisher. Le hicieron pintadas ante su consulta, hubo una avalancha de comentarios negativos en las redes para dejarlo sin clientes. El dentista tuvo que irse a vivir «a un escondite».

La masacre de Tarrant

A Palmer, casi le arruina la vida los justicieros de las redes. Pero, en Nueva Zelanda, el joven Brendon Tarrant, de 28 años, se la arruinó él mismo, llevándose muchos cadáveres por delante. Y todo después de un proceso de radicalización que culminó de la mano del algoritmo. «Pues nada, chavales, ha llegado la hora de dejar de hacer publicaciones provocativas y de hacer una publicación sobre la vida real». Eso fue lo que escribió en marzo de 2019, en el foro de 8chan, otro pozo digital infecto. Horas después, armado con una escopeta y con un fusil de asalto AR-15 fue a la mezquita del barrio de Christchurch y empezó a disparar: asesinó a 43 personas. Luego cogió el coche, condujo hasta otra mezquita y asesinó a siete personas más. Lo fue retransmitiendo todo en directo por Facebook. Había invitado a sus seguidores a ver el «ataque contra los invasores». Escribió a sus «amigos» de los foros digitales: «Sois todos unos tíos geniales y los mejores amigos que un hombre podría pedir. Por favor, colaborad difundiendo mi mensaje haciendo memes y colgando publicaciones provocativas como soléis hacer». Hubo 4.000 personas que pudieron ver su vídeo en directo antes de que Facebook lo eliminara. Millones de subidas posteriores circularon por la red. En la investigación que el Gobierno de Nueva Zelanda hizo de la matanza de Christchurch se concluía que Youtube había sido «tanto el hogar digital» del tirador como «el motor de su radicalización».

(El 15 de noviembre de 2018, en su página de Facebook, Mark Zuckerberg el inventor de la máquina de la ira, escribió: «Uno de los principales problemas a los que se enfrentan las redes sociales es que, si no se aplica ningún control, los usuarios participan mucho más al entrar en contacto con contenido sensacionalista y provocativo. (...) Nuestras investigaciones hacen pensar que, con independencia de dónde pongamos los límites de lo permitido, a medida que un elemento se acerca a esa línea, las personas interactuarán más con él de media. (...) A gran escala, este efecto puede perjudicar la calidad del discurso público y conducir a la polarización»).

Suscríbete para seguir leyendo