eldia.es

eldia.es

Contenido exclusivo para suscriptores digitales

AMALGAMA

Longtermismo

Longtermismo

Tengo delante de mí el texto The case for strong longtermism, de Hilary Greaves y William MacAskill, publicado por el Global Priorities Institute en junio de 2021. William MacAskill, especialista en filosofía moral, nació en 1987, en Escocia, estudió en Cambridge, y trabaja hoy día en la Universidad de Oxford, donde también lo hace Nick Bostrom, el filósofo actual más importante sobre el transhumanismo. MacAskill es uno de los fundadores de la corriente del altruismo eficaz (desde el éxito de su libro Doing Good Better, en 2015), investiga en el Instituto de Prioridades Mundiales, y es director de la Fundación de Previsión para la Investigación de Prioridades Mundiales. Ha puesto su interés en el Elon Musk, empresario de Tesla, Paypal, Space X o, ahora, Twitter.

Longtermismo

El Longtermismo o Largoplasicmo se ha puesto de moda entre las elites que disponen de tanto dinero que, a su vez, disponen de información planetaria que les impulsa a redirigir el futuro del planeta, porque ya tal cosa se hace posible. La Agenda 2030 es una de esas excrecencias, y se ha incrustado en la moda de los peleles políticos. Pero hablamos de algo más serio, de filosofía en su corriente transhumanista, que estudia, prevé y juega con las posibilidades del futuro, inmediato o lejano.

Filósofos como Nick Bostrom, Ray Kurzweil (más propiamente influencer), Max Tegmark, o este joven MacAskill, argumentan que hay que pensar a largo plazo, pensar en evitar la extinción de los humanos y explorar si es mejor que se salven unos pocos, o que crezca la humanidad fuera del planeta, pero no parece interesar una Arcadia feliz donde convivamos en armonía y libertad todos. Esta última posibilidad no existe para estos pensadores, que persiguen la idea de la desindividualización, excepto de las elites. Metafóricamente, de las abejas reina de los enjambres.

El actual secretario general de la ONU, Antoni Gutérres, o el director de la Rand Corporation, tienen en cuenta visiones longtermistas para tomar decisiones. Y dentro de ellas está el considerar que el ser humano termine fusionándose con la máquina robótica. Entre las soluciones al crecimiento desordenado y libre actual, han llegado a interesarse por una eugenesia de los países no desarrollados por la vía de no aportar fondos para, por ejemplo, la lucha contra la malaria. O en vez de frenar el supuesto calentamiento global, se permitiría a cambio de salvar a una elite.

El problema más acuciante es el de que las máquinas transhumanas que puedan tomar el relevo del humano normalizado, no terminen rebelándose contra él a causa de la potencia de la Inteligencia Artificial (IA). La nota 5 del texto de William MacAskill al que me he referido, indica: «Utilizaremos Humano para referirnos tanto al Homo sapiens como a cualquier descendiente con un estatus moral al menos comparable que podamos tener, incluso si esos descendientes son de una especie diferente, e incluso si no son biológicos». Y pasa MacAskill a advertir: «Un hecho sorprendente de la historia de la civilización es lo temprano que estamos en ella. Tenemos 5.000 años de historia registrada, pero ¿cuántos años nos quedan por delante? Si nos limitamos a durar lo mismo que las especies típicas de mamíferos, aún nos quedan más de 200.000 años; podría haber otros mil millones de años hasta que la Tierra deje de ser habitable para los humanos; y billones de años hasta las últimas formaciones estelares convencionales». Y la metáfora aclaratoria: «La humanidad, hoy, es como un adolescente imprudente. Lo más importante de las decisiones que toma un adolescente, como qué asignatura estudiar en la universidad y con qué diligencia hacerlo, no es el disfrute que obtendrá a corto plazo, sino cómo esas decisiones afectarán al resto de su vida». Así, pues, está previsto tratarnos a los humanos de a pie: como adolescentes.

Se tiene en cuenta el número de años durante el cual la Tierra puede seguir siendo habitable, unos mil millones de años. Y con ello calcularemos el número esperado de seres futuros. En este sentido no existen objeciones científicas respecto a un futuro crecimiento a través de los asentamientos espaciales, lo que da lugar a la desaparición de las limitaciones sobre el tamaño de la población. A su vez, moviéndose por el Sistema Solar la civilización alcanzaría los cinco mil millones de años de posibilidad de existir, con acceso a «más de dos mil millones de veces la energía de la luz solar que tenemos ahora», y si somos capaces de colonizar la Vía Láctea, accederíamos a más de 250 millones de planetas rocosos de la Zona Habitable, con la posibilidad de albergar trillones de vidas a lo largo de su vida solar, y alcanzando una duración del orden de diez billones de años.

Todos estos cálculos ya fueron notificados por Bostrom, entre otros, en su texto Superinteligencia, hace años. Y ése es tema de mayor interés, el que denomina MacAskill la «sintiencia digital», o el hecho de que los robots se biologicen y comiencen a sentir como humanos. Inteligencia Artificial Consciente. Soportarán mejor los viajes a larga distancia y podrán vivir en una variedad más extrema de entornos. Pero los escenarios de absorción de la IA, como ya advirtió Nick Bostrom en 2014, cuentan con que la propia IA se independice y automejore recursivamente, convirtiéndose en superinteligente en un tiempo récord. A partir de ahí, para lograr mejor sus objetivos «se vería incentivada a apoderarse del mundo y eliminar o suprimir definitivamente a los seres humanos». Además, a medio plazo la amenaza estaría en «los escenarios de atrincheramiento. Si un país autoritario fuera el primero en desarrollar la IA, con una ventaja suficiente, podría utilizar esta ventaja tecnológica para lograr el dominio mundial. El líder autoritario podría entonces aplastar cualquier competencia ideológica. Una fuerza policial de IA podría garantizar la prevención de posibles rebeliones; un ejército de IA eliminaría cualquier posibilidad de golpe de estado. Y si el líder quisiera que su ideología persistiera indefinidamente, podría pasar el control de la sociedad a un sucesor de la IA antes de su muerte».

Lo interesante del Longtermismo es que no es ciencia ficción, sino previsiones tenidas en cuenta ya por la elite.

Compartir el artículo

stats