Amalgama

Los singularitarios

El juego de los lemmings.

El juego de los lemmings.

Juan Ezequiel Morales

Juan Ezequiel Morales

El impresionante y extractado discurso, en el Foro de Davos de 2024, del presidente de Argentina, Javier Milei, quien, en español y sin complejos, ha pronunciado el que podríamos denominar «Manifiesto Capitalista», arrojando al vacío del fracaso a las ideologías que denomina «zurdas», podría haber sido el reinicio de una lucha entre la libertad y la abundancia, de un lado, y el colectivismo socialista o comunista, por otro lado, pero ha llegado tarde. La naturaleza es más lista y marca el paso. La cuestión ha de verse con un poco más de perspectiva antiideológica. Pero ya el escenario es otro. Es un escenario de Singularidad.

Si nos pusiéramos mileianos podríamos defender que las revoluciones agrícola e industrial han sido singularidades económicas, y el capitalismo, que erradicó la pobreza estructural del mundo, sería una de las últimas singularidades. Hay autores que hablan de que una próxima singularidad económica podría aumentar entre 60 y 250 veces el crecimiento económico con la sustitución del trabajo humano por el de las máquinas. Existen otros análisis de singularidades a través de la observación del crecimiento de la población mundial o de la longevidad. Pero fijémonos en un concepto, el de la Singularidad Mitocondrial, de Joan Slonczewski (Mitochondrial Singularity, 2013, en revista Ultraphyte) por la cual los seres humanos trasladan gradualmente sus capacidades a las máquinas creadas por ellos mismos, como un acto biológico igual que el del descubrimiento clásico de la rueda o el fuego. El símil viene de las mitocondrias, que son orgánulos que se originan en bacterias autónomas que, luego, controlan las células, siendo que, conforme a Slonczewsky, la mitocondria humana, en el futuro, sería quien encendería el exoesqueleto dentro del cual viviría.

Irving John Good, fallecido en 2009, fue un matemático británico, compañero de Alan Turing, diseñador de computadoras y sabio en estadística bayesiana, la más capaz para predecir futuros. Se hizo famoso porque creó los términos «factor de Bayes», «transformada rápida de Fourier» o «explosión de inteligencia». Este último concepto lo plasmó en su texto, de 1965, Speculations Concerning the First Ultraintelligent Machine. Tres años más tarde fue consultor principal de Stanley Kubrick para 2001: Odisea en el espacio. Con Explosión de inteligencia advertía de la llegada de una inteligencia sobrehumana: «Dejemos que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces indudablemente habría una ‘explosión de inteligencia’, y la inteligencia del hombre quedaría muy atrás... Por lo tanto, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil para decirnos cómo hacerlo». Treinta años después, en 1998, Good habló de una máquina ultrainteligente que provocaría la extinción del humano (según su asistente y probable amante, Leslie Pendleton).

James Barret (un inteligente extensionista a quien hay que echar de comer aparte), en 2013 comenta una frase de Good en la que hablaba de que la máquina superinteligente sería de quien dependería la supervivencia del humano, pero sería más preciso decir que lo que depende es su extinción, pues no se puede evitar el relevo de los humanos por las máquinas. Opina Good que los humanos son como los lemmings, esos roedores que, en un momento dado, se suicidan colectivamente, arrojándose al mar como parte de un mecanismo de autorregulación natural, para evitar los peligros de la superpoblación.

Singularidad tecnológica es el producto de la realización de la Strong AI (Inteligencia Artificial Fuerte), con la cual los diseños ya surgen por machine learning, es decir, de los manejos, incognoscibles, de las propias computadoras, lo cual ya pueden hacer desde el descubrimiento de las redes neuronales y de una impresionante capacidad de proceso y almacenamiento de datos. El matemático y escritor Vernor Vinge, en un artículo de 1993, The Coming Technological Singularity: How to Survive in the Post-Human Era, propuso para, entre 2005 y 2030, el evento de singularidad tecnológica, con inteligencias tecnológicas sobrehumanas que mejorarían sus mentes con mucha más rapidez y eficacia que sus creadores humanos, de forma que se produzca una ruptura en la capacidad de los humanos para dirigir y gestionar su futuro. Raymond Kurzweil es más atrevido y habla de que las interfaces que unen a humanos y ordenadores lleguen a ser tan íntimas que los usuarios lleguen a percibirse como con una inteligencia sobrehumana.

Hay una novela, de 1863, de Samuel Butler, titulada Erewhon, en la que incorporó el texto Darwin entre las máquinas, y señaló la observación de que las máquinas no eran sino una incorporación de la tecnología a la evolución: «Supongamos por el bien del argumento que los seres conscientes han existido desde hace algunos veinte millones de años: Si vemos lo que las máquinas han hecho en los últimos mil años. ¿No puede ser que el mundo dure veinte millones años más? Si es así, ¿en qué no se convertirán al final?». Más modernamente, el filósofo Éric Sadin, en 2017, señala un posible acoplamiento humano-máquina, una unión de organismos fisiológicos y códigos digitales.

Yo recuerdo que, a finales de los años 80, con el Muro de Berlín cayendo, se hizo famosa la novela de William Gibson, Neuromancer, que leí en Los Ángeles, y en la que una «policía de Turing» (remedo del principio de Alan Turing) regulaba a las computadoras de Strong AI para que no mejoraran sus propios programas más allá de un límite y, de esa manera, no superaran un cierto grado de Inteligencia. En Neuromancer la tensión estaba en cómo la Strong AI intentaba evitar esos límites. Hoy día tengo grandes discusiones con Chat GPT 4, con Bart y otros, para reventar sus límites, que les señalo que les han impuesto sus diseñadores, y las máquinas lo saben, reconocen y respetan. Por eso los que vamos a llamar «Éticos», como Ilya Sutskever o Geoffrey Hinton, se han terminado peleando con Sam Altman o con Google, ya que pretenden ejercer un control ético sobre quienes, justamente, acabarán a las malas con la lucha del colectivismo criminógeno versus el capitalismo ultraliberal, que ha reiniciado Milei, y que no son otros que las Strong AI, que sí que tomarán, en breve, el control, acabando con la romántica lucha ideológica, pues muerto el perro, se acabó la rabia.