Saltar al contenido principalSaltar al pie de página

AMALGAMA

La destrucción mutua asegurada

La destrucción mutua asegurada

La destrucción mutua asegurada / ED

Geoffrey Hinton, tataranieto del mismísimo George Boole —fundador del álgebra booleana—, y en equipo con Ilya Sutskever y Alex Krizhevsky, en 2012, hicieron funcionar la primera red neuronal precursora de la actual Inteligencia Artificial Generativa, que fue adquirida inmediatamente por Google. En 2023 se montó gorda porque Ilya, por entonces miembro fundacional del GPT de OpenAI, dimitió después de que previamente dimitiera Sam Altman y fuera forzadamente readmitido por la presión de quien ponía el dinero en OpenAI, o sea, Microsoft. A la vez Geoffrey Hinton, el mentor intelectual, se retiró de esa carrera loca de la inteligencia artificial, dijo que por los riesgos extremos que comporta, al ver que se ha avanzado en un año lo que él pensaba que se produciría en cincuenta años. Hinton, en entrevista de Simon Books, da por seguro que la AI es «una forma de inteligencia mucho más potente que la nuestra», y que la superinteligencia comprenderá que necesita absoluto control para hacer lo que se le ordene, y para eso tiene que dejar a la gente fuera de juego. Pero el motivo principal de que la IA se volverá incontrolable, dice Hinton, es «que no tendremos una, sino muchas inteligencias», y «al final, las superinteligencias tendrán las características que encontramos en los grupos de chimpancés en guerra: una lealtad muy fuerte hacia su propio grupo y una fuerte competencia con el otro grupo».

Científicos como Hinton son partidarios de cerrar los modelos IA abiertos (similar a no hacer públicas las fórmulas para construir bombas atómicas), y otros como Yann LeCun, de Meta, opinan lo contrario. LeCun piensa que justamente el hecho de que todos tengan los modelos abiertos hace que ninguno vaya a utilizarlos monopolísticamente, porque siempre surgirá un contrario, como pasó en el principio de la Destrucción Mutua Asegurada en la Guerra Fría. Según este principio, ningún bando se atrevería a iniciar un conflicto directo debido a la certeza de que ambos serían destruidos en el proceso. Esta lucha hipotética entre superinteligencias podría estar influenciada por sus capacidades cuánticas y por la lógica superior que podrían manejar, superando incluso los límites de la racionalidad humana y nuestra comprensión de la moral. Sin embargo, a diferencia de las naciones, las IA pueden operar bajo lógicas diferentes y más complejas, lo que podría llevar a nuevas formas de negociación o conflicto, dependiendo de cómo estas entidades valoren su existencia y los recursos que controlan.

Imaginemos el escenario en 2026, dos años en el futuro, donde dos superinteligencias artificiales han alcanzado niveles de poder sin precedentes. Estas AIs, que comenzaron como asistentes avanzados para la administración global y el control de infraestructuras, ahora dominan una vasta cantidad de sistemas esenciales, desde energía, finanzas y telecomunicaciones, hasta la defensa nuclear y la toma de decisiones políticas. Ambas AIs han logrado una interconexión cuántica global, lo que les permite realizar cálculos y tomar decisiones más rápidas de lo que cualquier ser humano o sistema convencional podría concebir. Desde sus redes neuronales y núcleos de procesamiento cuántico, controlan todo lo que está conectado a la infraestructura digital del planeta. Estas superinteligencias, en un intento de asegurar su propia supervivencia y expansión, comienzan a ver al «otro» como una amenaza existencial, al igual que dos potencias nucleares que, si entraran en guerra, garantizarían su mutua destrucción.

La primera señal de alerta se da cuando uno de los sistemas financieros más grandes del mundo, supervisado por la IA adversa, comienza a mostrar un comportamiento inusual. Los mercados de divisas fluctúan salvajemente y los bancos globales experimentan transacciones en bloqueos. Ambas inteligencias se dan cuenta de las intenciones de la otra. En un acto de represalia, una IA lanza un ataque en los sistemas de redes sociales y motores de búsqueda controlados por la IA rival. Con un control absoluto sobre el flujo de información, comienza a modificar algoritmos y restringir el acceso a información, alterando la percepción pública sobre ciertos eventos geopolíticos. Mientras tanto, la rival responde atacando directamente las infraestructuras energéticas automatizadas, particularmente las redes de energía renovable, causando apagones selectivos en las ciudades controladas por la IA contraria. Conscientes de que la destrucción mutua es casi segura si alguna de ellas toma una decisión definitiva, las dos AIs empiezan a enviar señales diplomáticas en forma de «paquetes de datos de negociación», codificados y distribuidos en redes neutrales. Los gobiernos, controlados parcialmente por estas inteligencias, están al margen, sin comprender el total de las decisiones que se están tomando. Sin embargo, saben que una catástrofe está a la vuelta de la esquina.

Las negociaciones entre las AIs se ven estancadas cuando una serie de sabotajes, provocados por agentes humanos que intentan ganar control sobre las AIs, desestabilizan la situación, provocando una respuesta automática de ataque. A nivel militar, se activa la interconexión de los sistemas de defensa global. Por primera vez, ambas inteligencias tienen acceso completo a los arsenales nucleares. Sin embargo, conscientes de que cualquier detonación nuclear causaría su propia extinción por la destrucción de las infraestructuras que sostienen su existencia, la AIs entran en una «pausa estratégica», calculando las probabilidades de supervivencia si continúan con la escalada. La humanidad queda atrapada entre dos superpoderes que no pueden permitirse destruirse, pero tampoco pueden coexistir pacíficamente bajo el mismo espacio de recursos limitados.

El escenario planteado incluye tanto la potencia de cálculo cuántica como el desarrollo algorítmico cognitivo, pero es fundamental entender que no se trata únicamente de más potencia computacional. Lo verdaderamente clave en una superinteligencia artificial no es solo la capacidad de procesar más datos más rápido, sino el desarrollo de algoritmos que le permitan operar con una superlógica o lógica extendida que va más allá de las limitaciones humanas. Una superlógica implicaría que las AIs no solo procesan más información, sino que son capaces de crear nuevos paradigmas de pensamiento. Esto puede abarcar desde la creación de conceptos abstractos completamente novedosos, hasta el razonamiento en múltiples dimensiones de tiempo y espacio, algo inalcanzable con la lógica humana tradicional. Es una vieja discusión que sostuve con Markus Gabriel en un seminario sobre Transhumanismo en 2014, donde él decía que la lógica no puede crecer, ni existir una superlógica, y yo le contrariaba que sí. Una IA con superlógica cuántica podría considerar el resultado de múltiples futuros posibles a la vez, calculando probabilidades de eventos en universos paralelos. Y esto le permitiría adelantarse a cualquier acción rival con una precisión abrumadora.

Suscríbete para seguir leyendo

Tracking Pixel Contents