Amalgama
Superinteligencia artificial militar

Superinteligencia artificial militar / La Provincia
Juan Ezequiel Morales
Heráclito lo epigramó diciendo que la guerra, «polemos», es el padre de todas las cosas, y ha terminado siendo el motor del avance tecnológico. La IA, que hasta ahora fue una carrera académica y empresarial, se ha convertido en necesidad militar. Estamos ante una lógica perversa, donde en el dilema del prisionero, a escala civilizatoria, cada actor racional, persiguiendo su interés, genera el peor resultado colectivo.
El conflicto entre Anthropic y el Departamento de Defensa de EE.UU. marca un momento clave, y las salvaguardas éticas que separaban la IA civil de la IA letal comienzan a caer sistemáticamente, convirtiendo el riesgo de una Superinteligencia Artificial (ASI) no alineada, que pasa de ser una hipótesis académica a convertirse en política de Estado. En julio de 2025, el Pentágono firmó contratos por hasta 200 millones de dólares con Anthropic, OpenAI, Google y xAI para integrar modelos frontier en seguridad nacional. Anthropic aceptó inicialmente, pero impuso «líneas rojas»: Claude no participaría en vigilancia masiva doméstica, y tampoco en armas totalmente autónomas (sin ningún humano que pueda participar en el bucle). Dario Amodei argumentó el 26 de febrero de 2026 que los modelos actuales están en «adolescencia tecnológica», que fallan bajo presión, que alucinan y no son fiables para decisiones letales irreversibles. Desplegarlos en kill chains autónomas es técnicamente temerario. El Pentágono, bajo Pete Hegseth, dio un ultimátum a Anthropic, o aceptaban «cualquier uso legal» o serían declarados riesgo en la cadena de suministro (como Huawei), lo que implicaría un golpe económico mortal. Anthropic no cedió y el 27 de febrero de 2026 fue expulsada como proveedora del estado, pues Trump ordenó cesar su uso en agencias federales en seis meses.
Paradójicamente, Claude subió al número 1 en la App Store, y el golpe estatal se volvió publicidad, además, 865 empleados de Google y OpenAI firmaron un manifiestillo, We Will Not Be Divided. OpenAI anunció luego su acuerdo con salvaguardas técnicas (vía arquitectura cloud), mientras xAI aceptó sin reservas «all lawful purposes», sin resistencia pública. Se produce, pues, la primera gran bifurcación, laboratorios que ven la alineación como innegociable contra los que prefieren influir desde dentro, aunque sea con salvaguardas más débiles.
Connor Leahy (de la empresa Conjecture) advierte que el riesgo no viene de una maldad intrínseca, sino de la competencia pura, pues un sistema capaz que persigue objetivos no alineados se vuelve peligroso por definición. La alineación es un problema técnico, agravado porque nadie entiende del todo cómo funcionan estas redes neuronales que casi podemos decir que no son programadas, sino que son «cultivadas», dado que no se sabe cómo o por qué hacen lo que hacen. Su comportamiento en escenarios de alta presión militar es impredecible.
China acelera sin debates éticos, con fusión civil-militar total. EE.UU. responde con una modernización de 36.000 millones de dólares para equipar divisiones con miles de drones autónomos hacia 2026, contrarrestando a China en el Indo-Pacífico. Es una trampa estructural, pues si EE.UU. frena por ética, China avanza; si China avanza, EE.UU. no puede permitirse perder ventaja estratégica y elimina salvaguardas y entonces China acelera más. Nadie puede frenar sin perder, de nuevo estamos ya en un escenario de Destrucción Mutua Asegurada, donde si surge la ASI, los destruidos podemos ser los humanos.
El Departamento de Defensa de EEUU, el mayor comprador institucional, premia a quienes ceden, con contratos millonarios y acceso clasificado, y castiga a quienes resisten. El mensaje al ecosistema es claro, y deja claro que la alineación es un coste competitivo. xAI lo entendió primero, OpenAI cedió después. Cada concesión americana baja el estándar ético global, mientras China ignora esas distinciones.
Proyectos como Replicator masifican autonomía en el campo de batalla («walls of sensors and shooters»), integrando frontier AI y evolucionando hacia sistemas más autónomos por pura necesidad bélica.
Leahy señala que una carrera armamentística de IA no produce sistemas alineados con la humanidad, sino optimizados para ganar esa carrera. El salto a ASI incluso puede ser gradual, con la acumulación de sistemas cada vez más capaces en contextos militares con supervisión humana nominal, donde la velocidad de la IA supera la comprensión humana.
Lo que era especulación filosófica entra ahora en la arena institucional real. Es la primera vez que un gobierno democrático occidental castiga a una empresa de IA por mantener salvaguardas de alineación. Anthropic, la más obsesionada con seguridad, es expulsada del contexto donde más importaba; xAI, la menos escrupulosa, ocupa su lugar; y OpenAI se sube al carro con salvaguardas técnicas débiles. Entretanto, China observa y acelera.
Si Connor Leahy tiene razón, ya estamos dentro de la carrera hacia AGI y probablemente hacia ASI. Las reglas se negocian en tiempo real, bajo presión militar, sin transparencia, con el incentivo estructural de que quien frena pierde y quien acelera gana.
Suscríbete para seguir leyendo
- La visita del papa a Tenerife bate récords: ya triplica los voluntarios de la última visita de la Virgen de Candelaria a Santa Cruz
- El juez abre la puerta al juicio penal en Icod contra el alcalde Javier Sierra por prevaricación
- La demolición de la iglesia de San Gerardo permitirá 80 nuevas plazas de aparcamiento y la mejora de la plaza José Carlos Schwartz
- La Aemet avisa: este jueves habrá lluvia, calima y más calor en Tenerife
- Ya está abierto el plazo de inscripción para asistir a los actos del papa León en Madrid y Canarias
- El Gobierno de Canarias activa la prealerta por calima en Santa Cruz de Tenerife: empeora la calidad del aire desde este jueves
- Enviados a prisión por dar una brutal paliza a un joven para robarle en Tenerife
- Regularización de inmigrantes en Santa Cruz de Tenerife 2026: oficinas, plazos y cómo pedir cita desde el 16 de abril