Saltar al contenido principalSaltar al pie de página

Amalgama

El juez Marchena y el precrimen

El juez, Manuel Marchena, a su salida de la segunda jornada del juicio al fiscal general del Estado, en el Tribunal Supremo, a 5 de noviembre de 2025, en Madrid (España). García Ortiz está acusado de un presunto delito de revelación de secretos contra Alberto González Amador, pareja de la presidenta de la Comunidad de Madrid. 05 NOVIEMBRE 2025 A. Pérez Meca / Europa Press 05/11/2025. A. Pérez Meca;category_code_new

El juez, Manuel Marchena, a su salida de la segunda jornada del juicio al fiscal general del Estado, en el Tribunal Supremo, a 5 de noviembre de 2025, en Madrid (España). García Ortiz está acusado de un presunto delito de revelación de secretos contra Alberto González Amador, pareja de la presidenta de la Comunidad de Madrid. 05 NOVIEMBRE 2025 A. Pérez Meca / Europa Press 05/11/2025. A. Pérez Meca;category_code_new / A. Pérez Meca / Europa Press

Juan Ezequiel Morales

El erudito Juez del Tribunal Supremo, Manuel Marchena, publicó el ensayo La justicia amenazada: Retos del derecho en una sociedad en conflicto, en 2025, donde aborda varios retos de la justicia, incluyendo capítulos en los que analiza la incidencia de la Inteligencia Artificial como amenaza al sistema judicial. Ha escrito, además, varios artículos monográficos sobre IA y responsabilidad civil, como Inteligencia Artificial y Responsabilidad Civil.

Marchena hace una defensa explícita de la decisión humana frente a la decisión preprogramada. Pero también hay otra razón por la que podría quedarse corta su posición moderada, realista y cautelosa, y es la de que el mundo que viene no se parecerá al de Kelsen, sino al de Minority Report.

Marchena insiste en que la «verdad algorítmica» nunca debe sustituir a la «verdad judicial». Para él, la justicia sigue siendo un acto a posteriori, donde el juez reconstruye hechos, sopesa pruebas y emite una decisión responsable.

Pero Minority Report introdujo otra categoría, la de la justicia preconstruida, donde no se juzga lo que se hizo, sino lo que supuestamente se iba a hacer. Su premisa era filosóficamente perversa: «Si podemos predecir el crimen, podemos impedirlo». Es exactamente la lógica detrás de los experimentos de justicia predictiva que ya están circulando en sistemas jurídicos ajenos al modelo garantista europeo.

El modelo judicial chino ya opera con varias tecnologías que recuerdan al ecosistema de pre-crimen: A) Sistemas de «comportamiento anómalo» que anticipan delitos y envían alertas policiales antes de que ocurra nada. B) El 206 System, que calcula la probabilidad de falsedad en declaraciones y documentos durante la investigación penal. C) El fiscal automático, capaz de formular cargos a partir de patrones reconocidos en miles de expedientes. D) Smart Courts donde la interacción humana es marginal y el ciudadano es procesado por plataformas digitales. Y E) todo el proceso judicial contará con vigilancia ubicua, o sea cámaras, reconocimiento facial, rastreo de movimientos, puntuaciones sociales, o análisis en tiempo real.

Millones de sensores que fungen como «precogs distribuidos», emiten previsiones que permiten al Estado anticipar conductas y neutralizarlas antes de que se materialicen.

Marchena defiende una posición mesurada. Europa se reconoce en ella porque descansa en la idea de garantía frente a velocidad. Sin embargo, Silicon Valley, empujado por el aceleracionismo tecnológico, propone una lógica contraria, la de acelerar a toda costa, aunque la normatividad humana no pueda seguir el ritmo. Como consecuencia de ello, la combinación de aceleracionismo, vigilancia y algoritmos de predicción genera un ecosistema perfecto para una justicia que deja de juzgar hechos consumados y empieza a clasificar riesgos. El paradigma cambia de raíz, la justicia deja de ser un árbitro y se convierte en un gestor de probabilidades de daño, el individuo deja de ser responsable por acciones y pasa a ser perfilado por patrones, y la presunción de inocencia se erosiona porque «la máquina no se equivoca tanto».

Marchena defiende que la sentencia judicial requiere corazón, contexto, deliberación y experiencia humana. Pero esos valores pueden erosionarse cuando la vigilancia sea total, la IA gestione el 90% de los procesos administrativos, el ciudadano exista más en datos que en carne, la economía funcione con reputación algorítmica, o la policía reciba sugerencias de actuación antes de que se cometa un delito.

Cuando estos elementos converjan globalmente, no solo en China, la pregunta será «¿tiene sentido un juez humano en un mundo donde el delito se ha convertido en una variable estadística?»

Minority Report era un mapa. La película advertía de tres riesgos que ahora están llamando a la puerta. El sesgo de confirmación algorítmico, donde el sistema encuentra lo que fue entrenado para encontrar. China ya lo hace: delitos «típicos», perfiles «riesgosos», zonas «sensibles». Por otra parte, la infalibilidad asumida, es decir, si un modelo tiene un 97% de acierto, ¿quién se atreve a contradecirlo? En China ya ocurre que la palabra del algoritmo pesa más que la defensa del imputado. Y finalmente, la privatización del destino. En un mundo vigilado, la predicción tiende a producir el destino que anuncia, porque altera las condiciones en las que el individuo se mueve.

Por eso la posición de Marchena no es solo moderada, sino que es civilizatoria. Está defendiendo, con prudencia técnica y lucidez filosófica, que el Derecho no puede abdicar ante la predicción algorítmica, porque hacerlo es destruir la noción misma de humanidad jurídica. Pero la vigilancia total llegará porque la infraestructura ya está desplegada. La única cuestión es quién la controlará, si lo hará un Estado sin contrapesos, unas corporaciones o instituciones aceleracionistas, o un modelo democrático que intente poner límites.

Marchena habla para hoy, pero su advertencia vale para mañana: «La verdad algorítmica no puede sustituir a la verdad judicial». Empero es la máquina la que gana al ajedrez o al Go, y es imbatible. Solo con que el ser humano pierda el control, ya sabemos qué va a pasar. No existirán juicios injustos, pero sí veremos a la justicia IA como cuando cae un meteorito, como un evento aplastante.

Suscríbete para seguir leyendo

Tracking Pixel Contents