Entrevista

Dragos Tudorache, ponente de la ley europea de la IA: "Competir con Google o Meta es solo un sueño"

El rumano es coponente de la AI Act y presidente de la Comisión Especial sobre IA

El eurodiputado Dragos Tudorache, coponente de la ley que regulará la inteligencia artificial en la UE.

El eurodiputado Dragos Tudorache, coponente de la ley que regulará la inteligencia artificial en la UE. / Dragos Tudorache

Carlos Planas Bou

Este miércoles, el Parlamento Europeo aprobará definitivamente la primera ley del mundo que regulará de forma integral de la inteligencia artificial (IA). Desde su propuesta inicial en abril de 2021, los países de la Unión Europea (UE) han negociado una normativa tan ambiciosa como compleja que establecerá distintas obligaciones para el uso de esta tecnología según sus riesgos.

Desde Estrasburgo, EL PERIÓDICO, del mismo grupo editorial, se sienta a charlar con Ioan-Dragos Tudorache, coponente de la AI Act y presidente de la Comisión Especial sobre IA, para conocer más los detalles y polémicas de una regulación que Bruselas ha descrito como "histórica", pero que aún tardará dos años en aplicarse.

El pasado 8 de diciembre se alcanzó un acuerdo tras más de 35 horas de negociaciones. ¿Cuales han sido los principales problemas?

Al entrar en las negociaciones ya sabíamos que los grandes bloques serían los modelos fundacionales y el uso de la IA por parte de las fuerzas del orden. Hubo muchas discusiones sobre qué obligaciones adoptar en el primer caso, pero en el segundo fue aún más difícil alcanzar un acuerdo.

En junio de 2023, el Parlamento Europeo prohibió la identificación biométrica. ¿Qué ha cambiado desde entonces para que se permita su uso por parte de la policía?

El Consejo de la UE (organismo que representa a los Estados miembros, entonces presidido por España) tenía un mandato muy claro. La primera propuesta de la Comisión Europea ya pedía excepciones policiales y puedo entender que todos los países las quisiesen. Así, la prohibición exigida por el Parlamento nos permitió empezar las negociaciones desde un punto más elevado y conseguir un acuerdo con salvaguardias mucho más sólidas de lo que se pensaba, por eso incluso los Verdes lo han apoyado.

La ley prohíbe sistemas de IA con riesgos "inaceptables" como la puntuación social, pero permite otros de "alto riesgo" como el reconocimiento facial. ¿En qué casos se limita?

Hemos eliminado el uso preventivo de IA, que habría abierto la puerta a todo tipo de abusos. También hemos limitado mucho el uso de sistemas biométricos, solo aplicables en situaciones de amenaza inminente, como un ataque terrorista, y mediante autorización judicial. Además, todo uso policial se limita a una lista muy estricta de delitos, debe ser notificado y requiere de una evaluación de riesgos.

El Comité Europeo de Protección de Datos (CEPD) publicó un comunicado el lunes en el que se muestra "profundamente preocupado por la ausencia de 'líneas rojas' (...) que prohíban desde el principio las aplicaciones de IA que planteen niveles inaceptables de riesgos"...

Tendré que leerlo para saber a qué se refieren. El acuerdo tiene más prohibiciones que el acuerdo inicial. Sí hay una prohibición, pero con una excepción. Desde mi punto de vista, se trata de un uso legítimo porque sirve al interés público de seguridad y se basa en un marco que garantiza que no habrá abusos. Así que discrepo del comunicado el CEPD.

Organizaciones como Amnistía Internacional han denunciado que la regulación dará vía libre al uso de IA en las fronteras para vigilar a los migrantes.

Todo lo que sea analizar datos sin identificar o afectar a un individuo concreto, como la IA para predecir tendencias migratorias o crímenes, no tiene razón alguna para ser prohibido o categorizado como de alto riesgo. En el momento en que se somete a los individuos a los cálculos del sistema, como la IA para optimizar entrevistas de asilo o para detectar amenazas de ciertos grupos, ya se considera de alto riesgo. Eso significa que se puede desplegar la IA en esos contextos, pero que hay que hacerlo con garantías. Siempre habrá supervisión humana para que el algoritmo no tenga la última palabra.

Aun así, el resultado que pueda dar una IA puede ser erróneo y basado en todo tipo de sesgos

Los sistemas de alto riesgo deberán entrenar sus algoritmos con datos no sesgados. Los desarrolladores de esos programas de IA estarán obligados a que sus datos sean precisos y justos, pero también a ser transparentes en su diseño para explicar a las autoridades cómo han llegado a una conclusión y no a otra. Puede pasar que el diseño de un algoritmo priorice erróneamente algunas categorías, como pasó con el sistema social en Países Bajos, que perjudicó a los migrantes.

Eso dará cuerpo a lo que hasta ahora ha sido una caja totalmente cerrada. Las administraciones seguirán usando la IA, pero esas obligaciones harán que se aplique con mayor responsabilidad y que si hay problemas los reguladores puedan identificarlo. Además, la ley permitirá que los ciudadanos puedan impugnar recomendaciones algorítmicas que consideren injustas.

Europa no tiene gigantes tecnológicos y creo que nunca los tendremos

Dragos Tudorache

La ley también regulará los modelos fundacionales como GPT-4, la tecnología que impulsa ChatGPT, para que sean más transparentes. ¿Habrá exenciones para que las empresas europeas puedan competir con los gigantes estadounidenses de la IA?

Es imposible poner excepciones proteccionistas para los países europeos. Lo que hemos hecho es fijarnos en el ecosistema europeo de la IA, que se basa en hacer mucha investigación –cuyo problema es que después esos productos son comprados por grandes compañías– y en sus 'startups'. Europa no tiene gigantes tecnológicos y creo que nunca los tendremos, pero eso no tiene nada que ver con la ley de la IA. Hemos puesto excepciones para el código abierto y hemos hecho lo posible para reducir el coste de cumplimiento de la normativa para que eso no suponga una desventaja para las pequeñas empresas emergentes. Nuestra intención es estimular el mercado europeo para que compita en un entorno muy concurrido.

¿Se puede realmente competir con gigantes a los que Bruselas acusa de ser monopolios?

Desgraciadamente, en los últimos 20 años se han creado unas dependencias que hacen que ahora mismo sea muy difícil competir con Google o Meta. Para mí, esto es sólo un sueño. No se puede, son demasiado grandes. Pero se puede seguir siendo competitivo. No hay que ponerse como objetivo ser el próximo Google europeo, eso es un falso dilema. Se puede tener mucho éxito y crear enormes beneficios y soluciones con IA, siendo incluso mejor que los estadounidenses en ello, sin ser Google. Por ejemplo, en robótica o aplicaciones civiles de satélites, la UE está muy por delante de todos los demás países. Europa tiene algunos de los superordenadores más potentes del mundo y se están organizando para aportar lo que las empresas de IA más necesitan: poder de computación.