Entrevista

Ramón López de Mántaras, experto en inteligencia artificial: "Creer que las máquinas tienen conciencia puede tener implicaciones terribles"

Pionero de la investigación de la IA en España, el ingeniero informático y físico catalán descarta que la IA pueda tener conciencia y advierte del riesgo que supone centrar la atención únicamente en modelos generativos como ChatGPT

El ingeniero informático y físico Ramón López de Mántaras, pionero en investigación de la IA en España.

El ingeniero informático y físico Ramón López de Mántaras, pionero en investigación de la IA en España. / Manu Mitru

Carles Planas Bou

Carles Planas Bou

Barcelona

Quizás ni habías nacido y Ramon López de Mántaras ya estudiaba la inteligencia artificial. El ingeniero eléctrico, informático y físico catalán lleva más de 50 de sus 72 años investigando una disciplina científica ahora de moda, lo que le convierte en pionero en España. Actualmente, es profesor investigador emérito del Centro Superior de Investigaciones Científicas (CSIC), en el que fundó de su Instituto de Investigación de Inteligencia Artificial.

Autor del libro 100 cosas que hay que saber sobre inteligencia artificial (Cossetània Edicions en catalán y Lectio Ediciones en castellano), López de Mántaras protagoniza este viernes una nueva edición del foro de debates Cornellà Creació junto a la periodista Xantal Llavina. Antes, atiende a EL PERIÓDICO.

- A finales de 2022, el lanzamiento de ChatGPT popularizó la IA generativa hasta disparar una carrera armamentística entre empresas y países. Sin embargo, ha señalado que científicamente le ve un interés "escaso". ¿Por qué?

La gran pregunta científica sobre la IA es si algo no biológico como un ordenador puede ser realmente inteligente. No hablamos de una IA especializada en hacer tareas concretas, sino en una que comprenda el lenguaje y tenga un modelo del mundo que le rodea, lo que está a años luz de los modelos de lenguaje como ChatGPT. Yann LeCun [científico jefe de IA de Meta y quién asistió en 1986 a los seminarios de López de Mántaras cuando este era catedrático invitado a la Universidad Pierre y Marie Curie de París] también advierte que esos modelos no solo no nos acercan a esa IA fuerte o general, sino que nos aleja del camino hacia el objetivo de quienes vemos la IA como algo científico y no comercial.

- Los gigantes tecnológicos prometen que estamos cada vez más cerca de crear una IA con una cognición igual o superior a la de los humanos. ¿Es viable o es humo promocional? ¿Dónde se traza la frontera entre comprensión y simulación?

Crean la ilusión de que la llamada IA general está a la vuelta de la esquina para atraer a inversores y revalorizar sus acciones. Es puro interés económico.

Si vemos la IA general como aquella capaz de ejecutar cientos o miles de tareas con un buen nivel de calidad creo que puede ser algo factible a largo plazo. Si, en cambio, la definimos como una IA con conciencia indistinguible de la humana, entonces no la veo posible en absoluto. Creo que los estados mentales están completamente ligados a que somos seres vivos, celulares, basados en la química del carbono. Tenemos un cerebro extraordinariamente complejo producto de millones de años de desarrollo. Las máquinas están basadas en programación informática, transistores con una capa de software que procesa unos y ceros, así que me parece imposible que de ahí nazca una conciencia. Es casi ridículo comparar ambas cosas.

Tenemos un cerebro super complejo producto de millones de años de desarrollo. Las máquinas están basadas en transistores con una capa de software que procesa unos y ceros. Es casi ridículo comparar ambas cosas.

- Aun así, cuándo interactuamos con una máquina que parece capaz de razonar tendemos a creer que hay una consciencia ahí detrás. ¿Por qué?

Los humanos siempre hemos tendido a antropomorfizar las máquinas, mira qué pasó con los tamagotchis (ríe). Pues en este caso se multiplica por mil. ChatGPT responde con precisión y autoridad, pero regurgita lo que ya sabe y no razona ni entiende nada. Esa tendencia a creer que las máquinas tienen conciencia es un problema terrible con muchas más implicaciones de las que vemos ahora. Imagina que una persona se suicida tras acudir a una IA generativa como psicólogo, como ha sucedido en EEUU, y que las empresas dicen que la máquina tiene conciencia para esquivar su responsabilidad. Es peligroso, por eso hay que regularse de manera que la IA nunca sea la responsable, sino los humanos que la han desarrollado.

- Demis Hassabis, director general de Google DeepMind, ha dicho que los grandes modelos multimodales de IA generativa [capaces de procesar texto, imágenes, audio y vídeo] serán parte fundamental para alcanzar la IA general, pero no suficientes. Usted ha señalado que para que la IA tenga sentido común y pueda entender el mundo que le rodea necesitaría tener un cuerpo físico. ¿Abriría esa combinación la puerta a que la IA pueda aprender de forma autónoma?

Podría ser. Hace años, antes que Hassabis y LeCun, que explico que aprender la relación causa-efecto, por ejemplo lo qué pasa cuando agarras un objeto y lo tiras al suelo, es crucial para tener un modelo del mundo. Mi tesis del año 1977 ya era algoritmo de aprendizaje probabilístico conectado con una mano que agarraba y clasificaba objetos sólidos geométricos. Y eso que los sensores táctiles eran mucho menos sofisticados que los de ahora. Una IA con un cuerpo robótico antropomórfico podría interactuar con el mundo de forma similar a la nuestra. Google DeepMind y Meta ya tienen proyectos en esa dirección, pero es un proceso muy largo y complicado.

Una IA con un cuerpo robótico podría interactuar con el mundo de forma similar a la nuestra.

- ¿Qué tan lejos estamos de ese escenario?

Hemos avanzado mucho en robótica: tenemos sensores mucho más sofisticados y ordenadores con una capacidad de cálculo brutal. Actualmente, se dan una serie de condiciones que favorecen el avance hacia una IA corpórea, pero aún estamos muy lejos. Piensa que los humanos nacemos con un desarrollo cognitivo que nos permite ir entendiendo el mundo, pero se trata de un proceso muy lento. La duda es si podemos acelerarlo, permitiendo que un robot interactúe por ejemplo con un mundo simulado muy similar al real para así aprender más rápido. Esto es muy complicado, pero no imposible.

- Los modelos de IA generativa han evolucionado hacia sistemas razonadores cada vez más potentes y convincentes, pero también producen cada vez más información incorrecta. ¿Por qué? ¿Son las alucinaciones un problema sin cura?

Creo que no tiene solución, los errores son algo inherente al funcionamiento de los transformers [arquitectura de red neuronal detrás de la IA generativa]. Los modelo de lenguaje están programados para generar frases convincentes, no para verificar que lo que dicen es cierto. Otra cosa es que se les integren otros métodos de IA para evitar que se cometan esas alucinaciones.

Los modelo de lenguaje están programados para generar frases convincentes, no para verificar que lo que dicen es cierto.

- La popularización de generadores de texto como ChatGPT, Gemini o Grok empieza a llenar la web de contenidos sintéticos hasta el punto que ya hay estudios que señalan que los resultados de Google tienen cada vez menos calidad y fiabilidad. ¿Avanzamos hacia una contaminación de internet?

Absolutamente, ya lo estamos viendo e irá a más. Las empresas lanzan modelos de lenguaje más grandes con más parámetros y que alucinan más. Además, esa información errónea puede usarse para entrenar nuevos programas de IA, lo que amplificará el problema. Se degradará internet, pero también los nuevos modelos de lenguaje.

El ingeniero informático y físico Ramón López de Mántaras, pionero en investigación de la IA en España.

El ingeniero informático y físico Ramón López de Mántaras, pionero en investigación de la IA en España. / Manu Mitru

- ¿Qué impacto tiene este modelo en la protección de datos? OpenAI ha reconocido que es imposible entrenar ChatGPT sin explotar material con copyright. ¿Es posible una IA generativa sin violar los derechos de autor?

No, difícilmente, si se entrenan con todo lo que hay en internet antes deberían pedir permiso o pagar, y no lo hacen.

- ¿Qué avances técnicos crees que están siendo infravalorados hoy por el hype mediático y de las empresas (como el razonamiento simbólico, la neurociencia computacional o las arquitecturas híbridas)?

Todo lo que se conoce como la IA simbólica o el aprendizaje por refuerzo. La IA es muy amplia y cuando más recursos se destinen a la IA generativa menos se dedicarán a los demás. Ponemos todos los huevos en la misma cesta y eso no es conveniente.

Ponemos todos los huevos en la misma cesta y eso no es conveniente.

- ¿Es la investigación científica el terreno más fértil para la IA? El año pasado ya se reconocieron sus logros con dos Premios Nobel, los de Física y Química.

Sin duda. [El programa de IA] AlphaFold no es IA generativa, sino que usa 32 algoritmos de aprendizaje por refuerzo, de redes neuronales. Es un ejemplo perfecto de grandes resultados científicos por otros métodos. Todas mis investigaciones no son con IA generativa, igual que sucede en el campo de la robótica. Dudo mucho que un modelo de lenguaje lleve a un premio Nobel.

- La IA ha desatado una competición no solo entre empresas sino también entre países. Más allá de la pugna por la hegemonía tecnológica entre EEUU y China, ¿qué puede aprender la Unión Europea de ambas potencias?

Es al revés, EEUU y China deberían aprender de la UE. Incluso Pekín ha empezado a copiar ya partes del Reglamento General de Protección de Datos, normativa que en un principio fue muy criticada. Quizás pasa algo similar con la AI Act [ley que regula la IA], que a pesar de tener aspectos criticables, creo que es mejor eso que no tener ninguna regulación.

- Si tuviera total libertad para liderar un gran proyecto de IA en España con financiación estatal, ¿cuál sería su apuesta principal?

No digo que no se deba apoyar la creación de grandes modelos de lenguaje con los diferentes idiomas del Estado, pero yo diversificaría y financiaría otras aproximaciones de la IA como la corpórea, priorizando la integración de distintos modelos com ha hecho AlphaFold.

Suscríbete para seguir leyendo

Tracking Pixel Contents