16 de febrero de 2020
16.02.2020
LA ENTREVISTA

José Luis Flórez: "Somos cyborgs, nuestro móvil ya es un apéndice imprescindible"

La inteligencia artificial (IA) está dando mucho que pensar en la sociedad actual con sus grandes avances y sus grandes riesgos. Y una de las voces más autorizadas para adentrarse en ella es José Luis Flórez (Oviedo, 1973) matemático y doctor en Economía

15.02.2020 | 21:43
José Luis Flórez. (
<<

La inteligencia artificial (IA) está dando mucho que pensar en la sociedad actual con sus grandes avances y sus grandes riesgos. Y una de las voces más autorizadas para adentrarse en ella es José Luis Flórez (Oviedo, 1973) matemático y doctor en Economía. Preside Dive, una empresa de visión artificial con proyectos en todo el mundo que empezó con el cine y ahora trabaja en seguridad, control de tráfico y mantenimiento predictivo. Lidera la estrategia de IA de la compañía Minsait y la Fundación Ethia, una iniciativa, explica, "formada por los equipos más avanzados en España en IA y que tiene como misión crear tecnología que nos permita controlar los efectos no deseados del uso de las inteligencias artificiales, vigilando algoritmos y fake news".

¿Puede aprender un robot a amar?

La dificultad de esta pregunta radica en nuestra tendencia a atribuir a la máquina una cualidad que consideramos propia nuestra condición humana, es una cuestión que no tiene más sentido que preguntarse si un barco sabe nadar. Hay pocas dudas de que los robots podrán aprender a comportarse de un modo que no podamos distinguir de nuestra noción de amor. Si a eso se le puede denominar amar o no es cuestión de opiniones.

No hace tanto que nos vendían la Realidad Virtual como una revolución inmediata...

Son tecnologías que aún tienen muchas limitaciones y no ofrecen una experiencia de inmersión sensorial convincente, sin embargo, apuntan a un futuro en el que las percepciones inducidas por máquinas pueden llegar a ser difícilmente diferenciables de un sueño, o incluso de lo que consideramos real. Las realidades virtuales, creadas sintéticamente, pueden cambiar todo.

¿Hablar de Inteligencia Artificial es una contradicción? ¿Cómo la llamaría usted para ser más exactos?

Es arriesgado e impreciso asignar capacidades humanas a nuestra tecnología, para empezar, los robots siguen siendo máquinas de calcular, computadores, a los que hemos conferido la capacidad de identificar patrones y establecer unas pautas de comportamiento que no requieren de la programación de cada caso. Si es inteligencia o no, puede llevar a un debate filosófico, de lo que hay pocas dudas es que cada vez hay más ámbitos en los que el comportamiento de la máquina no es distinguible de un comportamiento inteligente. Es un juego de la imitación, como lo planteaba Turing.

Las máquinas pueden imitar a la inteligencia humana, ¿la superarán o suplantarán algún día?

Todavía estamos lejos, el desarrollo del aprendizaje máquina ha permitido que nuestro ordenadores sean capaces de proezas sorprendentes: ajedrez, diagnóstico médico, creación de contenidos sintéticos, compresión del lenguaje,? pero aún falta para que el computador pueda adaptarse a una variedad de situaciones de forma autónoma, o para que programe computadores más capaces que él mismo. No obstante hay un acuerdo bastante general acerca de que las máquinas podrían igualar la capacidad cognitiva de un humano en unos 40 años, y a partir de ahí, se estima, continuará un aumento exponencial de su capacidad. En solo unos meses desde ese evento, al que se da el nombre de singularidad, los computadores podrían tener más capacidad que toda la especie humana. Y no se pararían ahí. En cualquier caso son muchos los problemas que hay que resolver para llegar a ese punto.

En 2001 un superordenador pretendía matar a un humano y moría cantando. ¿Existe ese riesgo de máquinas asesinas y, al tiempo, capaces de emocionarse?

Las máquinas son especialmente eficaces a la hora de imitar, por tanto en un futuro sí podría suceder. Es más, quizás haya un programador cinéfilo que haga una réplica bastante convincente de HAL9000.

Terminator plantea un futuro donde los robots se rebelan.

Nick Bostrom, filósofo sueco especialista en las implicaciones de la tecnología, alerta precisamente del peligro de las nuevas superinteligencias y sugiere la creación de protocolos de emergencia para asegurar su control. Es lo que llama "el gran botón rojo". No hay que ir tan lejos o a escenarios apocalípticos como Terminator. Actualmente hay centenares de miles de algoritmos tratando de influir en nosotros en cuestiones banales, como la sugerencia de una película; o mucho más trascendentes, como nuestro futuro profesional o la valoración de una prueba médica. Pues bien, no existen pautas comúnmente aceptadas para vigilar la lógica, propósitos y potenciales injusticias, que resultan de la aplicación de esos algoritmos. Empezaría a preocuparme por lo más inmediato.

Plazos. ¿Cuándo podremos convivir con superinteligencias?

Se estima en 40 o 50 años. Puede suceder o puede que no, o puede que suceda mucho más tarde, dependerá de la dificultad de los retos técnicos que encontremos en el camino. También hay que considerar que no todo el futuro de la IA debe pasar por los computadores, también hay líneas de trabajo que se centran en la integración de máquinas y componentes biológicos, que podrían ayudar a salvar muchos obstáculos. La cuestión es que por primera vez en la historia tenemos varias tecnologías confluyentes con una velocidad de desarrollo exponencial: medicina, nanotecnología, energía, biotecnología, robótica e inteligencia artificial, por tanto, prácticamente todo lo que podamos imaginar es potencialmente factible.

Una encuesta en Europa dejaba constancia de que muchos ciudadanos preferirían confiar el gobierno a la inteligencia artificial...

Hace poco, en una conferencia, el economista Emilio Ontiveros, señalaba algo inquietante. La capacidad de computación actual puede permitir el funcionamiento efectivo de una economía de planificación centralizada como las que han fracasado reiteradamente el siglo pasado. Bajo mi punto de vista eso tendría elementos orwellianos y de limitación de la libertad individual. No me parece un futuro atractivo. La cuestión es que esa planificación centralizada no es una cuestión teórica ni neocomunista, realmente plataformas como Uber, que conectan oferta y demanda de forma dinámica, ya hace uso de estas capacidades de planificación.

¿El aprendizaje automático de la IA es el mayor paso a dar?

Ha sido un avance extraordinario. Antes del aprendizaje máquina, había que programar cada caso: si sucede esto y esto entonces debes hacer esto. Si pensamos en un computador de ajedrez esa aproximación es muy limitante porque hay miles de millones de posibilidades a considerar y siempre llegaremos a lo imprevisto. El aprendizaje máquina implica que ésta puede reconocer patrones de forma autonóma a partir de su propia experiencia, es decir, es capaz de encontrar sus propias reglas. La limitación de este modelo, que también la tiene, es que es sumamente efectivo para encontrar respuestas, pero no tanto para identificar las preguntas relevantes.

¿Dentro de 50 años esta entrevista se la hará un robot?

Es muy posible. La pregunta es qué estaremos haciendo nosotros. Hay una tendencia a considerar que seremos artistas, y se reitera la frase, bastante vacía, de que nos centraremos en tareas de más valor añadido. Mi opinión es que las personas somos muy sensibles, por no decir vulnerables, al entretenimiento, pan y circo, cuando las máquinas lo descubran y sean capaces de crear contenidos puede que nos lleguen a domesticar.

¿Veremos matrimonios entre robots o entre humanos y robots?

En un horizonte temporal más o menos cercano vamos a convivir con una nueva especie con comportamientos inteligentes, y posiblemente, con más capacidad cognitiva que nosotros, de la que paradójicamente somos creadores. Pienso que el futuro de nuestra especie tiende al mestizaje con sistemas artificiales, así que la línea que nos permite diferenciar un humano y una máquina va a ser cada vez más tenue. Por consiguiente, creo que sí, pero la diferencia entre especies, por decirlo de algún modo, se desvanecerá.

Si la IA imita a la inteligencia humana, ¿podrá también imitar sus emociones y sentimientos?

Sí, ¿por qué no? No hay una limitación a esto más allá del considerar que son comportamientos exclusivos de los humanos y otras especies cercanas.

En Japón, las residencias de ancianos utilizan cada vez más robots?

Interactúan, empatizan, no se cansan, y están siempre ahí.

¿Los asistentes de voz en teléfonos y ordenadores están aún en pañales?

Están muy lejos de lo que nos espera, sin duda, la clave no es tanto la distancia que nos separa de inteligencias más avanzadas, sino la velocidad de los avances, que son exponenciales, por lo que en pocos años son extraordinarios.

¿Cómo se puede enseñar ética a un ordenador?

Hay que fijar unos principios morales que afectan no sólo a las máquinas sino muy especialmente a quienes las programan y a quienes deciden el uso que harán con ellas; por supuesto estos principios morales deben afectar también a la toma decisión autónoma de la propia máquina.

¿Estamos a tiempo de protegernos contra un futuro en el que la IA pueda tomar el control?

Hay visiones más o menos negativas sobre esto. Comparto la opinión de aquellos expertos que consideran que el futuro pasa por nuestra hibridación con la tecnología. El futuro puede ser tan distinto a lo que conocemos que valorarlo en términos actuales puede llevar a un absurdo. Para empezar hay que reconocer que somos cyborgs, nuestro teléfono móvil es un apéndice, ya imprescindible, y que nos confiere una memoria y capacidad de acceso a información sin precedentes. Es un superpoder, aunque lo consideremos algo cotidiano.

¿Es tan importante el big data para los medios?

Para los medios de comunicación es esencial conocer uno a uno a su audiencia y darle contenidos de calidad a su medida, y eso sólo se puede hacer con una análisis de datos masivo. Quienes llevan ventaja son los creadores de fake news. También se necesita big data para luchar contra esa manipulación, que es extremadamente precisa y efectiva.

¿Qué puede hacer un periódico de siempre para captar nuevos lectores y no perder los antiguos?

El mundo es complejo, suceden muchas cosas y en general asistimos bastante sorprendidos a todo, como meros espectadores de un cambio sin precedentes, creo que los medios pueden conectar a los ciudadanos con la realidad a través la opinión de expertos. El análisis me parece muy importante. También tengo la opinión de que los periódicos, y en especial lo más antiguos, tienen un gran activo sin explotar: su propia historia, su hemeroteca. La IA podría ayudar a crear nuevos contenidos muy relevantes y actuales a través de ella.

Facebook, WhatsApp, Twitter? ¿Su imperio es menos sólido de lo que parece?

Cuando el tiempo que se requiere para que un nuevo servicio o tecnología pueda llegar a 100 millones de hogares se reduce de medio siglo a unos meses, entonces ningún imperio es sólido. Estamos en un tiempo líquido que evoluciona rápidamente a uno gaseoso.

Sin una buena historia no hay big data que valga.

Estoy muy de acuerdo con eso. La mayor fuerza motivadora de cambio, tanto a nivel individual como social son las historias. Es una fuerza tan poderosa que es una de las mayores amenazas para nuestras democracias.

¿La tercera guerra mundial se produce en internet?

Las grandes potencias están librando una guerra por el dominio de la IA, la biotecnología y la computación cuántica. Europa debe reaccionar con políticas decididas para ganar autonomía tecnológica, no sólo poniendo el foco en la computación en la nube, sino específicamente en inteligencia artificial. Si nos referimos a Internet, es muy llamativo que los norteamericanos tengan Google, los rusos Yandex y los chinos Baidu como motores de búsqueda, que condicionan gran parte del tráfico. ¿Y Europa? La cuestión es que esos motores tienen acceso a información extremadamente rica para enseñar de forma mucho más efectiva a sus inteligencias artificiales.

¿Un algoritmo puede ganar unas elecciones?

Un algoritmo puede ser usado como un arma de personalización masiva, que diga a cada uno lo que le debe decir y el tono en que se lo debe decir para provocar un efecto emocional y un cambio de comportamiento. La respuesta es sí.

El filósofo Nick Bostrom sostiene que una inteligencia artificial avanzada podría provocar la extinción humana...

A veces Bostrom provoca para lograr un impacto. Pienso que más que la extinción va a provocar una evolución a una especie distinta.

¿Qué avance reciente en IA le ha sorprendido más?

El más reciente es la capacidad de algunos sistemas de crear contenidos a partir de unos pocos conceptos, con coherencia y ampliando información desde distintas fuentes. Por ejemplo, si le digo al sistema Ford e Indianápolis podría elaborar un texto razonablemente bueno en el que explicaría la trayectoria de esa marca; o la evolución de las ventas en esa ciudad. Cuanto más cerca estén las máquinas de elaborar historias, más poderosas serán, ellas o quienes las utilicen.

Conciertos en Frank Sinatra en holograma, películas con James Dean resucitado? ¿Es éticamente aceptable?

¿Es éticamente aceptable pensar en Frank Sinatra e imaginar estar asistiendo a un concierto? Considero que sí ¿Qué sucede si un sistema de realidad virtual nos induce una experiencia así? ¿Sigue siendo ético? Me parece difícil establecer ciertas barreras cuanto más íntima y personal sea la experiencia.

Compartir en Twitter
Compartir en Facebook