Opinión

Una odisea en el ciberespacio Alerta Jota

Archivo - El director ejecutivo de Twitter, Elon Musk

Archivo - El director ejecutivo de Twitter, Elon Musk / Patrick Pleul/dpa-Zentralbild/PO - Archivo

En 1968 se estrenaba en España 2001 una odisea en el espacio. Los que para entonces ya habíamos nacido, e incluso teníamos uso de razón, jugábamos a calcular cuántos años tendríamos para la mágica fecha fijada por Arthur C. Clarke y Stanley Kubrick. Entonces, la idea que teníamos de la IA –no la llamábamos así, sino supercomputador de última generación– era la de un ente similar a Hal 9000, el ordenador que se rebelaba contra los astronautas del Discovery One para hacerse con el control de la nave con destino a Júpiter.

Veintidós años más viejos que la edad que habíamos previsto, aquí estamos jugando a la Inteligencia Artificial, cuya aplicación más popular es la llamada Chat GPT. Todas las previsiones publicadas a comienzos de 2023 aseguraban que este iba a ser el año de la IA. Y, en efecto, en apenas cuatro meses, las primeras herramientas de la IA están a disposición de cualquier usuario digital en el mundo. Todas las grandes empresas –de Microsoft o Google pasando por los medios de comunicación– se han lanzado a la carrera, como vaca sin cencerro, para no perder el tren del futuro.

Son muchos los interrogantes que surgen. ¿Quién ha decidido dar ese paso tecnológico? ¿Ha sido sometida la herramienta a algún control antes de ponerla a disposición de los consumidores? ¿No debería tener una autorización oficial como todos los productos que salen al mercado, desde un electrodoméstico a un medicamento? Quien ha decidido lanzar Chat GPT es una compañía llamada Open IA, fundada en 2015, entre otros, por Elon Musk –aparece por todos los sitios–, el inversor, bloguero y programador Sam Altman –actual director de la empresa– y el científico de datos y profesor de Stanford Andrej Karpathy.

Da la sensación de que los grandes monstruos digitales utilizan el viejo método de poner sus productos en manos de los usuarios, dejar que jueguen con ellos y que hagan de cobayas humanos para probarlo y mejorarlo. Y luego, si eso, ya se verá si esos productos tienen efectos nocivos o requieren de una regulación. De momento, sólo cuatro meses después de su lanzamiento, ya empezamos a ver algunas consecuencias nada alentadoras. La revista alemana Die Aktuelle ha sacado una portada en la que anunciaba una entrevista con el campeón de Fórmula-1 Michael Schumacher, en coma desde hace 10 años. En la portada se podía ver una imagen del piloto sonriente, obviamente tratada con IA, acompañada del titular «Michael Schumacher, la primera entrevista». Sólo en el interior se reconocía que las declaraciones del heptacampeón del mundo habían sido generadas por IA. En Hollywood, los guionistas ya ven peligrar sus empleos, por lo que han puesto sobre la mesa de negociación del convenio para los próximos años, entre otras reivindicaciones de tipo salarial, que se les garantice que no serán sustituidos por la IA.

Parece evidente que la inteligencia artificial se ha puesto al alcance de todo el mundo de forma precipitada. Incluso líderes tecnológicos como el propio Elon Musk –otra vez Elon– y otros mil expertos han publicado una carta en la que piden una pausa en su expansión. «Los sistemas potentes de IA deben desarrollarse sólo una vez que estemos seguros de que sus efectos son positivos y sus riesgos manejables», puede leerse en la carta. Además, se planteaban preguntas como éstas: ¿deberíamos automatizar todos los trabajos, incluidos los que se están haciendo de forma satisfactoria? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes... y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Con una buena dosis de sentido común, Enrique Bunbury pedía la pasada semana en una entrevista que «no nos pongamos tan estupendos con la inteligencia artificial». «Si el ser humano dedicara la mitad del tiempo que utiliza para el perfeccionamiento de las máquinas en su propia superación», afirmaba el cantante, «haríamos maravillas con nuestra capacidad neuronal».

En China, ya se han establecido nuevas reglas: todos los productos de IA deben pasar una «evaluación de seguridad» antes de ser lanzados al mercado, para garantizar un «desarrollo saludable y una aplicación estandarizada» de la tecnología. Mientras, en Europa y en EEUU el proceso legislativo aún está en mantillas. No se trata de ir contra el progreso, sino de que el progreso no acabe por sobrepasarnos y terminemos como los astronautas del Discovery One en 2001, en manos de un Hal 9000.

Suscríbete para seguir leyendo