eldia.es

eldia.es

Contenido exclusivo para suscriptores digitales

Amalgama

El aviso

Juan Ezequiel Morales El Día

Algo está pasando y, probablemente, de todos los avances tecnológicos que estamos viviendo, multitud de ellos tienen, sin que lo sepamos, un origen desconocido para nosotros y situado en el núcleo de un ente superinteligente, o de varios. Si hiciéramos una ingeniería inversa profunda deberíamos llegar a un origen increíble. El tratamiento ontológico de la razón como un fluido que no pertenece solo al humano, como no pertenece solo al humano la sangre, sino que es patrimonio de todos los animales, nos da inmediatamente la sospecha de que la tecnología, ancilla rationis, se desarrolla a una velocidad superior a la que el humano por sí solo podría llegar a conseguir, y existe un plus de origen desconocido.

Alan Turing desarrolló la máquina conceptual de cómputo que constituyó el principio de los ordenadores actuales. Esta máquina fue descrita por Turing en 1936, en el artículo On computable numbers, with an application to the Entscheidungsproblem, publicado en Proceedings of the London Mathematical Society, estudiando el planteamiento de David Hilbert acerca de si las matemáticas son decidibles, o sea, acerca de si existe un método que teste si una sentencia matemática es cierta o no. Turing basó su máquina en una cinta sobre la que se escribe información con una cabeza lectora y grabadora que sigue un conjunto de reglas fijas para moverse, leer y escribir sobre la cinta. El número de caracteres distintos que puede escribir y el número de estados que la cabeza lectora puede adoptar, son los dos parámetros que marcan la máquina de Turing, de forma que una máquina de Turing 2,3 es la que adopta 2 estados y 3 caracteres.

En los años cincuenta, en los que se sabía que la máquina Turing 1,2 no era universal, se planteó cuál sería la máquina de Turing más sencilla con capacidad de cómputo universal, y a principio de los sesenta Marvin Minsky demostró que una máquina de Turing 7,4 tenía esa capacidad. En los años ochenta, Stephen Wolfram, creador del programa Mathematica, encontró que la máquina de Turing 2,5 era universal. Se empezó a sospechar que la computación podía partir de bases tan simples que deberían encontrarse en la naturaleza. Wolfram creó un premio para quien demostrara que la máquina Turing 2,3 es universal, el cual ganó, en 2007, el estudiante de electrónica y computación Alex Smith, de la Universidad de Birmingham.

En los años setenta se buscaron los autómatas celulares, y el matemático John Conway fabricó el denominado juego de la vida con un diseño de autómata celular propio, que publicó en la revista Scientific American. La observación que interesa es cómo la vida es un juego que se puede esquematizar con una pequeña máquina de Turing. A partir de ahí se crearon los juegos de ordenador, que se complicaban ad infinutum. En 1986, Chris Langton creó la hormiga de Langton, con dos estados, viva o muerta, y que era Turing-completa, y evolucionaba a patrones sencillos y simétricos en los primeros cien pasos, a un orden emergente que se estabilizaba en 104 pasos, o al caos durante unos 10.000 pasos. Turing, Alonzo Church, Hilbert y los matemático-filósofos que formalizaron las matemáticas en esos momentos cruciales del despertar de la ciencia en el siglo XX, arrinconaron a los autómatas como máquinas que no pueden pensar. Y actualmente se trata de buscar la formalización descriptiva de que las máquinas sí pueden pensar, una vez insertadas en ellas mecanismos de decisiones físico-cuánticas, fórmulas lógicas de desarrollo autoreplicantes como las de las redes neuronales, y una serie de principios emergentistas en los que se opere más allá de los trillones de datos por milisegundo. En esos extremos, que no se han reproducido hasta la fecha sino en organismos vivos, probablemente encontremos máquinas de Turing pensantes, y entonces, el mundo humano cambiará muchísimo más de lo que lo ha hecho hasta ahora.

El aviso juan ezequiel morales

Fue el visionario Arthur Clarke quien primero insistió, pero en una época no muy creíble, en que las máquinas podían dejar de obedecer mecánicamente a los humanos para tener criterio propio, un criterio autorreferencial que vulnerara los principios de Alan Turing y el Entscheidungsproblem, problema de decisión que debía encontrar un algoritmo general que decidiera si una fórmula del cálculo de primer orden es un teorema, lo cual se demostró, en la disciplina lógica, como imposible. De aquí se seguía a la tesis de Alonzo Church y Alan Turing que afirmaba, sin demostrarlo, que todo algoritmo es equivalente a una máquina de Turing.

En los escritos de Clarke ya se intuía que los robots se visionaban como HAL, la máquina de 2001, Odisea en el Espacio, que al final desobedecía a sus creadores y decidía por sí misma, escenario que ha sido, desde entonces, reiterativo en la ciencia ficción. Esa sospecha ya está empezando a filtrarse a la vida humana real, la robotización de todas las actividades humanas, desde la compraventa de servicios y materias en la bolsa, hasta la aeronáutica, la sanidad, las comunicaciones, y sobre todo la Internet, están rodeando al ser humano al punto en que es de prever que, tan pronto las comunicaciones sobre la Tierra lleguen a tener un intercambio de información tan grande como el que utiliza un cerebro humano (cien veces mayor que la información contenida en el genoma), se producirá un cambio de fase emergentista y, lo que hasta entonces es un producto del ser humano, tomará las riendas y pasará a ser un ente autorreferente que tomará decisiones propias y se protegerá contra la posibilidad de que lo apaguen.

Compartir el artículo

stats