27 de febrero de 2020
27.02.2020

En manos de la oscuridad

En Bristol, Inglaterra, como en tantos otros lugares, los servicios sociales se contraen mientras el paro aumenta. Sobre todo en los jóvenes, en los jóvenes que viven en los barrios empobrecidos

26.02.2020 | 18:14
En manos de la oscuridad

En Bristol, Inglaterra, como en tantos otros lugares, los servicios sociales se contraen mientras el paro aumenta. Sobre todo en los jóvenes, en los jóvenes que viven en los barrios empobrecidos. Una vez a la semana un equipo se reúne para examinar los resultados de un algoritmo que predice el riesgo de que uno cometa un delito. El algoritmo se nutre de toda la información gubernamental que incluye su experiencia en la escuela, problemas domésticos, registro de contactos con la policía y justicia, etc. El sistema parece que identifica aquellos que están en más riesgo. Así lo hizo hace unas semanas con uno. Los servicios sociales eligieron al trabajador social más adecuado para reconducir la situación. Concienzudo y profesional, realizó varias entrevistas con él. Eso no evitó que días más tarde apuñalara a un ciudadano.

Creo que nadie pone en duda la utilidad que puede llegar a tener la inteligencia artificial para ayudar al diagnóstico, establecer el pronóstico e identificar aquellos que se beneficiarán de este o aquel tratamiento. Los esfuerzos de las diferentes compañías de tecnología de la información son grandes, los frutos aún pequeños. Solo una sombra empaña esta promesa: el riesgo de que se vulnere la privacidad de la información. El otro, que sea la máquina quien decida, creo que por ahora no entra en juego: siempre será un profesional quien tome la decisión basado en su juicio y el consejo que obtenga de la trituración de los datos por ese cerebro externo.

Sin embargo, la introducción masiva de la inteligencia artificial para detectar a los posibles transgresores de la ley está bajo sospecha. Se han desarrollado sistemas para identificar a los que con más probabilidad cometerán delitos en el periodo de libertad provisional, a los que defraudarán al sistema de paro o de beneficencia o de ayuda a la vivienda. Aparentemente, en una sociedad que se ve abocada a recortar el estado de bienestar, en una sociedad donde la demanda de servicios sociales supera la oferta, ayudas como estas pueden lubricar el sistema, reducir los errores, dar respuesta en tiempo y aminorar el estrés que sufren los funcionarios sobrepasados por el exceso de trabajo.

Que un cerebro artificial decida la periodicidad de presentación de una persona en libertad provisional es algo que repugna al sujeto. Porque no sabe en qué se basa, porque el oficial encargado ya apenas habla con él: solo examina el resultado del proceso de la computación. Ausente la interacción, no hay forma de discutir, modificar o completar los datos que utiliza. Esa caja negra inquieta. Pero, ¿acaso no es también una caja negra el cerebro del oficial que toma decisiones basadas en la información que recoge del sujeto bajo vigilancia, la que guarda en su memoria y la que obtiene de los archivos del caso? Y, ¿no estará sujeto a más prejuicios que a veces ni él mismo conoce o reconoce? Sin embargo, en el algoritmo hay una cierta objetividad, una objetividad incomprensible para el usuario, una objetividad casi siempre desconocida porque no se tiene acceso a qué información maneja y cómo.

Hace muchos años traté de introducir en el hospital donde trabajaba un programa de ayuda a la decisión basado en un árbol de probabilidades y utilidades. Lo había aprendido en el New England Medical Center. En la unidad de Análisis de Decisión que dirigían los doctores Pauker y Kassirer, este último seria editor de la prestigiosa revista New England Journal o Medicine, nos presentaban casos en los que la decisión era complicada. Investigábamos en la literatura la experiencia en casos similares para construir el árbol. El usuario podía modificar los datos, las probabilidades y utilidades, y examinar los resultados bajo diferentes supuestos. Como ejercicio intelectual era estupendo, como ayuda en la clínica poco efectivo. Su aplicación mayor se encontró en el análisis de intervenciones que no habían sido examinadas experimentalmente. No era inteligencia artificial, todo estaba a la vista: obligaba a poner números a las probabilidades y utilidades con las que el clínico toma decisiones de forma inconsciente. Pero hay algo más en esa decisión que no alcanzábamos a representar. Es precisamente lo que quiere simular al inteligencia artificial. Su ventaja es que el usuario lo tiene inmediatamente mientras el análisis de decisión puede llevar días o semanas.

Creo que el uso de la inteligencia artificial como ayuda al diagnóstico, tratamiento y pronóstico en medicina tiene más futuro que su empleo en las áreas de criminalidad y servicios sociales. Porque, como ya he comentado, es una herramienta más, como puede ser la imagen de una resonancia o el resultado de una prueba hematológica. El médico las interpretará en su contexto. Y sirve para la acción inmediata: dirige, concreta, especifica y por tanto hace más efectiva la intervención. Pero sobre todo, porque, dada la multitud de intervenciones, esa expectativa puede ser examinada en el banco de pruebas de la experiencia sistematizada e incluso de los ensayos clínicos.

Compartir en Twitter
Compartir en Facebook