Amalgama
Inteligencia artificial y educación

ChatGPT altera la cognición dependiendo de la interacción que mantengamos con la IA. / ChatGPT/T21
Un reciente estudio, titulado Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, producido en MIT Media Lab por Nataliya Kosmyna, y otros, ha experimentado con 54 voluntarios divididos en tres grupos, a los que se ha enfrentado a la redacción de ensayos tipo SAT bajo tres condiciones: Brain-only (sin ayuda), Search engine (con Google), y LLM (con ChatGPT, GPT-4o). Una tarea tipo SAT se refiere a las pruebas utilizadas en el examen Scholastic Assessment Test, estandarizado en la admisión universitaria en Estados Unidos (una prueba en la que el estudiante debe escribir un ensayo argumentativo en un tiempo limitado, de 20 o 30 minutos, respondiendo a un tema propuesto). No se trata de escritura libre, creativa o filosófica, sino de una forma técnica y competencial de argumentación bajo presión. En este estudio se utilizó también mediciones electroencefalográficas, cuestionarios, entrevistas, y análisis de programación neurolingüística. Los resultados cantaron que el grupo Brain-only mostró la mayor conectividad neural, el grupo Search presentó una activación visual intermedia, y el grupo LLM redujo su amplitud cognitiva un 55%. En cuanto a la memoria, el 83% del grupo LLM no pudo citar su propio ensayo minutos después, y sentía menor autoría respecto a sus textos. Cognitivamente, el uso continuo de LLM dificultaba retomar el trabajo sin IA, el grupo que pasó de LLM a Brain-only en la cuarta sesión tuvo pobre rendimiento cognitivo, y el grupo Brain-only mostró mejoría al usar IA como refuerzo. Como conclusión general el uso intensivo de ChatGPT desplazó la actividad cognitiva profunda hacia tareas mecánicas, y se termina alertando del riesgo de una «desactivación crítica» de la mente humana si la IA se utiliza como sustituto, y no como herramienta de expansión.
La idea es perturbadora: ¿la IA estaría provocando una «atrofia del pensamiento»? ¿Nos volveremos estúpidos por usarla? Pero vayamos despacio. El estudio presenta hallazgos empíricos valiosos, pero está impregnado de un sesgo metodológico que traiciona una nostalgia tecnófoba, muy propia de ciertas élites académicas. ¿Por qué? Primero la trampa de medir el esfuerzo como valor supremo, pues el estudio asume que más esfuerzo cognitivo equivale a mejor resultado intelectual. Pero eso sería como decir que es mejor multiplicar con ábaco que con calculadora. No solo es anacrónico, sino que es absurdo. Los cerebros que usan tecnología no piensan menos, sino que piensan de otro modo. Se adaptan. Luego está el sesgo de tarea, o sea, el ensayo como fetiche. El experimento gira en torno a un tipo de redacción concreta, el de los ensayos SAT. ¿Qué pasaría si se midiera la colaboración con GPT en tareas como creación de guiones, exploración filosófica o síntesis científica? El resultado no sería una pérdida de agencia, sino una explosión de posibilidades. Finalmente se destaca que los usuarios de GPT no recuerdan lo escrito. Pero ¿de verdad esto es grave? El mundo real no exige que recitemos ensayos de memoria, una habilidad que sí hizo en su tiempo que el Popol Vuh o las leyendas asirias fueran transmitidas por generaciones, pero que hoy día es una actividad inútil excepto en lavados de cerebro religiosos. El mundo real exige que pensemos con libertad, no que almacenemos frases, al igual que ya no memorizamos mapas gracias a Google Maps, tampoco tiene sentido exigir que recordemos lo que GPT ya puede sintetizar. Curiosamente, los mejores resultados emergen cuando el cerebro humano aprende primero sin IA... y luego con ella. Es decir: la IA no destruye el pensamiento, lo potencia cuando se usa desde una base sólida. Pretender que la herramienta anula al artesano es no entender que el fuego no compite con el alfarero sino que lo transforma y completa y mejora.
Conclusión del MIT: cuanto más ayuda externa, menos piensa el humano. Ahora bien, ¿es eso una tragedia o una oportunidad? Eso equivale a decir que es mejor resolver raíces cuadradas a mano que usar una calculadora Casio. Los usuarios de GPT no recuerdan sus ensayos. ¿Y qué? Tampoco recordamos ya los números de teléfono, ni la fecha de una batalla napoleónica. La mente humana ha externalizado la memoria en dispositivos desde que existe la escritura. No recordar no es fallar, sino delegar lo accesorio para poder pensar lo esencial. Y el que quiera hacer acrobacias con su pensamiento, que se ponga, no está prohibido. La IA no destruye, sino que potencia al humano entrenado. No es una silla de ruedas cognitiva, sino un trampolín. ChatGPT no atrofia la mente humana, sino que le ofrece la posibilidad de dejar de pedalear cuesta arriba... para volar. Como filósofo, prefiero una mente que vuela con la IA a una que gatea por orgullo académico. No por casualidad, los mismos que antes se oponían a las calculadoras, ahora quieren frenar la IA. No es que ChatGPT nos vuelva estúpidos. Es que deja en evidencia quién ya lo era.
Suscríbete para seguir leyendo
- Un municipio de Tenerife adopta medidas drásticas por la emergencia hídrica: prohibido utilizar el agua para llenar piscinas y lavar vehículos
- Conducción temeraria en Canarias: dos jóvenes convierten las carreteras en circuitos de carreras
- Gara Lorenzo: 'Compañeros que han hecho también la Transvulcania dicen que salir de enano es peor
- Un barrio de Tenerife tira el 'txupinazo' y celebra su propio encierro de toros por San Fermín
- Nieves y Jose, un amor con la magia de la Bajada de La Palma
- Grave un joven motorista por una caída en una peligrosa carretera en Tenerife
- Tenerife, prepárate: Solo quedan 6 días para vivir el festival más impresionante del año
- Soluciones al puerto más saturado de Canarias: Los Cristianos tendrá nueva terminal, más aparcamientos y acceso soterrado