
La Oxford University Press, editorial tan reconocida como antigua, mantiene una curiosa tradición: la palabra del año. Nos da un concepto que define el ciclo orbital por completarse. Pero no es una selección arbitraria, sino que debe ser un espejo de las preocupaciones, tendencias y transformaciones socioculturales que marcaron esos últimos doce meses y se presenta al final del año en curso.
En 2021, la palabra elegida fue “vacuna”; y si vamos a 2020, varias relacionadas con la pandemia. Así, se pretende encerrar en un término el espíritu de la época y, ahora que nos sabemos tan atravesados por la tecnología, se debe hacer eco de ello.
A inicios de diciembre de 2024, la editorial anunció que, tras una votación pública con más de 37.000 participantes, la palabra del año sería brain rot —que se puede traducir como “podredumbre cerebral”—. Suena exagerado, quizá delirante, pero el concepto y sus implicaciones mantienen preocupados a curiosos y expertos, pues hace referencia al desgaste cognitivo y emocional que provoca el consumo excesivo de contenido digital de baja calidad.
La “podredumbre” se menciona a menudo en TikToks, publicaciones en redes sociales y hasta en medios de comunicación. No describe un proceso biológico —como la autólisis, donde el cerebro se degrada tras la muerte—, sino un deterioro más subliminal, que impacta en nuestra atención, memoria y bienestar mental.
En tiempos de surcar la hiperconectividad, no es menor la preocupación: la combinación de entretenimiento breve (reels, TikToks) con la irrupción de la inteligencia artificial generativa —capaz de crear textos, imágenes o música a partir de indicaciones sencillas— transformó la educación, desde tareas escolares hasta ensayos universitarios. Para algunos internautas reacios a la IA, se trata de la antesala de esa temida “podredumbre cerebral”.
Basta asomarse a la ventana de X (antes Twitter) para toparse con docentes que se lamentan de los ensayos acartonados, de las respuestas robotizadas, de esa voz que es de nadie y de todos. Entre tanto, la discusión se polariza: unos exigen prohibición total de estas herramientas; otros piden una integración más ética, más humana.
Puede que sintamos todo esto como una novedosa y avasallante sorpresa, pero esta discusión no es tan emergente como parece. En realidad, cada nueva tecnología ha sido el chivo expiatorio de una generación. Un día fue la calculadora, vista como una trampa que nos dispensaba del esfuerzo matemático; otro, Internet que, a través de páginas como Wikipedia, nos abrió las puertas a una biblioteca “inacabable”. Hoy, en el banquillo de los acusados, se sientan ChatGPT, Gemini y otras IA generativas. Lo que cambia, entonces, será el tipo de tarea que se nos exige. Voy a elaborar esta parte: así como dejamos de hacer sumas kilométricas para usar una calculadora, la IA nos «libera» de labores básicas, pero, en su lugar, demandará un nuevo tipo de “músculo mental”. Tomará algo de nosotros.
Experimentos y conclusiones… ¿apresuradas?
Volvamos a la llamada podredumbre cerebral. Un grupo de investigadores del Instituto Tecnológico de Massachusetts (MIT) publicó un artículo sobre los posibles riesgos del uso de la inteligencia artificial generativa, que durante semanas ocupó titulares y fue replicado en múltiples medios. Tomemos este ejemplo para revisar qué planteaba realmente el estudio y hasta qué punto podemos afirmar que hubo un declive cognitivo tan marcado como se difundió.
El experimento se desarrolló durante cuatro meses con 54 participantes adultos (estadunidenses), de entre 18 y 39 años. Se les pidió redactar ensayos empleando tres métodos distintos: con apoyo de una IA, mediante un buscador como Google o desde cero. Para medir la participación cognitiva —es decir, la disposición mental para afrontar una tarea de aprendizaje— los investigadores recurrieron a registros de la actividad eléctrica cerebral y al análisis lingüístico de los textos producidos.
Los resultados revelaron que la participación cognitiva de quienes usaron IA fue significativamente menor que la de los otros dos grupos. Posteriormente, cuando estos participantes tuvieron que escribir un ensayo final sin asistencia de la IA, su desempeño fue el más deficiente. Los autores lo describen como una “deuda cognitiva”, sugiriendo que, cuando finalmente tuvieron la oportunidad de usar sus cerebros, no pudieron rendir tan bien como los otros dos grupos (el de Google y el que escribió desde cero). Es decir, una disminución de ciertas capacidades mentales, consecuencia del desuso.
Pero simplificar así los hallazgos puede llevar a conclusiones apresuradas. Varios investigadores han señalado que la baja participación cognitiva podría no deberse únicamente al uso de la IA, sino también a un efecto de familiarización. La primera vez que realizamos una tarea suele parecer pesada, pero con la repetición se vuelve más ligera: se activa la clásica curva de aprendizaje. No sólo dominamos mejor la operación, también —de manera muy humana y luminosa— descubrimos atajos y estrategias más eficientes.
La frase work smart, not hard cobra, para mí, mucho sentido. Y parece ser la dirección hacia la que se mueve nuestro cerebro. Una ruta trazada por años de evolución.
Si aplicamos esta lógica al experimento del MIT, la diferencia clara es que el grupo que trabajó con IA sólo redactó un ensayo sin ayuda una vez, en la prueba final. En cambio, los otros grupos tuvieron varias oportunidades de practicar la tarea a lo largo del estudio. Más que un declive cognitivo evidente, lo que vemos podría ser simplemente el reflejo de esa exposición desigual.
IA, ¿amiga o enemiga?
¿Significa esto que podemos utilizar la IA sin riesgo alguno para nuestra salud? No del todo. Este es solo un modo de entender los estudios del MIT para evitar caer en sensacionalismos pero, ciertamente, el uso generalizado de internet y las redes sociales ya ha debilitado nuestra relación con el conocimiento al reducir la participación en actividades académicas y sociales, así como al interferir con el sueño o reducir la oportunidad de participar en el pensamiento creativo, como señalan distintas investigaciones.
Contrario a lo que afirman sus partidarios tecno-optimistas, el camino de la IA quizá no sea tanto por la democratización del conocimiento, sino hacia la creación de una ilusión generalizada de este. Nuestra experiencia al aprender –con la IA como intermediaria– puede verse erosionada, y los conocimientos que deberíamos construir de manera crítica y minuciosa se resumen en un bonche de datos que no terminamos de entender (para empezar, ¿hicimos el esfuerzo de entenderlos?).
Y cuando la IA falla —dibujar un perro con cinco patas, escribir frases sin sentido, dar citas inventadas— queda en evidencia lo más inquietante: no entiende, sólo reconoce patrones y predice. El verdadero problema aparece cuando aceptamos esas respuestas sin capacidad (o sin voluntad) de discernir. Ese ejercicio de elegir y refinar es profundamente humano, y entregarlo a una máquina sería una renuncia peligrosa.
Hace poco, The Atlanticrelató un caso casi distópico: jóvenes usaban ChatGPT para redactar solicitudes de empleo, mientras los reclutadores las evaluaban con IA. El resultado: las contrataciones no se concretaban.
Con este relato final quiero que nos arremolinemos en la reflexión. Dada la importancia de las IA, todos deberíamos formarnos una opinión sobre el futuro de esta tecnología y comprender cómo su desarrollo está transformando nuestro mundo. Y en una época donde la inmediatez tiende a sustituir al criterio, detenernos a cuestionar qué hacemos con la IA –y qué hace ella con nosotros– podría ser la forma más lúcida de resistencia.
Mariana Mastache-Maldonado
Bióloga por la UNAM y miembro de la cuarta generación de su Unidad de Investigaciones Periodísticas. Investiga sobre ambiente, neurociencias y epigenética. Realiza comunicación científica en medios nacionales e internacionales.