
En pocos años, la inteligencia artificial (IA) pasó de ser una curiosidad tecnológica a una herramienta presente en la vida diaria: nos traduce conversaciones en tiempo real, redacta mensajes y hasta sugiere cómo mejorar un texto. Pero su avance ha alcanzado un terreno delicado: la escritura de artículos científicos. ¿Qué opinan los propios investigadores sobre esto?
Para averiguarlo, la revista Nature encuestó a más de 5 000 científicos de todo el mundo. El resultado fue claro: no hay consenso. Mientras que algunos ven en la IA un aliado útil, otros consideran su uso problemático, incluso inaceptable.
La mayoría de los encuestados, más del 90 %, según Diana Kwon en un texto de 2025 publicado en Nature, considera admisible emplear IA para editar o traducir un artículo, es decir, que una imitación de la inteligencia biológica pula el estilo o ayude a llevar un texto del español al inglés. Sin embargo, cuando se trata de generar contenido nuevo, las opiniones se dividen: 65 % lo ve ético, pero un tercio se opone. Y cuando la pregunta fue sobre usar IA para redactar un informe de revisión por pares, una tarea clave para validar investigaciones, la desaprobación fue mayoritaria: más del 60 % la rechazó.
Curiosamente, aunque muchos creen que estas prácticas son aceptables, pocos las han puesto en marcha. Sólo 28 % reconoció haber usado IA para editar un artículo, y apenas 8 % para escribir borradores o traducir. Y casi ninguno lo reveló en sus publicaciones. Aquí aparece otro punto conflictivo: ¿debe declararse el uso de IA? Algunos opinan que no, porque pronto será tan común como usar Excel. Otros creen que ocultarlo es una forma de fraude.
Las posturas también varían según la edad y el lugar. Los investigadores jóvenes son más propensos a ver la IA como algo normal. Y en países no anglófonos, donde publicar en inglés supone una barrera, la IA se percibe como una ventaja justa. Detrás de estas diferencias se esconden preocupaciones mayores: ¿afecta la IA a la calidad de la ciencia? ¿Genera plagio, citas falsas o “basura bien formulada”? ¿O, por el contrario, nivela las condiciones para quienes no dominan el inglés?
Las editoriales tampoco se ponen de acuerdo. Algunas piden a los autores detalles precisos sobre cómo usaron IA. Otras optan por una postura más flexible, que apela a la responsabilidad del autor. Todas coinciden en un punto: la IA no puede figurar como autora, porque no asume responsabilidad.
Lo que sí parece claro es que el debate apenas empieza. Como resume un investigador citado por Nature, usar IA puede ahorrar tiempo, pero también priva al científico de aprender en el proceso de escribir y revisar. La pregunta que queda abierta es hasta dónde dejar entrar a ese “coautor invisible” sin perder la voz crítica y humana detrás de cada aporte.
¿Qué pierde la ciencia cuando gana la máquina?
Imagina que entras a una librería y hojeas varios libros de distintas editoriales, autores y países. De pronto notas que, aunque los temas cambian, todos “suenan” igual: mismas frases, mismos giros, misma cadencia. Ese es uno de los temores centrales con la IA en la ciencia: la homogeneización del lenguaje.
Un estudio reciente de un equipo de la Universidad de Stanford, a partir de una muestra de más de un millón de artículos, mostró que los escritos que más se parecen entre sí suelen ser los que tienen mayor huella de IA. Es lógico: al entrenarse con millones de textos, los modelos de lenguaje tienden a producir frases estándar, claras y gramaticalmente impecables… pero uniformes. Y en la ciencia, la diversidad expresiva no es un lujo: refleja distintos modos de pensar, de acercarse a los problemas, de plantear hipótesis.
La uniformidad puede dar la ilusión de claridad, pero corre el riesgo de volver plana la riqueza intelectual que surge cuando múltiples tradiciones académicas se encuentran.
Una ventaja paradójica
Para los investigadores de países no anglófonos, la IA es una tabla de salvación. Publicar en la lengua franca de la ciencia, el inglés, no sólo exige dominar un idioma extranjero, sino hacerlo con el estilo y la precisión que esperan los revisores y los editores. Muchos jóvenes científicos en México, Brasil, Alemania o China sienten que su carrera depende tanto de sus ideas como de su habilidad para escribir en inglés.
Aquí entra la IA como muleta lingüística: traduce, pule, corrige. Gracias a ella, los artículos de más equipos logran entrar en la conversación global. Pero, al mismo tiempo, esta ayuda refuerza la hegemonía del inglés y de los estilos anglosajones. Paradójicamente, lo que democratiza el acceso también puede reducir la pluralidad cultural.
Hay que recordar que la noción de autoría científica siempre ha sido compleja. Desde hace décadas, los artículos tienen decenas o incluso centenares de firmantes (el récord actual es de un artículo sobre efectos del COVID-19 con 15 025 autores), donde no siempre es claro quién hizo qué. Con la IA, el problema se complica aún más.
Si bien la IA no puede asumir responsabilidades autorales ni hacer frente a cuestionamientos éticos, omitir su papel en la escritura académica plantea otra dificultad: ¿qué pasa cuando buena parte de la claridad de un artículo se debe al trabajo de un algoritmo?
Algunos editores proponen nuevas categorías, como notas de contribución técnica, donde se detalle si se usó IA y cómo. Sería un equivalente a declarar un conflicto de interés: no porque esté prohibido, sino porque la transparencia es clave para que los lectores evalúen la validez de lo que leen.
En una revisión manual de 200 artículos de informática publicados en arXiv en 2024, sólo dos reconocieron haber usado IA, aunque el análisis del grupo de Stanford sugirió que casi una quinta parte mostraba huellas claras de ella. Este silencio no es casual: muchos autores temen que admitir su uso le reste mérito a su trabajo o cause problemas con editores que aún prohíben explícitamente el uso de IA.
La falta de transparencia genera un vacío: si no sabemos qué tanto intervinieron las máquinas, se vuelve más difícil evaluar la originalidad y el aporte real de un trabajo. Para los revisores, la tarea se complica. ¿Qué tan justo es rechazar un texto porque “suena a ChatGPT” si nadie está obligado a confesar su uso? Ante esto, algunas revistas y editoriales académicas de prestigio (como Cell, Lancet, JAMA) han desarrollado políticas editoriales que requieren explícitamente que los autores declaren el uso de herramientas de inteligencia artificial en la preparación de sus manuscritos, el propósito con el que se utilizó y el nivel de supervisión humana.
Universidades y formación: un espejo de la ciencia
Lo que ocurre con los investigadores se refleja en la vida estudiantil. En muchas preparatorias y universidades, algunos alumnos ya usan IA para redactar ensayos, traducir fragmentos de artículos o resumir lecturas. La tentación es clara: en minutos se obtiene un texto limpio, sin faltas de ortografía y con frases elegantes.
Pero algunos docentes advierten de un riesgo: la pérdida de habilidades críticas. Escribir no es sólo poner palabras en fila; es aprender a organizar ideas, argumentar, persuadir. Si los estudiantes delegan esta tarea a un chatbot, ¿qué pasará cuando enfrenten la necesidad de pensar y explicar por sí mismos?
Algo similar ocurre con los científicos. La escritura es parte del proceso de razonamiento. Convertirla en una tarea mecánica, subcontratada a un algoritmo, puede empobrecer la formación de nuevas generaciones. Además, no todos tienen la misma facilidad para usar IA. Las versiones más potentes de estos programas son las que deben pagarse. Así, los investigadores de instituciones con menos recursos pueden quedar en desventaja frente a los colegas de universidades con mayores presupuestos.
Paradójicamente, quienes más necesitan la ayuda, los no anglófonos y los jóvenes investigadores, son a menudo los que enfrentan más barreras económicas para acceder a los mejores sistemas, como lo menciona Tatsuya Amano y colaboradores en su trabajo de 2023. De esta manera, la herramienta que prometía nivelar el terreno puede terminar ampliando las brechas.
Entre la ayuda y el fraude
Otro punto delicado es la ética. ¿Dónde está la línea entre usar IA como apoyo legítimo y caer en el engaño? Para algunos, pedirle a ChatGPT que traduzca un párrafo es tan aceptable como usar un diccionario. Para otros, dejarle redactar la conclusión de un artículo roza el fraude. El problema es que aún no existe un marco claro y consensuado. Hay editoriales que piden a los autores detalles específicos sobre el software usado y cómo lo utilizaron, otras solo recomiendan transparencia. Y hay quienes, como la revista Science, que prohíben el uso de IA en la redacción.
Esta diversidad de políticas refleja la incertidumbre del momento: la ciencia sabe que debe adaptarse, pero todavía no define las reglas del juego.
Es fácil caer en extremos: ver la IA como un monstruo que arruinará la ciencia o como un ángel que resolverá todos los problemas. La realidad, como casi siempre, es más compleja.
Usada con cuidado, la IA libera tiempo a los investigadores, facilita la comunicación internacional y corrige desigualdades lingüísticas. Usada sin control, amenaza con uniformar el pensamiento, erosionar la originalidad y consolidar dependencias de corporaciones privadas.
La clave está en diseñar estrategias de convivencia responsable. Igual que en su momento ocurrió con la calculadora, la estadística o el microscopio, la IA debe ser integrada con criterios claros, sin que sustituya la parte esencial: la creatividad y la crítica humanas.
Es así que el futuro inmediato de la ciencia dependerá de cómo resolvamos algunas preguntas que hoy siguen abiertas:
- ¿Cómo equilibrar accesibilidad y diversidad en un mundo donde la IA homogeneiza el lenguaje?
- ¿Qué políticas deben adoptar las revistas para distinguir entre usos aceptables y problemáticos?
- ¿Cómo formar a estudiantes e investigadores en un entorno donde escribir con IA será la norma, no la excepción?
- ¿Qué riesgos implica depender de empresas privadas que entrenan y controlan los modelos más usados?
Responder a estas cuestiones no será tarea de unos pocos expertos, sino de la comunidad científica y, en buena medida, de la sociedad entera.
¿Qué hacemos con este coautor invisible?
La historia de la ciencia está llena de herramientas que revolucionaron la manera de investigar: el microscopio, el telescopio y la estadística moderna. Hoy, el turno es de los modelos de lenguaje. Negar su existencia sería ingenuo; usarlos sin reflexión resulta peligroso. Lo que se necesita es una conversación abierta sobre cómo aprovechar lo mejor de la IA sin perder la voz humana que hace de la ciencia un proyecto colectivo, creativo y crítico.
Al final, lo que está en juego no es sólo cómo se escriben los artículos, sino qué entendemos por ciencia, conocimiento y por comunidad en un mundo cada vez más mediado por algoritmos.
Raúl Marcó del Pont Lalli
Editor de publicaciones académicas