Esta historia empieza en mi email. Y en el tuyo. Empieza con una gramática tan correcta que da grima. Con clichés sacados de algún libro barato. Empieza con este mensaje que abro en mi bandeja de entrada: «Imagina: es un fin de semana de marzo, ... los días se calientan, la primavera florece y estás a punto de vivir tu próxima aventura. Como en una novela de Dickens, el tú del futuro agradecerá al tú del pasado por haber aprovechado la ocasión en el momento justo».
Dan ganas de preguntar: «¿Hay alguien ahí?». Y después de pensar: «Prefiero que no».
Hace años que el folio en blanco ha dejado de ser un problema para la gran mayoría de la población. A estas alturas, uno de cada seis habitantes de este planeta usa inteligencia artificial, y en España el porcentaje sube hasta el cuarenta por ciento, según el informe 'Global AI Adoption in 2025' de Microsoft, publicado en enero. Por eso cada vez más la pregunta es:
—Solo cuando tengo que escribir en inglés.
«Como hablante no nativo de inglés, utilizo ChatGPT con regularidad. En cierto momento, empecé a sentir que mi propia forma de hablar y escribir se estaba volviendo similar al estilo de ChatGPT. Empecé a preguntarme si era una impresión mía o había más gente que notara lo mismo», cuenta a ABC el investigador Hiromu Yakura.
Benjamín Labatut: «Tenemos que empezar a soñar nuevos apocalipsis»
Esa duda se convirtió con el tiempo en un estudio del Instituto Max Plank de Berlín, que analizó 360.000 vídeos de YouTube y 771.000 episodios de pódcasts publicados antes y después de la irrupción de ChatGPT, a finales de 2022. El resultado fue la confirmación de su sospecha, al menos en el universo anglosajón: de pronto, se habían popularizado palabras y giros que no estaban tan presentes en internet antes de que la inteligencia artificial llegara a nuestras vidas. ¿Por ejemplo? Comprender (comprehend), ahondar (to delve), presumir (boast) y meticuloso (meticulous), entre muchas otras. Son lo que han bautizado como palabras GPT. La huella que deja la IA cuando la usamos: los vicios que estamos heredando.
«Es como que de repente ves una serie de clichés de lo que es 'escribir bien'. Algunos investigadores ya comenzaron a investigar el impacto de esto en textos escritos (por ejemplo, artículos científicos), y ya se veía una gran huella desde el principio, de gente que usaba ChatGPT para escribir o reformular texto en inglés», dice el físico Ezequiel López, que también ha participado en el estudio del Max Plank.
En junio de 2025, la revista 'Science Advances' publicó un artículo en el que afirmaba que la huella de la IA en los papers académicos ya era mayor que la de la pandemia del Covid-19. Era el resultado de un análisis de más de 15 millones de resúmenes biomédicos fechados e indexados por PubMed entre 2010 y 2024, y que dejó dos grandes conclusiones. Una: «La aparición de los LLM [Large Language Model, la tecnología que ha permitido la explosión de ChatGPT y el resto de IA] provocó un aumento abrupto en la frecuencia de ciertas palabras de estilo». Dos: «Al menos el 13,5% de los resúmenes de 2024 se procesaron con LLM». Y el bonus track: «Es un impacto sin precedentes».
El paper de 'Science Advances' viene a constatar un cambio en la escritura académica: de pronto, se ha llenado de palabras de estilo, o sea, de relleno. Hay ejemplos tan rocambolescos como reales: «Al ahondar meticulosamente en la intrincada red que conecta [A] y [B], este capítulo exhaustivo analiza en profundidad su participación como factores de riesgo importantes para [C]». O: «Una comprensión completa de la compleja interacción entre [A] y [B] es fundamental para desarrollar estrategias terapéuticas eficaces».
—Hola, Chat. ¿Es verdad que has llenado los papers académicos con expresiones vacías?
—Los modelos de lenguaje tendemos a usar conectores, adjetivos enfáticos y fórmulas retóricas que pueden sonar elegantes pero aportar poca información si no se editan. Por eso conviene revisar y recortar—, responde GPT, como siempre dando la razón.
Tommie Juzek, profesor de Lingüística Computacional en la Universidad Estatal de Florida, ha desarrollado un sistema automático para identificar palabras sobreutilizadas por la IA en comparación con el habla humana, y que ha utilizado para este reportaje. «Estas son algunas palabras superfluas que están sobreutilizadas en la redacción de noticias en español: imborrable, multidisciplinario, fortalecer, entrelazar, significativo, intensificar, importancia, implementar, desafío, enfatizar», cuenta.
La gente no solo utiliza la IA para escribir, sino también para pulir guiones de conferencias o intervenciones en público: muchos han empezado a hablar como dictan las máquinas. «Nosotros empezamos analizando vídeos y pódcasts en los que participaban académicos. Cuando detectamos señales lingüísticas medibles en su habla, fue el momento en que nos dimos cuenta de que el cambio podría ser sistemático y no una simple anécdota –subraya Yakura–. Esto es muy interesante, porque supone no ya una edición superficial del texto, sino una interiorización del mismo. El cambio no es dramático, pero sí estadísticamente relevante».
«Estas son algunas palabras superfluas que están sobreutilizadas en la redacción de noticias en español por la IA: imborrable, fortalecer, entrelazar, significativo, intensificar...»
Para entender cómo hablan las IA, apunta Juzek, hay que recordar que estas se entrenan en cuatro fases: entrenamiento con grandes cantidades de datos (pretraining), ajuste mediante instrucciones (para convertirlos en asistentes útiles), aprendizaje a partir de retroalimentación humana y ajuste fino para tareas específicas.
«En general, el aprendizaje basado en preferencias humanas mejora mucho los modelos, pero parece introducir este patrón de sobreuso de ciertas palabras. Cómo se realiza exactamente este aprendizaje por preferencias es, en sí mismo, una historia interesante, porque muchas empresas de IA no son muy transparentes al respecto. Básicamente, se muestran diferentes respuestas a evaluadores humanos, y estos indican sus preferencias («la respuesta A es mejor», etc.). Este proceso suele subcontratarse en lo que se llama el Sur Global, donde los trabajadores a menudo trabajan en condiciones precarias». También son personas para las que el inglés no es su lengua nativa, y que tienen muletillas que no son naturales para los hablantes nativos, entre otros dejes. Por ejemplo: en Nigeria y Kenia, el verbo 'to delve' se usa con más frecuencia que en Estados Unidos y Reino Unido. Y ese es, precisamente, el gran verbo GPT.
Hay quien está estudiando ya qué diferencia nuestra lengua de las de las inteligencias artificiales. La investigadora Lara Alonso Simón, de la Complutense, que está dedicando su tesis doctoral al tema, ya tiene algunos datos del ámbito español, que avanza para ABC Cultural. Gemini y la familia GPT (GPT3.5 y GPT4) utilizan más adjetivos que los humanos; la primera un 3,6% más, y la segunda un 2%. Con los adverbios, en cambio, sucede al revés: los humanos los usamos un 1,5% más que las máquinas. Gemini también usa más sustantivos que nosotros (sobre un 2% más).
«Otro rasgo muy característico es que en español los LLM utilizan mayor número de oraciones que los humanos, aproximadamente entre un 1% (familia GPT y Claude) y un 1,5% (Gemini) más. Esto es porque las oraciones de los humanos son más complejas, contienen más oraciones subordinadas que las de las máquinas», afirma Ana Fernández-Pampillón, que dirige esta tesis y es codirectora del proyecto Robot-Talk.
Ella explica que el flujo de información de las máquinas es mucho más regular y previsible. «Las IA apenas alteran el orden sintáctico canónico. Además, cuando se les deja libertad no hay mucha riqueza de ideas. Un texto presenta una idea, o dos, o tres, que tienen que ver con el 'promt', con lo que nosotros le pedimos, pero se quedan ahí: no hay más desarrollo ni creatividad. Tienen una estructura rígida: hay un planteamiento general, un desarrollo intermedio –con inicio, medio y final– y siempre acaban con una recapitulación. Todo es muy regular, la progresión temática es muy limitada. Si no se modifica, uno rápidamente puede ver si el texto es de una máquina o de un hombre», subraya. «Además, el uso de pronombres es muy limitado. Claro, porque realmente no entienden nada».
«No creo que las IA que usamos vayan a escribir mejor desde el punto de vista lingüístico. Les queda poco más con que entrenarse»
Los de la IA son textos correctos, tanto que son aburridos. Ya en 2023, antes de que ChatGPT celebrara su primer cumpleaños, Gary Shteyngart, escritor y crítico de 'The Guardian', vino a decir que la prosa de Walter Isaacson era casi tan sosa como la de la IA. Hablaba de la biografía de Elon Musk... «Isaacson proviene de la escuela de escritura llena de clichés donde a alguien 'se le iluminan los ojos'; el resto de su prosa, de factura profesional, raya en la IA».
—¿Y va a mejorar la escritura de las IA?— le preguntamos a Fernández-Pampillón.
—No creo que las IA que usamos vayan a escribir mejor desde el punto de vista lingüístico. Les queda poco más con que entrenarse. Se podrían hacer ajustes finos, pero no compensa económicamente. Estas máquinas ya dialogan sin apenas problemas con las personas y trabajan muy bien con el lenguaje humano: resumen, traducen, redactan… No merece la pena entrenarlas para que sean mejores y más finas lingüísticamente. Y además, existe un peligro: cuando entrenas a una IA para una cosa en particular, se puede desentrenar para otra. Son redes con pesos estadísticos. Si la entrenas para una cosa específica puede olvidar parámetros para otra tarea general.
En la Universidad Swinburne de Tecnología (Australia), pidieron a 320 personas que escribieran un anuncio de un sofá. A continuación, les enseñaron lo que había hecho ChatGPT. Nadie les dijo que lo imitaran, pero después de verlo los participantes escribieron anuncios más redundantes y más largos: el promedio después de leer a la IA fue de 87 palabras, frente a las 33 de sus textos originales.
Es como si la IA nos volviera más inseguros, también más perezosos, al menos mentalmente. Así lo constató un estudio del MIT, 'Your Brain on ChatGPT', que comparó la actividad cerebral de quienes trabajan por sí mismos con los que se apoyaban en Google y con los que usaban ChatGPT: los que usaban la IA tenían una actividad cerebral mínima, con muchas menos conexiones que los otros dos grupos. De hecho, el 80% no fue capaz de citar nada de lo que presuntamente había escrito.
No es el único efecto adverso. En el artículo de 'Science Advances' que analizaba la huella de la IA en la academia alertaba al final: «Los científicos usan la escritura asistida por LLM porque LLM puede mejorar la gramática, la retórica y la legibilidad general de sus textos, ayudar a traducir al inglés y generar resúmenes rápidamente. Sin embargo, los LLM son famosos por inventar referencias, proporcionar resúmenes inexactos y hacer afirmaciones falsas que suenan autoritarias y convincentes. Si bien los investigadores pueden notar y corregir errores fácticos en los resúmenes asistidos por LLM de su propio trabajo, puede ser más difícil detectar errores en las revisiones bibliográficas o secciones de discusión generadas por LLM».
«Puede que en el futuro usemos más variedad de palabras para describir una menor variedad de ideas. Y eso sí puede ser una pérdida»
«Yo diría que en la ciencia, quienes no son hablantes nativos de inglés han tenido históricamente una gran barrera, y la IA puede igualar un poco las condiciones». «Y no solo es beneficiosa ahí. En muchos contextos existe un protocolo lingüístico muy estricto (el lenguaje jurídico, administrativo, institucional), y la IA es muy buena ayudando a seguirlo. Si la usamos con responsabilidad, tiene mucho potencial. Si la usamos con pereza, puede volverse en nuestra contra».
¿Y va a cambiar nuestra forma de hablar? Ahora responde el físico Ezequiel López. «Yo creo que puede existir el riesgo de que en el futuro usemos más variedad de palabras para describir una menor variedad de ideas. Y eso sí puede ser una pérdida».
—Chat, escríbeme un cierre para este reportaje periodístico de no más de cincuenta palabras.
—Al final, el riesgo no es que las máquinas hablen por nosotros, sino que terminemos repitiendo sus palabras sin pensar, llenando nuestro lenguaje de estilo y vacíos, y dejando que la riqueza de nuestras ideas se diluya entre conectores y adjetivos prestados.
—Quizá no acabemos hablando como las máquinas… Pero sí repitiendo sus palabras, con estilo y vacío, mientras nuestras ideas se quedan en silencio.
El convento del siglo XVII de Almagro donde dormir entre claustros y despertar en el Siglo de Oro
El aviso de los expertos aceiteros sobre el futuro precio del aceite de oliva: «No habrá existencias en el mes de octubre...»
Noelia Márquez, la onubense que sacó un 13,2 en Selectividad y no entró en la carrera: «No volvería a estudiar bachillerato»
Adiós al Mercadona de siempre: Juan Roig confirma un importante cambio en todas sus tiendas a partir de este año
El Tribunal Supremo vuelve a dar la razón a Babia: Mieres no puede celebrar allí sus fiestas
Caixabank avisa del cambio para sus clientes al pagar en comercios con tarjeta
«Existen las sincronicidades; un día pensaba en una persona mientras esperaba en el aeropuerto y estaba sentado a mi lado»
Los AirPods 4 caen un 25% y su cancelación de ruido ya no es solo para bolsillos premium
Aznar, convencido de si Pedro Sánchez va a convocar pronto elecciones generales en España
Ana Iglesias, madre de 10: «Entre hipoteca, suministros, gasolina y alimentación gastamos 9.000€ al mes»
Esta funcionalidad es exclusiva para suscriptores.
La neolengua de la IA: así nos hipnotiza la verborrea de las máquinas
La neolengua de la IA: así nos hipnotiza la verborrea de las máquinas