- PILITA CLARK
Pocas industrias han escapado a nuestro desafortunado mal uso de esta preocupante tecnología.
La gente, con razón, dedica mucho tiempo a preocuparse por si la IA será alguna vez lo suficientemente inteligente como para destruirnos. Pero ¿y si ya lo hace?
Esta reflexión surgió al revisar una lista que he estado preparando de errores notables de IA en 2025 o, para ser más precisos, de los humanos que se vieron perjudicados por el uso de lo que nos dicen que es la inteligencia artificial relativamente básica de hoy.
Aunque puede que la tecnología sea benigna, la lista sigue siendo un recordatorio de que nuestras cualidades humanas de pereza, avaricia y ambición nos convierten en presa fácil.
Esto es evidente en mi propio sector, donde el año comenzó con algunos usuarios de la app de la BBC recibiendo la noticia de que el gran tenista español Rafael Nadal había reconocido su homosexualidad.
Como informó la BBC, el resumen de noticias con esta información falsa había sido generado por una función de IA que Apple había implementado para los usuarios de sus iPhones. El gigante tecnológico decidió suspender la función, que también había emitido otras alertas falsas.
¿Qué tipo de presiones competitivas podrían haber motivado su lanzamiento? Esa es una pregunta que me planteé unos meses después, cuando el periódico Chicago Sun-Times afirmó haber aprendido la lección tras presentar a sus lectores una lista de libros para verano que incluía recomendaciones de obras que, por así decirlo, no existían.
La lista provenía de un profesional independiente que trabajaba con uno de los "socios de contenido" del periódico y había utilizado IA.
Solo unos meses después, en Pakistán, surgió otra disculpa del periódico Dawn por un artículo sobre ventas de coches que terminaba con una humillante sugerencia de IA que ofrecía hacer el artículo "aún más conciso" para lograr el "máximo impacto en el lector".
Es fácil cometer errores en el periodismo. Yo misma los he cometido con demasiada frecuencia. Pero es preocupante imaginar que una industria acosada por problemas financieros se vea cada vez más atraída por herramientas de IA que ahorran costes y que cometen aún más errores. Lo bueno es que las meteduras de pata en los periódicos rara vez nos llevan al hospital. No se puede decir lo mismo de la información de IA que un hombre usó para reducir su consumo de sal. Terminó hospitalizado por una afección conocida como bromismo, lo que llevó a los investigadores a advertir en agosto que el uso de IA para asesoramiento médico puede conducir a "resultados adversos que pueden evitarse".
El mundo de la medicina y los medios de comunicación no son los únicos.
La ley ha sufrido multitud de errores de IA.
En Australia, un abogado de alto rango se disculpó con un juez que presidía un caso de asesinato que se retrasó debido a presentaciones asistidas por IA que incluían citas ficticias y casos inexistentes. "A riesgo de quedarme corto", sentenció el juez, "la forma en que se han desarrollado estos eventos es totalmente insatisfactoria".
La base de datos que rastrea las decisiones legales relacionadas con las alucinaciones de IA ha encontrado casi 700 ejemplos desde abril de 2023, cinco meses después del lanzamiento público de ChatGPT.
¿Hay menos faltas en otros servicios profesionales?
Sospecho que los consultores se quedaron atónitos al leer la noticia de octubre de que Deloitte reembolsaría parte del pago de un informe de 290.000 dólares estadounidenses, plagado de errores, que la firma elaboró para el gobierno australiano y que fue producido en parte con IA.
Las consultoras, como tantas otras empresas, están invirtiendo millones en IA para mantener y aumentar su competitividad.
No hay excusa para el campo donde algunos de los errores más notables de la IA han seguido ocurriendo este año: la política.
No me refiero a la capacidad de la IA para difundir desinformación masiva y otras amenazas a la democracia. Se trata de la forma más mundana, pero preocupante, en que los políticos de todo el mundo han recurrido a esta tecnología tan polémica.
Pero la decisión más difícil de comprender se produjo en septiembre en Albania, donde el primer ministro Edi Rama presentó a un "ministro" generado por IA llamado Diella como miembro de su gabinete. Puede que sea una decisión simbólica, ya que la constitución del país exige que los ministros sean ciudadanos mayores de 18 años. Pero es desalentadora.
Ya es bastante difícil saber dónde se encuentra uno con un ser humano, a pesar de todos nuestros defectos y carencias. Con la IA, como estamos aprendiendo rápidamente, es prácticamente imposible.
© The Financial Times Limited [2025]. Todos los derechos reservados. FT y Financial Times son marcas registradas de Financial Times Limited. Queda prohibida la redistribución, copia o modificación. EXPANSIÓN es el único responsable de esta traducción y Financial Times Limited no se hace responsable de la exactitud de la misma.
'Los iguales se atraen': Cómo Jensen Huang se ganó a Donald TrumpAmazon renueva su equipo de IA tras anunciar su CEO un "punto de inflexión"¿Necesitamos una etiqueta que diga "hecho por humanos"? Comentar ÚLTIMA HORA-
01:54
El 'Streetfood' festivo de Dabiz Muñoz y Cañitas
-
01:44
Mucho autoengaño y ninguna autocrítica en el PSOE y el Gobierno
-
01:32
El auge de la IA dispara la emisión de bonos corporativos
-
01:25
Alken domina las rentabilidades de la Bolsa europea en 2025
-
01:17
Sabadell, el único banco con potencial tras el rally del sector