Martes, 28 de abril de 2026 Mar 28/04/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Economía

Quién es el responsable legal cuando la IA genera información falsa

Quién es el responsable legal cuando la IA genera información falsa
Artículo Completo 1,231 palabras
En la UE, los errores de la IA no tienen una categoría propia de responsabilidad en la normativa. Prevenir alucinaciones es una garantía comercial para los sistemas de uso general. Leer
TECNOLOGÍAQuién es el responsable legal cuando la IA genera información falsaActualizado 27 ABR. 2026 - 21:06

En la UE, los errores de la IA no tienen una categoría propia de responsabilidad en la normativa. Prevenir alucinaciones es una garantía comercial para los sistemas de uso general.

"Lamentamos profundamente lo sucedido". Así se expresaba Andrew Dietderich, director del departamento de reestructuraciones de Sullivan & Cromwell, en una carta dirigida la semana pasada al juez federal de Nueva York Martin Glenn por errores cometidos por la plataforma de inteligencia artificial que usó el despacho para elaborar unos documentos de un caso de uno de sus clientes que incluían citas erróneas de la legislación estadounidense.

Además del evidente daño reputacional para uno de los bufetes de la élite de Nueva York, este caso ha planteado dudas sobre qué hubiera pasado en Europa, donde la normativa sobre la IA es mucho más avanzada.

El caso de Sullivan & Cromwell ilustra un problema jurídico aún en construcción, donde la clave no está tanto en la alucinación -como se denominan los errores que cometen las IA en sus respuestas- como en la cadena de responsabilidades que se activa cuando estos errores llegan a salir de los meros borradores.

En el marco europeo, no existe una categoría autónoma de "responsabilidad por alucinaciones". Como explica Juan Carlos Guerrero, socio de propiedad intelectual (PI) y tecnología, medios y telecomunicaciones (TMT) de Ecija, "ésta se construye encajando el daño en los regímenes clásicos de responsabilidad". Es decir, el análisis se traslada a los terrenos de la responsabilidad contractual, extracontractual o, en algunos casos, de producto defectuoso.

Además, continúa el experto de Ecija, hay que determinar "quién controlaba el riesgo en cada tramo de la cadena (proveedor, integrador, usuario profesional), qué deber concreto se incumplió (de información, de diseño diligente, de supervisión humana, etc.) y si puede probarse un nexo causal suficientemente sólido entre la salida falsa y el perjuicio".

Cuando el perjudicado por los supuestos errores cometidos por la IA es el propio usuario, el foco se sitúa en el contrato. "El punto de partida no es que la IA 'mintiera', sino si el proveedor incumplió lo que prometió", señala Guerrero, poniendo el acento en aspectos como la fiabilidad, las advertencias o la necesidad de supervisión humana. En este contexto, la prueba técnica resulta decisiva, ya que sin trazabilidad ni registros de uso, demostrar el fallo se vuelve especialmente complejo.

El escenario cambia cuando el daño afecta a terceros, como pueden ser los clientes de un despacho de abogados. En estos casos, suele imponerse la responsabilidad del profesional que utilizó la IA, ya que "el abogado no se limitó a consultar una herramienta, sino que convirtió una salida probabilística en un hecho procesal, presentando como jurisprudencia real algo que no lo era". Como explica Joaquín Muñoz, socio responsable de privacidad y protección de datos de Bird & Bird, la revisión de los outputs generados por la IA, "no es sólo una recomendación de buenas prácticas, sino una exigencia ética y jurídica".

En paralelo, aunque esta intervención humana -o falta de supervisión-, debilita el vínculo directo con el proveedor tecnológico, hay que tener en cuenta la reciente directiva europea que amplía el concepto de producto para incluir el software, aunque establece límites importantes. Como señala el socio de Ecija, "la información no se considera producto", lo que complica encajar ciertas alucinaciones dentro de este régimen.

En paralelo, el marco regulatorio europeo, en particular el Reglamento de IA, sí impone determinadas obligaciones a los desarrolladores para prevenir o mitigar las alucinaciones, aunque, según explica el socio de Bird & Bird, "las medidas más exigentes afectan principalmente a sistemas de alto riesgo". Estos modelos deben garantizar niveles adecuados de exactitud, solidez y ciberseguridad, así como implementar mecanismos de control, auditoría y gestión de riesgos a lo largo de todo el ciclo de vida del sistema, incluyendo la identificación y mitigación de errores previsibles. "Se les exige incluso que informen acerca de niveles de precisión en las instrucciones de uso del producto", añade.

No obstante, para los modelos de uso general, las obligaciones se centran principalmente en la transparencia y la documentación técnica, por lo que las obligaciones de previsión o mitigación de alucinaciones, según explica Muñoz, "son más una garantía comercial que una exigencia o garantía legal para los sistemas generalistas". Pero a pesar de ello, "el proveedor del sistema de IA es el primer interesado en que el sistema funcione correctamente", añade.

A pesar de estos mecanismos de prevención, "es importante entender los riesgos asociados a cualquier integración de un sistema de IA y gestionarlos consecuentemente", concluye Muñoz.

Consecuencias para un abogado por 'creer' todo lo que dice una IA

"Incumplimiento claro de deberes profesionales básicos". Así califica Juan Carlos Guerrero, socio de Ecija, cómo debería encajar en España un caso similar al de Sullivan & Cromwell.

"No estamos ante un simple error técnico, sino ante una quiebra de reglas esenciales del ejercicio de la abogacía, lo que abre tres frentes: responsabilidad disciplinaria colegial, posibles correcciones por parte del propio órgano judicial en el procedimiento y, en escenarios más extremos, incluso responsabilidad penal si concurren elementos adicionales (por ejemplo, dolo o engaño relevante)", aclara Guerrero, recordando que el abogado tiene el deber de actuar con veracidad, diligencia y lealtad ante los tribunales conforme al Estatuto General de la Abogacía Española y al Código Deontológico de la Abogacía Española. "Presentar como reales resoluciones que no existen rompe directamente ese estándar", subraya.

Además, dependiendo del caso, del perjuicio causado y de si se trata de un daño acreditable, "el cliente podría incoar una acción de responsabilidad civil por negligencia profesional", advierte Joaquín Muñoz, socio de Bird & Bird.

Las sanciones pueden ir desde una amonestación o multa hasta la suspensión del ejercicio (incluso superior a varios meses o años en casos graves), y en supuestos extremos, expulsión del colegio, según explica el socio de Ecija, aunque dependerá de muchos factores como la intencionalidad, la relevancia de la jurisprudencia falsa en el caso y, sobre todo, la reacción del abogado. En este sentido, como apunta Muñoz, el TSJ de Canarias ya impuso una multa de 420 euros a un letrado por citar hasta 48 sentencias inexistentes sugeridas por la IA.

El daño reputacional, según explica el socio de Bird & Bird, es otra de las consecuencias que evidencia una falta de rigor en el uso de herramientas de IA y en la supervisión del trabajo jurídico.

Garrigues ficha a Juan Grangel para liderar el área laboral en AragónDentons elige a Federico Sutti para liderar la firma en EspañaAcross Legal nombra socio a Marc Pereta Farré Comentar ÚLTIMA HORA
Fuente original: Leer en Expansión
Compartir