Domingo, 15 de febrero de 2026 Dom 15/02/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Tecnología

Hay gente compartiendo con la IA sus casos judiciales. El problema es cuando un juez considera como pruebas las conversaciones

Hay gente compartiendo con la IA sus casos judiciales. El problema es cuando un juez considera como pruebas las conversaciones
Artículo Completo 789 palabras
Cada vez son más los usuarios que tienen un chatbot con IA de compañero para todo, ya sea ChatGPT, Gemini, Claude, u otro cualquiera. El problema viene cuando decidimos compartir datos sensibles con este tipo de herramientas, sobre todo con modelos comerciales producidos por grandes tecnológicas donde siempre vamos a tener la duda de hacia dónde viajan nuestros datos. En este sentido, hay quienes comparten sus datos legales con el asistente, lo que puede desembocar en algo como ha ocurrido recientemente en Nueva York. Y es que un juez de la ciudad acaba de sentar un precedente histórico al considerar que cualquier conversación que se tenga con un chatbot es pública y por tanto no están protegidas por el secreto profesional abogado-cliente. Es decir: que todo lo que compartas con la IA puede acabar siendo usado en tu contra ante un tribunal. En Xataka La gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos El caso. Bradley Heppner, un ejecutivo acusado de fraude por valor de 300 millones de dólares, utilizó Claude, el chatbot de Anthropic, para consultar dudas sobre su situación legal antes de ser arrestado. Creó 31 documentos con sus conversaciones con la IA y posteriormente los compartió con sus abogados defensores. Cuando el FBI incautó sus dispositivos electrónicos, sus abogados reclamaron que esos documentos estaban protegidos por el privilegio abogado-cliente. El juez Jed Rakoff ha dicho que no. Por qué no. Tal y como comparte Moish Peltz, abogado especializado en activos digitales y propiedad intelectual, en una publicación en X, la sentencia establece tres razones. Primero, una IA no es un abogado: no tiene licencia para ejercer, no debe lealtad a nadie y sus términos de servicio niegan expresamente cualquier relación abogado-cliente. Segundo, compartir información legal con una IA equivale legalmente a contársela a un amigo, por lo que no está protegido por secreto profesional. Y tercero, enviar documentos ‘no privilegiados’ a tu abogado después no los convierte mágicamente en confidenciales. El problema de fondo. Así como recuerda el abogado, la interfaz de este tipo de chatbots genera una falsa sensación de privacidad, pero en realidad estás introduciendo información en una plataforma comercial de terceros que retiene tus datos y se reserva amplios derechos para divulgarlos. Según la política de privacidad de Anthropic vigente cuando Heppner usó Claude, la compañía puede revelar tanto las preguntas de los usuarios como las respuestas generadas a "autoridades gubernamentales reguladoras". Dilema. El documento judicial revela además un agravante: Heppner introdujo en la IA información que había recibido previamente de sus abogados. Esto plantea un dilema para la fiscalía, según cuenta Peltz. Y es que si intenta usar esos documentos como prueba en el juicio, los abogados defensores podrían convertirse en testigos de los hechos, lo que potencialmente forzaría la anulación del juicio. En Xataka Mistral no genera hype, es una IA discreta, no dispara las acciones de ninguna empresa, pero ya gana más dinero que Grok Qué significa para ti. Si estás involucrado en cualquier asunto legal, según esta sentencia, lo que compartas con una IA puede ser reclamado por un juez y usado como prueba. No importa que estés preparando tu defensa o buscando asesoramiento preliminar, ya que cada consulta puede acabar convirtiéndose en un factor en tu contra. Y no solo aplica a casos criminales: divorcios, disputas laborales, litigios mercantiles... cualquier conversación con IA sobre estos temas escapa de la protección legal. Y ahora qué. Peltz señala que los profesionales del derecho deben advertir explícitamente a sus clientes de este riesgo. No se puede asumir que la gente lo entienda intuitivamente. La solución que menciona pasa por crear espacios de trabajo colaborativos con IA compartidos entre abogado y cliente, así cualquier interacción con la inteligencia artificial ocurrirá bajo la supervisión del abogado y dentro de la relación abogado-cliente. Imagen de portada | Romain Dancre y Solen Feyissa En Xataka | Doblar la ropa o desmontar LEGOs ha sido siempre una tarea tediosa. La nueva IA de Xiaomi para robots le ha puesto fin - La noticia Hay gente compartiendo con la IA sus casos judiciales. El problema es cuando un juez considera como pruebas las conversaciones fue publicada originalmente en Xataka por Antonio Vallejo .
Hay gente compartiendo con la IA sus casos judiciales. El problema es cuando un juez considera como pruebas las conversaciones
  • Un juez de Nueva York ha sentado precedente al concluir que las conversaciones con la IA pueden ser utilizadas en tu contra en un tribunal

  • Y es que estas conversaciones no están protegidas por el secreto profesional abogado-cliente

1 comentarioFacebookTwitterFlipboardE-mail 2026-02-15T18:00:53Z

Antonio Vallejo

Editor

Antonio Vallejo

Editor Linkedintwitter384 publicaciones de Antonio Vallejo

Cada vez son más los usuarios que tienen un chatbot con IA de compañero para todo, ya sea ChatGPT, Gemini, Claude, u otro cualquiera. El problema viene cuando decidimos compartir datos sensibles con este tipo de herramientas, sobre todo con modelos comerciales producidos por grandes tecnológicas donde siempre vamos a tener la duda de hacia dónde viajan nuestros datos.

En este sentido, hay quienes comparten sus datos legales con el asistente, lo que puede desembocar en algo como ha ocurrido recientemente en Nueva York. Y es que un juez de la ciudad acaba de sentar un precedente histórico al considerar que cualquier conversación que se tenga con un chatbot es pública y por tanto no están protegidas por el secreto profesional abogado-cliente. Es decir: que todo lo que compartas con la IA puede acabar siendo usado en tu contra ante un tribunal.

En XatakaLa gran revolución de GPT-5.3 Codex y Claude Opus 4.6 no es que sean más inteligentes. Es que pueden mejorarse a sí mismos

El caso. Bradley Heppner, un ejecutivo acusado de fraude por valor de 300 millones de dólares, utilizó Claude, el chatbot de Anthropic, para consultar dudas sobre su situación legal antes de ser arrestado. Creó 31 documentos con sus conversaciones con la IA y posteriormente los compartió con sus abogados defensores. Cuando el FBI incautó sus dispositivos electrónicos, sus abogados reclamaron que esos documentos estaban protegidos por el privilegio abogado-cliente. El juez Jed Rakoff ha dicho que no.

Por qué no. Tal y como comparte Moish Peltz, abogado especializado en activos digitales y propiedad intelectual, en una publicación en X, la sentencia establece tres razones. Primero, una IA no es un abogado: no tiene licencia para ejercer, no debe lealtad a nadie y sus términos de servicio niegan expresamente cualquier relación abogado-cliente. Segundo, compartir información legal con una IA equivale legalmente a contársela a un amigo, por lo que no está protegido por secreto profesional. Y tercero, enviar documentos ‘no privilegiados’ a tu abogado después no los convierte mágicamente en confidenciales.

El problema de fondo. Así como recuerda el abogado, la interfaz de este tipo de chatbots genera una falsa sensación de privacidad, pero en realidad estás introduciendo información en una plataforma comercial de terceros que retiene tus datos y se reserva amplios derechos para divulgarlos. Según la política de privacidad de Anthropic vigente cuando Heppner usó Claude, la compañía puede revelar tanto las preguntas de los usuarios como las respuestas generadas a "autoridades gubernamentales reguladoras".

Dilema. El documento judicial revela además un agravante: Heppner introdujo en la IA información que había recibido previamente de sus abogados. Esto plantea un dilema para la fiscalía, según cuenta Peltz. Y es que si intenta usar esos documentos como prueba en el juicio, los abogados defensores podrían convertirse en testigos de los hechos, lo que potencialmente forzaría la anulación del juicio.

En XatakaMistral no genera hype, es una IA discreta, no dispara las acciones de ninguna empresa, pero ya gana más dinero que Grok

Qué significa para ti. Si estás involucrado en cualquier asunto legal, según esta sentencia, lo que compartas con una IA puede ser reclamado por un juez y usado como prueba. No importa que estés preparando tu defensa o buscando asesoramiento preliminar, ya que cada consulta puede acabar convirtiéndose en un factor en tu contra. Y no solo aplica a casos criminales: divorcios, disputas laborales, litigios mercantiles... cualquier conversación con IA sobre estos temas escapa de la protección legal.

Y ahora qué. Peltz señala que los profesionales del derecho deben advertir explícitamente a sus clientes de este riesgo. No se puede asumir que la gente lo entienda intuitivamente. La solución que menciona pasa por crear espacios de trabajo colaborativos con IA compartidos entre abogado y cliente, así cualquier interacción con la inteligencia artificial ocurrirá bajo la supervisión del abogado y dentro de la relación abogado-cliente.

Imagen de portada | Romain Dancre y Solen Feyissa

En Xataka | Doblar la ropa o desmontar LEGOs ha sido siempre una tarea tediosa. La nueva IA de Xiaomi para robots le ha puesto fin

Fuente original: Leer en Xataka
Compartir