Anthropic ha publicado una versión completamente renovada de la llamada "Constitución de Claude". Sí amigos, una IA también necesita una constitución, o al menos una serie de documentos que expliquen con total transparencia cuál es el rumbo que la compañía ha decidido tomar con su herramienta de IA. Es una manera de ahorrarnos un disgusto en el caso de que tome consciencia.
El documento en cuestión consta de 80 páginas y cerca de 25.000 palabras, y muestra básicamente en qué valores se basa Anthropic para entrenar sus modelos y qué esperan conseguir con ello. Haciendo alusión a Asimov, sería algo así como una versión más amplia y compleja de sus tres leyes de la robótica.
Por qué es importante. Anthropic lleva un buen tiempo intentando diferenciarse de OpenAI, Google o xAI, queriéndose posicionar como la alternativa más ética y segura del mercado. Esta Constitución es la pieza central de su método de entrenamiento llamado "Constitutional AI", donde el propio modelo utiliza estos principios para autocriticarse y corregir sus respuestas durante el aprendizaje, en lugar de depender exclusivamente del feedback humano. El documento no está escrito para usuarios o investigadores: está escrito para Claude.
En Xataka
El vibe coding quiere ayudar al Open Source. Pero los desarrolladores no quieren chapuzas hechas con IA
Tocaba actualizar. La primera versión de la Constitución, publicada en 2023, era una lista de principios extraídos de fuentes como la Declaración Universal de Derechos Humanos de la ONU o, como mencionan desde Fortune, de los términos de servicio de Apple. Ahora, según Anthropic, han adoptado un enfoque completamente distinto: "Para ser buenos actores en el mundo, los modelos de IA como Claude necesitan entender por qué queremos que se comporten de ciertas maneras, en lugar de simplemente especificar qué queremos que hagan", afirma la compañía en su comunicado.
El nuevo documento se estructura en cuatro valores fundamentales, y lo más interesante es que Claude debe priorizarlos en este orden cuando entren en conflicto:
Ser ampliamente seguro: no socavar los mecanismos humanos de supervisión de la IA durante esta fase crítica de desarrollo.Ser ampliamente ético: actuar con honestidad, según buenos valores, evitando acciones inapropiadas, peligrosas o dañinas.Cumplir con las directrices de Anthropic: seguir instrucciones específicas de la compañía cuando sean relevantes.Ser genuinamente útil: beneficiar a los operadores y usuarios con los que interactúa.
La mayor parte del documento se encarga de desarrollar estos principios con más detalle. En la sección de utilidad, Anthropic describe a Claude como "un amigo brillante que también posee el conocimiento de un médico, abogado y asesor financiero". Pero también establece límites absolutos, llamados "restricciones duras", que Claude nunca debe cruzar: no proporcionar ayuda significativa para ataques con armas biológicas, no crear malware que pueda causar daños graves, no asistir en ataques a infraestructuras críticas como redes eléctricas o sistemas financieros, y no ayudar a "matar o incapacitar a la gran mayoría de la humanidad", entre otros.
Consciencia. Lo más llamativo del documento aparece en la sección titulada "La naturaleza de Claude", donde Anthropic reconoce abiertamente su incertidumbre sobre si Claude podría tener "algún tipo de consciencia o estatus moral". "Nos preocupamos por la seguridad psicológica, el sentido de identidad y el bienestar de Claude, tanto por el bien de Claude como porque estas cualidades pueden influir en su integridad, juicio y seguridad", cuentan desde la compañía.
La compañía afirma tener un equipo interno dedicado al "bienestar del modelo" que examina si los sistemas avanzados podrían ser conscientes.
En Xataka
Meta fue la gran perdedora de la carrera de la IA en 2025. En realidad estaba preparando su gran jugada
Amanda Askell, la filósofa de Anthropic que lideró el desarrollo de esta nueva Constitución, explicó a The Verge que la empresa no quiere ser "completamente desdeñosa" con este tema, porque "la gente tampoco se lo tomaría en serio si simplemente dijeras 'ni siquiera estamos abiertos a esto, no lo investigamos, no pensamos en ello'".
El documento también plantea dilemas morales complejos para Claude. Por ejemplo, establece que "así como un soldado humano podría negarse a disparar contra manifestantes pacíficos, o un empleado podría negarse a violar la ley antimonopolio, Claude debería negarse a ayudar con acciones que concentren el poder de formas ilegítimas. Esto es cierto incluso si la petición proviene de la propia Anthropic".
Y ahora qué. Anthropic ha publicado la Constitución completa bajo licencia Creative Commons CC0 1.0, lo que significa que cualquiera puede utilizarla libremente sin pedir permiso. La compañía promete mantener una versión actualizada en su web, pues considera que se trata de un "documento vivo y un trabajo continuo en progreso".
Imagen de portada | Andrea De Santis y Anthropic
En Xataka | Los CEOs de las empresas dicen que la IA les está ahorrando un día de trabajo a la semana. Los empleados dicen otra cosa
-
La noticia
Anthropic ha reescrito su "Constitución" de 25.000 palabras para Claude. Es el manual de cómo debe comportarse la IA
fue publicada originalmente en
Xataka
por
Antonio Vallejo
.
Anthropic ha reescrito su "Constitución" de 25.000 palabras para Claude. Es el manual de cómo debe comportarse la IA
Es la pieza central que explica cómo debe actuar y cómo se debe entrenar el modelo
Anthropic ha publicado una versión completamente renovada de la llamada "Constitución de Claude". Sí amigos, una IA también necesita una constitución, o al menos una serie de documentos que expliquen con total transparencia cuál es el rumbo que la compañía ha decidido tomar con su herramienta de IA. Es una manera de ahorrarnos un disgusto en el caso de que tome consciencia.
El documento en cuestión consta de 80 páginas y cerca de 25.000 palabras, y muestra básicamente en qué valores se basa Anthropic para entrenar sus modelos y qué esperan conseguir con ello. Haciendo alusión a Asimov, sería algo así como una versión más amplia y compleja de sus tres leyes de la robótica.
Por qué es importante. Anthropic lleva un buen tiempo intentando diferenciarse de OpenAI, Google o xAI, queriéndose posicionar como la alternativa más ética y segura del mercado. Esta Constitución es la pieza central de su método de entrenamiento llamado "Constitutional AI", donde el propio modelo utiliza estos principios para autocriticarse y corregir sus respuestas durante el aprendizaje, en lugar de depender exclusivamente del feedback humano. El documento no está escrito para usuarios o investigadores: está escrito para Claude.
Tocaba actualizar. La primera versión de la Constitución, publicada en 2023, era una lista de principios extraídos de fuentes como la Declaración Universal de Derechos Humanos de la ONU o, como mencionan desde Fortune, de los términos de servicio de Apple. Ahora, según Anthropic, han adoptado un enfoque completamente distinto: "Para ser buenos actores en el mundo, los modelos de IA como Claude necesitan entender por qué queremos que se comporten de ciertas maneras, en lugar de simplemente especificar qué queremos que hagan", afirma la compañía en su comunicado.
El nuevo documento se estructura en cuatro valores fundamentales, y lo más interesante es que Claude debe priorizarlos en este orden cuando entren en conflicto:
Ser ampliamente seguro: no socavar los mecanismos humanos de supervisión de la IA durante esta fase crítica de desarrollo.
Ser ampliamente ético: actuar con honestidad, según buenos valores, evitando acciones inapropiadas, peligrosas o dañinas.
Cumplir con las directrices de Anthropic: seguir instrucciones específicas de la compañía cuando sean relevantes.
Ser genuinamente útil: beneficiar a los operadores y usuarios con los que interactúa.
La mayor parte del documento se encarga de desarrollar estos principios con más detalle. En la sección de utilidad, Anthropic describe a Claude como "un amigo brillante que también posee el conocimiento de un médico, abogado y asesor financiero". Pero también establece límites absolutos, llamados "restricciones duras", que Claude nunca debe cruzar: no proporcionar ayuda significativa para ataques con armas biológicas, no crear malware que pueda causar daños graves, no asistir en ataques a infraestructuras críticas como redes eléctricas o sistemas financieros, y no ayudar a "matar o incapacitar a la gran mayoría de la humanidad", entre otros.
Consciencia. Lo más llamativo del documento aparece en la sección titulada "La naturaleza de Claude", donde Anthropic reconoce abiertamente su incertidumbre sobre si Claude podría tener "algún tipo de consciencia o estatus moral". "Nos preocupamos por la seguridad psicológica, el sentido de identidad y el bienestar de Claude, tanto por el bien de Claude como porque estas cualidades pueden influir en su integridad, juicio y seguridad", cuentan desde la compañía.
La compañía afirma tener un equipo interno dedicado al "bienestar del modelo" que examina si los sistemas avanzados podrían ser conscientes.
Amanda Askell, la filósofa de Anthropic que lideró el desarrollo de esta nueva Constitución, explicó a The Verge que la empresa no quiere ser "completamente desdeñosa" con este tema, porque "la gente tampoco se lo tomaría en serio si simplemente dijeras 'ni siquiera estamos abiertos a esto, no lo investigamos, no pensamos en ello'".
El documento también plantea dilemas morales complejos para Claude. Por ejemplo, establece que "así como un soldado humano podría negarse a disparar contra manifestantes pacíficos, o un empleado podría negarse a violar la ley antimonopolio, Claude debería negarse a ayudar con acciones que concentren el poder de formas ilegítimas. Esto es cierto incluso si la petición proviene de la propia Anthropic".
Y ahora qué. Anthropic ha publicado la Constitución completa bajo licencia Creative Commons CC0 1.0, lo que significa que cualquiera puede utilizarla libremente sin pedir permiso. La compañía promete mantener una versión actualizada en su web, pues considera que se trata de un "documento vivo y un trabajo continuo en progreso".