Esto es así porque las plataformas a menudo quieren entrenar sus modelos de IA con la mayor cantidad posible de datos de los usuarios y han dificultado la opción de que tu información no se utilice como datos de entrenamiento. Pero a medida que los chatbots y los agentes de IA se han vuelto más capaces, algunos tecnólogos y empresas están presionando para crear sistemas más restringidos y centrados en la privacidad.
"A medida que los grandes modelos de lenguaje (LLM) continúan siendo capaces de hacer más, deberíamos esperar que fluyan aún más datos hacia ellos", escribió Marlinspike en una breve entrada de blog sobre su colaboración con Meta publicada el martes. Añadió: "Ahora mismo, ninguno de esos datos es privado. Se comparten con empresas de IA, sus empleados, hackers, citaciones y gobiernos". Como siempre ocurre con los datos sin cifrar, inevitablemente acabarán en las manos equivocadas".
Marlinspike escribió que "trabajará para integrar la tecnología de privacidad de Confer para que sea la base de Meta AI". También subrayó que Confer, que debutó a principios de este año, seguirá funcionando independientemente de Meta. El objetivo del proyecto, añadió Marlinspike, es ofrecer una tecnología que "permita a todo el mundo obtener toda la potencia de la IA junto con toda la privacidad de una conversación cifrada".
En 2016, Marlinspike trabajó con WhatsApp, que es propiedad de Meta, para desplegar el cifrado de extremo a extremo a más de mil millones de cuentas simultáneamente. En el último año, WhatsApp ha introducido un chatbot de IA de Meta en su app, que no está blindado para la compañía de la misma manera que los chats individuales.
"La gente utiliza la IA de un modo profundamente personal y requiere acceso a información confidencial. Es importante que construyamos esa tecnología de una manera que le dé a la gente el poder de hacerlo de forma privada", escribió el miércoles Will Cathcart, director de WhatsApp, en la plataforma de la red social X sobre la colaboración con Confer.
chatbots con Meta AI contar con confidencialidad y privacidad en sus interacciones". Fundamentalmente, esto significa que Meta no podría acceder a los datos de chat de la IA para su entrenamiento, explica Knodel, quien junto con sus colegas publicó recientemente un estudio sobre cifrado de extremo a extremo e IA. "Espero que más chatbots de IA adopten este enfoque".Las evaluaciones preliminares e iniciales de Knodel sobre Confer indican que la plataforma no es perfecta, pero es un ejemplo importante de cómo construir un chatbot de IA privado.
El criptógrafo JP Aumasson, jefe de seguridad de la plataforma de criptomonedas Taurus, ha llegado a conclusiones similares sobre Confer hasta el momento: "Confer es probablemente la mejor solución de inteligencia artificial privada. No es perfecta, le falta documentación sobre su arquitectura, modelo de amenazas y cadena de suministro. Pero Moxie sabe lo que hace y tiene un sólido historial", afirma a WIRED.
La complejidad de desarrollar esquemas de cifrado para plataformas de IA es un obstáculo importante, y gran parte del trabajo sobre privacidad hasta ahora se ha centrado en modelos de código abierto accesibles o en construir capas de privacidad entre las empresas de IA y los usuarios finales. Por ejemplo, como escribió Marlinspike el martes, "la tecnología de Confer se ha construido sobre modelos de código abierto. Mientras que a mucha gente le encanta usar Confer para una amplia variedad de tareas, otros han echado de menos las capacidades fronterizas de los modelos propietarios".
La colaboración con Meta brinda a Marlinspike la oportunidad de trabajar directamente con modelos cerrados. "Meta está construyendo modelos fronterizos avanzados, así que esto combinará la tecnología de chat de IA más privada del mundo con los modelos de IA más capaces del mundo", escribió.
Independientemente de si el proyecto finalmente cumplirá con todos esos superlativos, los investigadores destacaron a WIRED que la colaboración es significativa. "La propuesta de Moxie de utilizar la informática de confianza, un concepto que se remonta al menos a la década de 1990, me parece sólida", argumenta Aumasson, de Taurus. "Los supuestos y limitaciones subyacentes se entienden bien. De nuevo, no es perfecto, pero probablemente sea suficiente para la mayoría de los usuarios. El reto es apoyar modelos que sean tan buenos como los últimos modelos de vanguardia de Anthropic y Google y OpenAI".
Artículo originalmente publicado enWIRED.Adaptado por Alondra Flores.