Project Motoko. Me gusta pensar que es una referencia a Motoko Kusanagi, el protagonista de 'Ghost in the Shell', pero en cualquier caso, ese es el nombre que recibe el nuevo concepto de Razer. Efectivamente, son unos auriculares con dos cámaras e inteligencia artificial cuya propuesta es bastante interesante: ¿y si, en lugar de gafas inteligentes, llevásemos auriculares inteligentes?
La compañía ha aprovechado el MWC 2026 que ha tenido lugar estos días en Barcelona para enseñarlos y he tenido ocasión de echarles el guante en el stand de Qualcomm (luego veremos por qué). De momento, el prototipo, porque es eso, un prototipo, tienen ciertas asperezas que limar, pero la idea de fondo me ha gustado mucho. Vayamos por partes.
Project Motoko de Razer | Imagen: Xataka
La idea de fondo. Como salta a la vista en las fotos, uso gafas. Gafas normales, aunque graduadas. Si quisiera usar unas gafas conectadas tendría que cambiar mis gafas y comprar una montura, que no es barata, además de los cristales graduados. Pues como yo, la mitad de la población mundial. Es decir, que las gafas inteligentes tienen un pequeño problema de penetración:
• Tienen que convencer a los usuarios de gafas de que cambien sus gafas.
• Tienen que convencer a los que no usan gafas de que usen gafas.La idea de Razer. Quizá sea más fácil convencer al usuario de que, en lugar de unas gafas, use unos auriculares de diadema inteligentes. Estos dispositivos son agnósticos a que las personas vean mejor o peor y, en realidad, pueden ofrecer una experiencia similar e incluso mejor en ciertos aspectos, porque al ser más grandes pueden ofrecer más autonomía y potencia. Actualmente, las Meta Ray-Ban 2 se mueven en la horquilla de las ocho horas, por ejemplo.
Así luce el prototipo de Project Motoko | Image: Xataka
La contraparte, claro, es llevar unos auriculares grandes todo el día. Son menos disimulados y no los vas a llevar en momentos importantes de tu vida (o sí, escuchamos pero no juzgamos). Sea como fuere, las gafas ahí tienen ventaja, pero eso no hace que la propuesta de Razer tenga menos sentido y hasta pueda tener un encaje ya no en el gaming o en el día a día, sino en materia de accesibilidad.
De qué va esto. Project Motoko son unos auriculares de diadema (bastante cómodos, he de añadir) con dos cámaras gran angular de 12 megapíxeles a la altura de los ojos, una a cada lado, y varios micrófonos de campo lejano y cercano. Es como tener un par de ojos conectados a la IA que ven lo que nosotros vemos. La experiencia, evidentemente, variará en función de si somos usuarios de pago o gratis de los chatbots.
En Xataka
Dulce, seis años después: la mirada que se convirtió en voz y guía
En lugar de usar una IA propietaria, el dispositivo se puede conectar a todas las plataformas, a saber Grok, ChatGPT, Google Gemini y hasta Perplexity. Parte del proceso se hace en la nube, pero gracias a un chip de Qualcomm indeterminado (por ahora), también habrá capacidades de procesamiento local para ciertos comandos.
Las cámaras se encuentran a la altura de los ojos | Imagen: Xataka
El funcionamiento es simple. Miras algo, digamos un menú de un restaurante; le preguntas algo a la IA de viva voz y esta te responde. Durante la demo le preguntamos a los auriculares si un ingrediente sobre una mesa era apto para intolerantes a la lactosa, e incluso qué podíamos fabricar con los objetos de nuestro inventario en 'Minecraft', y respondió sin problemas. También reconoció edificios, lugares y texto, traduciendo un menú en japonés y dándonos recomendaciones según nuestras preferencias.
Al prototipo le falta todavía, pero funcionar, funciona. Razer todavía está puliendo algunas cuestiones de conectividad e interacción, pero la compañía es positiva en que lo lanzarán en algún momento. No tienen claro cuándo, pero el producto avanza en buena dirección, según explicaron desde Razer.
Detalle de la posición de la cámara y los micrófonos | Imagen: Xataka
Las asperezas. La demo tenía algunos flecos, como que los auriculares no eran capaces de grabar vídeo en vivo y no capturaban la imagen si no se lo pedíamos, me explico. Para generar una receta con los ingredientes sobre una mesa había que indicarle expresamente que sacara una foto y, luego, el comando. Eso no es lenguaje natural. No es natural decir "saca una foto y dime si", sino que una interacción normal sería "oye, ¿con esto que tengo que puedo hacer?".
La idea es que invoquemos a la IA usando un botón localizado en los auriculares, por lo que tendría sentido que, en un producto final, al pulsar ese botón los auriculares comiencen a registrar la imagen en vivo. No una estática, sino un feed de vídeo como hace Gemini Live. Y en ese sentido, tampoco está definido de momento el aviso para terceros de que están siendo grabados con los auriculares. En las gafas de Meta se enciende una luz blanca cuando grabas, por ejemplo. De todas maneras, no me parece algo que no se pueda arreglar vía software de cara a un producto final. La fecha de lanzamiento no está confirmada, como tampoco lo está el precio.
Project Motoko | Imagen: Xataka
A lo mejor la chicha no está en el día a día. Aunque es tentador pensar en un producto acompañante para el día a día, sobre todo si trabajas con auriculares o sueles llevarlos por la calle (no es mi caso), donde creo que Project Motoko podría tener un enorme impacto es en dos terrenos: la generación de vídeo para entrenar robots humanoides y la accesibilidad.
Por un lado, los auriculares capturan lo que vemos nosotros (más, de hecho, al tener mayor campo de visión), por lo que grabando cómo se realiza un proceso industrial manual se podrían generar los recursos necesarios para entrenar algoritmos de machine learning enfocados a robots. Al fin y al cabo, una IA aprende a base de ver la misma acción miles, millones de veces, pero para que eso sea posible tiene que tener vídeos, muchos vídeos muy específicos que, por supuesto, no abundan.
En Xataka
SPC era la marca del móvil para mayores: ahora tiene un sistema que aprende cuándo tu abuelo deja de comportarse como siempre
Por otro lado, las personas con problemas de visión tienen en unos auriculares como estos un poderoso aliado. Aunque sería necesario implementar una función de grabación de vídeo en vivo, las personas ciegas o con discapacidad visual podrían usarlos para recibir indicaciones, avisos en tiempo casi real de posibles riesgos u obstáculos en el camino o traducciones de contenido no disponible en braille. Al menos sobre el papel, el factor forma habilita una mayor autonomía que unas gafas. Habría que habilitar un passtrough para el sonido externo o reducir el aislamiento de alguna forma, pero la posibilidad está ahí.
Imágenes | Xataka
En Xataka | He probado un exoesqueleto pensando que me daría superpoderes. El Hypershell X me acabó dando una lección sobre accesibilidad
-
La noticia
Razer ha tenido una idea loca y es ponerle cámaras con IA a unos auriculares. Los he probado y me han dado que pensar
fue publicada originalmente en
Xataka
por
Jose García
.
Razer ha tenido una idea loca y es ponerle cámaras con IA a unos auriculares. Los he probado y me han dado que pensar
Project Motoko es una propuesta muy interesante con el potencial de darle a la IA mucha utilidad en términos de accesibilidad
He probado el dispositivo durante el Mobile World Congress y lo cierto es que es prometedor
La compañía no ha confirmado el lanzamiento, pero aspira a que se produzca en algún momento.
Project Motoko. Me gusta pensar que es una referencia a Motoko Kusanagi, el protagonista de 'Ghost in the Shell', pero en cualquier caso, ese es el nombre que recibe el nuevo concepto de Razer. Efectivamente, son unos auriculares con dos cámaras e inteligencia artificial cuya propuesta es bastante interesante: ¿y si, en lugar de gafas inteligentes, llevásemos auriculares inteligentes?
La compañía ha aprovechado el MWC 2026 que ha tenido lugar estos días en Barcelona para enseñarlos y he tenido ocasión de echarles el guante en el stand de Qualcomm (luego veremos por qué). De momento, el prototipo, porque es eso, un prototipo, tienen ciertas asperezas que limar, pero la idea de fondo me ha gustado mucho. Vayamos por partes.
Project Motoko de Razer | Imagen: Xataka
La idea de fondo. Como salta a la vista en las fotos, uso gafas. Gafas normales, aunque graduadas. Si quisiera usar unas gafas conectadas tendría que cambiar mis gafas y comprar una montura, que no es barata, además de los cristales graduados. Pues como yo, la mitad de la población mundial. Es decir, que las gafas inteligentes tienen un pequeño problema de penetración:
Tienen que convencer a los usuarios de gafas de que cambien sus gafas.
Tienen que convencer a los que no usan gafas de que usen gafas.
La idea de Razer. Quizá sea más fácil convencer al usuario de que, en lugar de unas gafas, use unos auriculares de diadema inteligentes. Estos dispositivos son agnósticos a que las personas vean mejor o peor y, en realidad, pueden ofrecer una experiencia similar e incluso mejor en ciertos aspectos, porque al ser más grandes pueden ofrecer más autonomía y potencia. Actualmente, las Meta Ray-Ban 2 se mueven en la horquilla de las ocho horas, por ejemplo.
Así luce el prototipo de Project Motoko | Image: Xataka
La contraparte, claro, es llevar unos auriculares grandes todo el día. Son menos disimulados y no los vas a llevar en momentos importantes de tu vida (o sí, escuchamos pero no juzgamos). Sea como fuere, las gafas ahí tienen ventaja, pero eso no hace que la propuesta de Razer tenga menos sentido y hasta pueda tener un encaje ya no en el gaming o en el día a día, sino en materia de accesibilidad.
De qué va esto. Project Motoko son unos auriculares de diadema (bastante cómodos, he de añadir) con dos cámaras gran angular de 12 megapíxeles a la altura de los ojos, una a cada lado, y varios micrófonos de campo lejano y cercano. Es como tener un par de ojos conectados a la IA que ven lo que nosotros vemos. La experiencia, evidentemente, variará en función de si somos usuarios de pago o gratis de los chatbots.
En lugar de usar una IA propietaria, el dispositivo se puede conectar a todas las plataformas, a saber Grok, ChatGPT, Google Gemini y hasta Perplexity. Parte del proceso se hace en la nube, pero gracias a un chip de Qualcomm indeterminado (por ahora), también habrá capacidades de procesamiento local para ciertos comandos.
Las cámaras se encuentran a la altura de los ojos | Imagen: Xataka
El funcionamiento es simple. Miras algo, digamos un menú de un restaurante; le preguntas algo a la IA de viva voz y esta te responde. Durante la demo le preguntamos a los auriculares si un ingrediente sobre una mesa era apto para intolerantes a la lactosa, e incluso qué podíamos fabricar con los objetos de nuestro inventario en 'Minecraft', y respondió sin problemas. También reconoció edificios, lugares y texto, traduciendo un menú en japonés y dándonos recomendaciones según nuestras preferencias.
Al prototipo le falta todavía, pero funcionar, funciona. Razer todavía está puliendo algunas cuestiones de conectividad e interacción, pero la compañía es positiva en que lo lanzarán en algún momento. No tienen claro cuándo, pero el producto avanza en buena dirección, según explicaron desde Razer.
Detalle de la posición de la cámara y los micrófonos | Imagen: Xataka
Las asperezas. La demo tenía algunos flecos, como que los auriculares no eran capaces de grabar vídeo en vivo y no capturaban la imagen si no se lo pedíamos, me explico. Para generar una receta con los ingredientes sobre una mesa había que indicarle expresamente que sacara una foto y, luego, el comando. Eso no es lenguaje natural. No es natural decir "saca una foto y dime si", sino que una interacción normal sería "oye, ¿con esto que tengo que puedo hacer?".
La idea es que invoquemos a la IA usando un botón localizado en los auriculares, por lo que tendría sentido que, en un producto final, al pulsar ese botón los auriculares comiencen a registrar la imagen en vivo. No una estática, sino un feed de vídeo como hace Gemini Live. Y en ese sentido, tampoco está definido de momento el aviso para terceros de que están siendo grabados con los auriculares. En las gafas de Meta se enciende una luz blanca cuando grabas, por ejemplo. De todas maneras, no me parece algo que no se pueda arreglar vía software de cara a un producto final. La fecha de lanzamiento no está confirmada, como tampoco lo está el precio.
Project Motoko | Imagen: Xataka
A lo mejor la chicha no está en el día a día. Aunque es tentador pensar en un producto acompañante para el día a día, sobre todo si trabajas con auriculares o sueles llevarlos por la calle (no es mi caso), donde creo que Project Motoko podría tener un enorme impacto es en dos terrenos: la generación de vídeo para entrenar robots humanoides y la accesibilidad.
Por un lado, los auriculares capturan lo que vemos nosotros (más, de hecho, al tener mayor campo de visión), por lo que grabando cómo se realiza un proceso industrial manual se podrían generar los recursos necesarios para entrenar algoritmos de machine learning enfocados a robots. Al fin y al cabo, una IA aprende a base de ver la misma acción miles, millones de veces, pero para que eso sea posible tiene que tener vídeos, muchos vídeos muy específicos que, por supuesto, no abundan.
Por otro lado, las personas con problemas de visión tienen en unos auriculares como estos un poderoso aliado. Aunque sería necesario implementar una función de grabación de vídeo en vivo, las personas ciegas o con discapacidad visual podrían usarlos para recibir indicaciones, avisos en tiempo casi real de posibles riesgos u obstáculos en el camino o traducciones de contenido no disponible en braille. Al menos sobre el papel, el factor forma habilita una mayor autonomía que unas gafas. Habría que habilitar un passtrough para el sonido externo o reducir el aislamiento de alguna forma, pero la posibilidad está ahí.