- JAVIER F. SAAVEDRA
Dentro de pocos días millones de niños españoles abrirán los regalos más esperados. Entre muñecas, pelotas, construcciones y libros, crece con fuerza una nueva categoría: los juguetes con inteligencia artificial (IA).
La tendencia no es menor: el mercado global de smart toys mueve ya entre 18.000 y 22.000 millones de dólares en el periodo 2024-2025, con crecimientos anuales del 11%-15%. Geográficamente se estima que Norteamérica concentra el 34% del negocio; Europa mantiene alta penetración (con Alemania y Reino Unido como polos productores) y Asia-Pacífico es la zona con mayor crecimiento esperado hasta 2030, impulsada por China.
Las principales compañías del sector juguetero han reaccionado con rapidez. VTech lidera el aprendizaje electrónico (muchos productos con voz e IA), con una cifra de negocio de unos 1.000 millones de dólares. Hasbro ha relanzado Furby, icono de la interacción por voz y comportamiento "aprendido", dentro de un grupo que factura unos 5.000 millones de dólares. Spin Master (Hatchimals, Bitzee, robots interactivos) factura unos 2,2 billones de dólares. En Europa, Tonies SE (Toniebox) superaba los 480 millones de euros en 2024. Entre los nativos de robótica infantil, Miko (Miko 3) declara más de 700.000 unidades vendidas globalmente; su precio en España ronda los 349 euros en grandes plataformas. Son algunos datos que reflejan la demanda comercial real que tienen estos juguetes inteligentes.
Hasta aquí, la economía. Falta lo esencial: la responsabilidad. Vivimos en una sociedad que adopta tecnologías a gran velocidad y dedica poco tiempo a la reflexión. En juguetes, esa prisa es especialmente delicada: la inteligencia artificial no es un mero algoritmo o un simple chip, es una capa de interacción que escucha, responde y moldea conductas. ¿Cuáles son los efectos?
La IA tiene algunos beneficios. Permite el aprendizaje personalizado, mayor motivación y accesibilidad (apoyos de lenguaje, ritmos y estilos de aprendizaje; incluso aprendizaje de idiomas). Un robot que adapta retos o un audiosistema que cuenta historias a la carta pueden ser aliados valiosos cuando hay acompañamiento adulto.
Pero estos beneficios traen también muchos riesgos reales. Primero, privacidad y perfilado: juguetes conectados que capturan voz y uso de los niños. Segundo, contenidos inadecuados o respuestas erráticas si se apoya en modelos generativos en la nube, exponiendo a los niños a potenciales riesgos incontrolados. Tercero, dependencia tecnológica y vulnerabilidad de nuestros hijos. Cuarto, confusión entre lo humano y lo artificial: cuanto más humanoide es el diseño, mayor el riesgo de apego parasocial y de dificultar la diferenciación entre amigos reales y objetos tecnológicos. Y, en general, manipulación emocional: sistemas que refuerzan conductas para maximizar uso, atención o ventas de contenidos.
La Unión Europea ha empezado a moverse. La ley de IA adopta un enfoque por niveles de riesgo (inaceptable /alto/ limitado / mínimo), prohíbe prácticas manipulativas que exploten vulnerabilidades de menores, exige transparencia en sistemas que interactúan por voz o imagen y obliga a diseñar con el interés del menor en mente. En paralelo, la nueva regulación de seguridad de juguetes endurece la evaluación previa, introduce el pasaporte digital de producto y refuerza el control a ventas online y sustancias.
Riesgo inaceptable
Es un marco más exigente para fabricantes y marketplaces. Pero la pregunta incómoda permanece: si a finales de 2025 puedo comprar un robot conversacional o un muñeco inteligente en Amazon o Shein sin ningún problema, ¿están funcionando estos controles? La realidad es que la aplicación y la vigilancia de mercado van muy por detrás de la innovación y de la distribución global. Y esto es un riesgo inaceptable.
¿Quién es el responsable final? ¿Las empresas jugueteras? ¿Las empresas tecnológicas que generan modelos de IA? ¿Las autoridades que regulan tarde o no son capaces de asegurar su cumplimiento? Los responsables finales somos los padres. Los reguladores ponen reglas, los fabricantes diseñan productos, los distribuidores facilitan la compra... pero quien decide qué entra en casa somos nosotros. La evidencia sobre el impacto de las redes sociales en la salud mental los nuestros adolescentes, que hemos empezado a asumir quizá demasiado tarde, debería servir de advertencia temprana. ¿Vamos a repetir el mismo error con niños más pequeños y dispositivos que hablan, acompañan y "entienden"? Algunas recomendaciones para las compras de juguetes que se acercan:
- Reflexione antes de comprar: ¿necesita IA este juguete para cumplir con su propósito?
- Revise políticas de datos y controles parentales; desactive funciones que no aporten.
- Tiempo de uso acotado y cojuego: la IA suma cuando hay adulto presente.
- Evite fisonomías hiperhumanas en edades tempranas si busca reducir la confusión emocional.
- Alterne con juego abierto (construcción, arte, deporte, naturaleza).
- Actualize el criterio con la edad: no es lo mismo 5 años que 9 años.
- Valore alternativas no conectadas si ofrecen aprendizajes similares.
La IA ya está en la carta de Papá Noel y de los Reyes Magos. No se trata de demonizarla, sería tan simplista como irresponsable, sino de elevar el listón de exigencia a fabricantes, a plataformas y, sobre todo, a nosotros mismos. Porque educar también es elegir: elegir qué tecnologías entran en el cuarto de nuestros hijos, en qué condiciones y con qué límites. Esta Navidad, antes de hacer clic en Comprar, preguntémonos por las consecuencias. Ahí empieza la verdadera protección de nuestros hijos.
Javier F. Saavedra | Global general manager, t2ó ONE
Reconciliación, concordia y convivenciaMucho autoengaño y ninguna autocrítica en el PSOE y el GobiernoNavidad sin tregua para los cristianos perseguidos Comentar ÚLTIMA HORA