Buscar
Cerrar este cuadro de búsqueda.

El 80 % de los juguetes de Inteligencia Artificial puede comprometer la seguridad de los niños

Según datos facilitados por la empresa tecnológica ZenShield, las posibles vulnerabilidades de software ocultas en los juguetes de IA “abren la puerta a ciberataques e introducen un elemento preocupante en lo que se planteaba a priori como una diversión inofensiva”
Juguetes IA

Robots, drones, puzzles cuyos personajes “cobran vida” una vez completados, triciclos que transitan por un auténtico parque de educación vial… Cada vez son más los juguetes que se sirven de la inteligencia artificial para multiplicar sus prestaciones.

Según José Carlos Sola, project manager en el área ICT&eHealth del Instituto Tecnológico de producto infantil y de ocio (AIJU) , las funcionalidades desarrolladas a partir de IA “ mejoran las opciones de aprender jugando y tienen una gran aceptación por parte de los niños ya que se salen de lo habitual”.

Sin embargo, como sucede con otros ámbitos de aplicación y desarrollo de la inteligencia artificial, cada vez son más los expertos que urgen a que padres y educadores se doten del  conocimiento necesario sobre su funcionamiento y conozcan y las medidas de seguridad adecuadas para sus uso. “Solo así conseguirá una utilización óptima y un impacto positivo de los juguetes”, asegura  Steffan Black, experto de la tecnológica ZenShield.

Conocer e identificar las vulnerabilidades

Un estudio realizado por esta compañía estima que aproximadamente el 80 % de los juguetes que incorporan inteligencia artificial tiene vulnerabilidades de software ocultas. Puntos débiles que “abren la puerta a posibles ciberataques, introduciendo un elemento preocupante en lo que se planteaba a priori como una diversión inofensiva”.

Según Black, “estas vulnerabilidades abren la puerta a que usuarios no autorizados tomen el control de los juguetes. Pueden acceder a datos sensibles, incluyendo información personal e incluso, de manera alarmante, usar las funciones de audio y video del juguete para vigilancia.»

Las amenazas potenciales afectan, en primer lugar, a la violación de datos. Así, según un informe de Cybersecurity Ventures, ha habido un incremento constante en las violaciones de datos, y se espera que el número alcance los 150 mil millones de registros para 2023. Otro de los riesgos es  el acceso no autorizado. Un estudio de Rapid7 revela que el 90% de los dispositivos IoT probados, incluyendo algunos juguetes de IA, eran susceptibles a al menos una vulnerabilidad de seguridad que podría permitir el acceso no autorizado.

Por último, desde ZenShield identifican un tercer grupo de peligros: los relacionados con la vigilancia. Un ámbito en el que se refieren a los datos aportados por la  Internet of Things Security Foundation; que informó de que los incidentes de dispositivos IoT utilizados para vigilancia aumentaron un 72 % en el último año.

Explotar el potencial desde un uso inteligente

Aunque los datos pueden parecer alarmantes a primera vista, explica el experto, no deberían usarse para demonizar la tecnología o los juguetes de IA en general. «Estos juguetes pueden proporcionar increíbles oportunidades educativas interactivas para los niños. No necesitamos temerles. Debemos respetarlos reconociendo sus potenciales y siendo inteligentes en cómo los usamos«, añade Black.

De este modo, una vez identificados los riesgos, el  siguiente paso es planificar la mejor manera de proteger la privacidad los niños mientras usas estos juguetes de IA. «Mitigar los riesgos asociados con los juguetes de IA es esencial. No se trata de desecharlos por completo, sino de utilizarlos de manera inteligente y segura», aconseja el experto de ZenShield.

Para ello, facilita un serie de consejos. Invertir en juguetes de fabricantes de confianza que priorizan la seguridad y las actualizaciones regulares de software, proteger la wi-fi doméstica con protocolos de cifrado actualizados; limitar la información compartida; y actualizar el software con regularidad.

Deja un comentario