Buscar
Cerrar este cuadro de búsqueda.
[jet_engine component="meta_field" field="antetitulo"]

Tomás Vega (Augmental): “Me he dedicado a entender cómo funciona el cuerpo humano para hackearlo”

Entrevistamos a Tomás Vega, cofundador y CEO de Augmental. La compañía ha creado MouthPad, una interface intraoral que permite controlar el ordenador usando la lengua en el paladar
Tomás Vega augmental
Tomás Vega, CEO de Augmental.

La trayectoria profesional del peruano Tomás Vega, cofundador y CEO de Augmental, es impresionante, con etapas en la Universidad de Berkeley, el área de Siri de Apple, el MIT Media Lab o Neuralink de Elon Musk. Pero todo comenzó en una tienda familiar de Hugo Boss. Después de años de innovación, ha conseguido crear una interface intraoral para navegar por internet y controlar dispositivos por la que ya se ha interesado el programa Human Machine Integration del Ejército de Estados Unidos. Sí, para soldados y espías.

Pregunta: Mantienes ese paso por el comercio textil en tu perfil de LinkedIn.

Respuesta: Sí, empecé en la tienda de mi padre en los veranos. Tenía que ir al almacén, hacer inventario, doblar ropa, aprendí sobre los diferentes estilos y telas.

Pregunta: Innovaciones que muchas veces surgen vinculadas a una discapacidad, acaban extendiéndose a otros ámbitos, incluso las agencias de inteligencia. ¿Cuál es el camino de Augmental?

Respuesta: Utilizo el concepto de universal design. La rampa que inventamos para la gente en silla de ruedas sirve también hoy para los coches de los bebés, los skates y las bicicletas. Para mí Augmental empezó cuando tenía cinco años y empecé a tartamudear, me era muy difícil conversar, interactuar y conectar con gente. Los teclados y los ratones me ayudaron a superar mis limitaciones y convertirme en la persona que quería ser.

En ese crecimiento, hubo una fascinación por la aumentación humana, por la capacidad de usar tecnología para compensar nuestras limitaciones y llegar a ser lo que queremos. A la vez gané empatía. Todos somos diferentes, no elegimos cómo nacemos y muchas veces tampoco lo que nos sucede. Elegimos cómo respondemos. Me dediqué a entender cómo funciona el cerebro, el cuerpo humano, para poder hackearlo y aumentarlo. Crear cyborgs es todo lo que hago desde hace más de 10 años, es lo que sueño. Mi cabeza piensa en interfaces. He intentado resolver el problema de cómo controlar ordenadores sin las manos.

Más allá de los implantes cerebrales: acelerar la tecnoevolución "siendo menos invasivo"

Pregunta: Las etapas en compañías como Siri y Neuralink tienen ese sentido.

Respuesta: Neuralink, esencialmente, tiene el potencial de ser la interfaz con más ancho de banda en la humanidad. Pero, a pesar de que era lo que yo quería, de que sabía que esto iba a cambiar la humanidad y de que los implantes cerebrales van a ser un componente clave en nuestra tecnoevolución, descubrí ciertas limitaciones: largos plazos para personas que necesitan soluciones ya, el riesgo de infección no ha sido resuelto, no duran para siempre y hay que reemplazaros, cicatrización, no es sencillo hacer actualizaciones, quizás haya que explantar y reimplantar…

No soy experto en neurología, pero pensé que eventualmente, con suficientes reimplantaciones podría haber riesgo de un dolor cerebral. Que conste que me encanta lo que hace Neuralink y espero que tenga éxito, pero todas esas cosas me empujaron a buscar una solución que no sea invasiva y que tenga tanta expresividad como un implante cerebral. Regresé a al MIT y me puse como meta encontrarla.

La solución está en la boca, ¿por qué?

¿Cuál es el área más expresiva del cuerpo? La lengua. Una gran porción de cerebro nota su posición y siente dónde está, se compone de 8 músculos, hay mucha redundancia y cuenta con muchas fibras lo que hace que no se fatigue tan rápido como otras áreas del cuerpo. Pensé utilizar esas características de la lengua para crear una interfaz. Hice un prototipo con la forma de un chupete con un amigo español de Barcelona, Carlos Núñez. Y probé.

La experiencia de usuario de controlar un ordenador con la lengua funcionó bien, era intuitivo, no tienes que aprender, puedes moverte por el paladar, puedes tocar todos los dientes, de izquierda a derecha, arriba y abajo. Tenía sentido, llamé a un amigo con quien hice pregrado de Berkeley, que tiene un primo con cuadriplejia y comenzamos a emprender abajo de casa, en Massachusetts. Al cabo de un año, nos fuimos a California donde estaba nuestro networking pregrado en Berkeley, y levantamos una ronda semilla. Viví casi media década en la oficina, porque es difícil atraer capital a un proyecto de accesibilidad, aun teniendo una visión que va más allá de accesibilidad.

Dispositivo MouthPad, creado por Augmental.

Una interfaz intraoral que permite controlar el ordenador usando la lengua en el paladar

¿Cómo funciona exactamente?

Es una interfaz intraoral que permite controlar el ordenador usando la lengua en el paladar. En la parte más externa de la parte superior puedes presionar para hacer el left clip, puedes succionar, hacer scroll y usar los movimientos de cabeza. Nuestra meta es lograr una interfaz no invasiva y más versátil, porque hoy en día los humanos nos adaptamos a las interfaces en vez de que las interfaces se adapten a nosotros. Es la reinvención del ratón. Ya la están usando personas que tienen parálisis cerebral, distrofia muscular y otras condiciones. Reportan una media de cuatro horas al día y algunos lo usan todos los días.

Desde el punto de vista de la innovación, ¿cuáles han sido los mayores desafíos?

Cuando intentas controlar un móvil bajo la lluvia, es un caos. Hemos tenido que crear algoritmos usando inteligencia artificial que pueden trackear la punta de la lengua en un ambiente húmedo, donde la saliva introduce ruido. En las mejillas tenemos agua, sangre y más y todo eso atenúa las ondas electromagnéticas y limita la conectividacd.

Pero lo más complicado ha sido crear un dispositivo que está en la boca y que no afecta a la capacidad de hablar y de usar interfaces de habla, porque nuestros usuarios son gente que depende de ellas. Hemos tenido que hacer un escaneado en 3D de la boca y usar diseño computacional para generar retenedores adecuados a la geometría de la boca. Empezamos a hacerlo manualmente y nos costaba 40 horas tener un dispositivo. No era escalable. Ahora, con nuestros algoritmos, podemos generar un diseño en 20 minutos que se produce en impresoras 3D utilizando resinas biocompatibles habituales en el ámbito dental. Otro de los desafíos ha sido crear electrónica que se acomode a diferentes tamaños de boca. Recibí durante un año clases de microfabricación, ahí tomé conceptos para usar materiales que se pueden estirar y comprimir.

¿Toda la microelectrónica es de Augmental, no habéis comprado un chip de terceros?

Sí, usamos componentes que se pueden comprar en Internet, pero el diseño de los circuitos y la forma en la que se posicionan y se utilizan son nuestros. No, hemos creado cohetes, solo hemos aplicado el estado del arte en circuitos flexibles de baterías ultra densas.

Más alla de la discapacidad

¿Y cómo se ha resuelto el tema de la batería?

Usamos baterías selladas usando metal. No sólo no explotan, sino que preserva el tamaño y no dejan que ningún gas o líquido se salga. También es súper pequeña. Tiene una autonomía de 4-5 horas, unos 30 miliamperios hora.

Si la vertiente tecnológica es desafiante, el lado comercial es realmente más complicado para una propuesta sasí.

El acceso al internet es un derecho universal, pero en Estados Unidos el Gobierno no paga las interfaces para navegar. Estamos haciendo una versión de nuestro dispositivo que puede controlar sillas de ruedas, porque eso sí se subvenciona. Solamente una porción muy pequeña de este segmento puede acceder a ayudas, pero creo que ha sido la estrategia apropiada que nos ha permitido comenzar a generar dinero para traer inversión e iterar. Si hubiéramos ido de frente, con un dispositivo médico, habríamos creado fricciones. Para nosotros, iterar nos permite obtener retroalimentación útil.

Sobre la posible extensión a otros sectores al margen de la discapacidad, ¿con MouthPad se podrá controlar la televisión?

Hoy en día podemos controlar tablets, PC, móviles, portátiles, juguetes sexuales, todo lo que acepta un ratón y una APP, pero en el caso de las sillas de ruedas hay que ir a la FDA, porque requiere de un nivel de seguridad mucho más alto. Lo bueno a es que una vez obtengamos el visto bueno vamos a poder acceder a todo el sistema de seguros y eso va a democratizar nuestra tecnología. Nuestro dispositivo hoy en día no está cubierto por el Medicaid, lamentablemente.

Alguna agencia de inteligencia se ha interesado por vuestro producto, podría ser una buena forma de actuar sin despertar sospechas.

Nuestro primer producto es un ratón, el siguiente es la reinvención del teclado. Estamos agregando micrófonos al dispositivo para los usuarios que tienen problemas de habla, porque han perdido el control del diafragma, o tienen un ventilador que respira por ellos, o no se les escucha porque no tienen mucha fuerza. Les es difícil usar interfaces de habla y no pueden dictar fácilmente, de modo que no tienen privacidad, no pueden acceder a Internet en una oficina o en un café porque no quieren introducir una clave de contraseña en público, son dependientes.

Estamos creando un modelo de reconocimiento automático del habla calibrado para un micrófono intraoral y con susurros de poco volumen. Eventualmente vamos a conseguir el habla completamente silenciosa. Eso va a ser útil para gente que no puede hablar, porque ha sufrido derrames o tiene impedimentos de habla. Yo, por ejemplo, cuando susurro no tartamudeo.

¿Escribir con el pensamiento?

En el Medialab, un grupo creó un sistema que aparentemente permitía escribir con el pensamiento, pero realmente leía el movimiento involuntario que hacen nuestras cuerdas vocales cuando pensamos.

Ese era mi laboratorio. Es muy difícil que funcione porque está la barba, el movimiento, se requiere mucha presión, el vocabulario es muy limitado. Usar electrodos externos es como intentar ver un partido de fútbol desde fuera del estadio. Una vez que tienes el habla silenciosa, si agregas retroalimentación de audio vía conducción ósea, tienes una interfaz bidireccional de alto ancho de banda en tu boca que permite interactuar privadamente. Es como tener un simbionte, como en Venom, que tiene un alienígena dentro. Vas a poder código, crear, idear, delegar todo en la punta de la lengua, ahí es cuando creo que realmente vamos a poder alcanzar esta simbiosis persona-ordenador.

El cyborg que buscabas. ¿Y la aplicación en misiones militares o de inteligencia?

La boca es el único lugar en el cuerpo con tejido blando y duro, membranas mucosas, si se mide el ritmo cardíaco, respiración, gases, se puede excretar sustancias como medicamentos, e impulsar la medicina de precisión. Los implantes dentales son los más comunes del mundo, son de bajo riesgo y pueden reemplazarse. Se podría hacer hardware y cambiarlo. Ese es nuestro moonshot, pero siempre creando negocios que sean sostenibles, que solucionen problemas reales y que dejen la opción para soluciones que sean de consumo masivo.

El programa Human Machine Integration del ejército de EEUU quería que trabajásemos con ellos para que los soldados puedan comunicarse y controlar los head up displays de los cascos de manera expresiva y privada. Pero ahora creo que sería una distracción, debemos enfocarnos en ayudar a gente, no queremos promover la guerra. Aunque sí estamos trabajando con la asociación de veteranos.