PhotonicSENS es una empresa deep tech que combina fotónica y óptica para crear las cámaras de visión en 3D más competitivas por debajo de un metro de distancia. Jorge Blasco, CTO y fundador de la compañía, apostó por emprender con 12 familias de patentes en los cimientos, especialmente del ámbito PCT (photonic current transducer). De la mano de la inteligencia artificial, su tecnología plantea un cambio de paradigma que puede transformar desde tablets y smartphones hasta robots industriales, sistemas de control de calidad o, incluso, videojuegos en el mundo virtual.
Pregunta: La visión artificial está ahora en el centro de cualquier estrategia de automatización, es una pieza clave para obtener todo el potencial de la inteligencia artificial (IA).
Respuesta: La IA sin medir no es tan buena como la IA midiendo físicamente un parámetro. Nuestras cámaras calculan la distancia de los planos en el mundo real: saben que un dispositivo está a 40 cm, otro a 70 cm y la ventana que hay detrás está a 1 metro y medio. Lo sabe la cámara porque lo mide. La IA siempre se va a encontrar con alguna imagen no entrenada donde va a fallar. Un robot moviéndose con una Cámara en 2D e IA, nunca será tan bueno como un robot moviéndose con una Cámara en 3D e IA.
Pregunta: ¿Dónde va a ser más transformadora esta tecnología?
Respuesta: Hay tablets Android con nuestra cámara. Las utilizan médicos alemanes para medir tridimensionalmente heridas crónicas en pacientes con diabetes. La IA nunca será capaz de entrenarla para los millones de posibles heridas que millones de posibles pacientes de diabetes tienen. Hay que medirlo físicamente. La cámara usa algoritmos de IA, pero guiados por una medida real. Dentistas americanos hacen un escáner 3D de los dientes o de la ausencia de dientes con nuestras cámaras y mediante técnicas de IA le dicen al paciente: esta va a ser tu cara mañana.
Pregunta: PhotonicSENS es una rara avis porque fabrica además en España.
Respuesta: No podemos ser sólo una fabless porque después de recorrer todo Taiwán, todo China, todo Estados Unidos, nadie puede fabricar con la precisión que queremos y nos vemos obligados a tener nuestro clean house aquí. Está muy bien porque significa que, si quieren copiarnos, además de infringir nuestras 50 patentes, tienen que inventar un proceso de fabricación que no es trivial en absoluto, con lo cual ponemos una barrera más a la futura competencia.
Más allá del láser: ver lo que al lídar se le escapa
¿Con el desarrollo de las cámaras en 3D, la robótica o los sistemas autónomos van a poder tener funcionalidades nuevas?
Podemos potenciar una máquina de clasificación de naranjas, un robot de recolección de rosas, una máquina robotizada de clasificación de tornillos o un sistema de control de calidad en fabricación electrónica. Estamos vendiendo ya más cámaras en España que en Taiwán para fabricación de juguetes. Nos piden en Taiwán una cámara capaz de escanear un zapato y nos la encargan también en Japón y, en Estados Unidos, algunas de las multinacionales más grandes del mundo. El Instituto de Calzado de Alicante quiere poder escanear un pie humano para hacer recomendaciones a los clientes y colocar una cámara en cada zapatería. Una gran compañía internacional de gafas de realidad virtual quiere instalar una de nuestras cámaras mirando a los labios.
¿Dónde se encuentra el valor diferencial?
Nosotros vemos todos los radios de una bicicleta en el mapa de profundidad y el lídar no ve ni uno. Los dispositivos con líder usan técnicas de IA para recrearlos, pero no van a ser capaces de obtener esa información. Un cliente holandés está intentando poner nuestra cámara en un drone, porque los que se utilizan en agricultura, a menudo, chocan contra los alambres que hay en el campo para impedir que el ganado salga. Las manos son el interface para comunicarse con las gafas, pero la tecnología convencional no es capaz de ver los objetos pequeños que puedes sostener entre los dedos, y la nuestra sí.
El lídar de un smtartphone, por debajo de 20 cm, pierde precisión. Ese es el motivo por el que tenemos una ventaja competitiva muy grande. A distancias inferiores a medio metro, barremos. Pero nuestro énfasis principal ahora mismo no es la realidad virtual y la realidad aumentada, sino las cámaras industriales. Estamos ensayando comunicarlas con cualquier entorno de juegos, como Unreal, para crear gemelos digitales, ya hemos desarrollado la arquitectura para hacerlo desde un PC, gafas de realidad aumentada y virtual o un smartphone.
Quiero entender el cambio de paradigma que supone esto respecto a la forma en la que se trabajaba y respecto a la forma en la que se concibe la mayor presencia de la IA en el ámbito de las operaciones.
Si no mides la profundidad, la IA no tiene datos suficientes para decir si un componente va a fallar con una probabilidad determinada en tantos meses, días o años. El cambio del paradigma consiste en darle más datos a la IA para que los digiera y haga un control de calidad perfecto, no solo con imágenes en 2D.
Doce familias de patentes, otorgadas en 51 países
En Munich, el director científico de Intrinsic (Alphabet), Torsten Kroeger, decía que el desafío era diseñar un sistema que necesite la menor cantidad de datos posible.
Puedes tener un montón de megapíxeles, pero no sirven para nada si no eres capaz de saber la diferencia de posición entre un punto y otro.
Se están generando LLMs para el mundo de la robótica. Escuchándote, da la sensación de que quizás no hay que matar moscas con cañonazos, es más eficiente ir al dato preciso.
Soy partidario de la IA. Ahora bien, si no compras pescado de calidad, aunque tengas una cocina inteligente, la sopa no va a ser excelente. Hay ciertas magnitudes que debes medir y, si no las tienes, la IA te las va a pedir. Los lídar de los coches son una luz infrarroja que se envía y en función del tiempo que tarda en volver sabemos si algo está lejos o cerca. Mide el tiempo de propagación de la luz. Si se utiliza una cámara en 2D el peligro de chocar porque una imagen no entró en el proceso de entrenamiento es grande. El lídar, combinado con una técnica de IA que mida las imágenes, es lo óptimo.
PhotonicSENS no ha entrado en el coche autónomo.
Por dos motivos, primero, porque somos mejores que el lídar por debajo del medio metro, pero no a 100 metros, e incluso a 10 metros es discutible. Y segundo, prefiero vender cámaras para control de calidad en aplicaciones industriales. Todo lo que es automoción y consumo, si sale, ya saldrá.
Habéis sido muy activos en la solicitud de patentes de PCT (photonics current transducer), base de la tecnología de vuestras cámaras en 3D.
Tenemos 12 familias de patentes ya otorgadas en 51 países y van aumentando mes a mes. Quien no quiera patentar, en un mercado tan grande, está trabajando gratis para su competencia. Si no tienes tu tecnología protegida con patentes, copiar es legal. En esta compañía, si alguien infringe nuestras patentes, le meteremos un pleito sea chino, japonés, americano o de cualquier país europeo. Las patentes son necesarias si tienes una tecnología de gran consumo ahora.
¿Cuáles son los próximos desafíos en el ámbito del PCT?
Estamos permitiendo escanear un personaje del mundo físico para meterlo en un juego del mundo virtual. En el futuro tendremos una de nuestras cámaras en un dispositivo Android y escanearemos modelos en 3D. Utilizaremos los últimos procesadores de Qualcomm, que hasta ahora no eran suficientemente potentes, y nuestros propios chips para escanear el modelo 3D de un personaje que se quiera meter en internet en el formato de los principales fabricantes de juegos. Dicen que en el futuro los restaurantes escanearán en 3D su comida para que veamos trascender el plato de arroz a la cubana.
«No hay que pelearse entre el hardware y el software. Lo mejor es la combinación óptima de ambos»
Realmente, hemos hablado mucho del impulso de la automatización por parte del software, pero es que el hardware no sólo no se queda atrás, en ocasiones es la fuerza tractora.
Los Ferraris utilizan IA para la inyección de gasolina dentro de la maquinaria. ¿De qué depende la aceleración de cero a 100 km/h en dos segundos, de la IA o del motor? La respuesta es del motor con IA. No hay que pelearse entre el hardware y el software. Lo mejor es la combinación óptima de ambos. La pelea entre hardware y software o la pelea entre IA y hardware es una pelea ficticia creada por la incultura.
Hace unos meses denunciaste en un evento que se habían quedado desiertos ocho millones de euros en ayudas públicas pese a que habían acudido a la convocatoria dos empresas tecnológicamente excelentes.
El diseño del Perte Chip y del IPCEI se ha hecho de espaldas a la realidad industrial. Uno de los principales obstáculos son los avales. Con el modelo actual, se da dinero a quien no le hace falta y al que sí, no le llega. El caso del que hablé estaba relacionado con subvenciones del CDTI, que nunca ha pedido avales, pero a dos empresas estupendas con tienen 30-40 empleados, la grande, y 20 la pequeña, les devolvieron las propuestas por ser microempresas.
Sin tener en consideración la tecnología.
En microelectrónica, un pringado de hoy puede ser un unicornio mañana. Pero el sistema de petición de avales funciona al revés: para las compañías sólidas, un 60%; para los que tienen una hoja de balance regular, un 70%; y para los que tienen una hoja de balance mala, que son las que más necesitan el dinero, un 80%. ¿Realmente quieren promocionar la microelectrónica? No saben lo que le hace falta a este país ni conocen la infraestructura industrial.
Van a quedar desiertas muchas convocatorias. Si se ha hecho una Ley de Amnistía, ¿no se puede cambiar la de subvenciones, que es posiblemente más importante para el país? Si hay algo en lo que soy bueno como empresario es preparando propuestas para la Administración europea y la nacional, pero no voy a perder ni un minuto porque es imposible pedir un aval.