Con más de 35 años de experiencia en el sector tecnológico, José Manuel Petisco es hoy el vicepresidente de NetApp para la región de EEMI, que incluye Europa del Este, Oriente Medio y África, España, Portugal y Latinoamérica. Son todos ellos mercados donde la compañía espera crecer de forma significativa los próximos años. En la visión estratégica de José Manuel Petisco, España y Portugal actuarán como “pivote o elemento de tracción de recursos y experiencias para el resto".
Pregunta: Un área geográfica de esa naturaleza implica adaptarse a mercados con puntos de partida tecnológicos muy diferentes. En unos casos, el legacy es un condicionante, pero en otros simplemente no existe. ¿Cuál es tu conclusión al respecto en relación con España: para la gestión de los datos es una ventaja o un inconveniente?
Respuesta: En España, ahora tenemos una tremenda oportunidad de coger el tren. Hay muchas tecnologías emergentes que tienen un denominador común: el dato. Es, después de los propios empleados, el activo más importante para una empresa. Además, hay apetito por invertir en compañías presentes en esas tecnologías emergentes. Tenemos que prepararnos muy bien para aprovechar los datos, son un valor diferencial dentro del mercado.
Pregunta: En un mundo repleto de incertidumbres, eso es lo único que no genera dudas.
Respuesta: Lo que hay que hacer es dar a esos datos una gestión y una inteligencia que haga mucho más fácil su manejo. Cada vez es más compleja la gestión por su volumen, por su clasificación, por su criticidad. Y además vamos teniendo una regulación que cumplir, no solo el GDPR, sino también otra serie de normativas a nivel empresarial, como la de entidades financieras.
A partir de enero, la regulación DORA (digital operational resilience act) pone mucho foco también en el dato. Todas las compañías necesitamos tener una estrategia de datos, porque son únicos. Muchas veces por ir rápido y sin pensarlo muy mucho estamos cediendo nuestro know how y nuestro conocimiento del mercado.
Pregunta: En Latinoamérica o África, sobre los que recae tu responsabilidad en NetApp, se han saltado varios pasos.
Respuesta: Aquellos países que están trabajando con un legacy mayor tienen un volumen de datos muy importante y esto no ocurre cuando te saltas una serie de etapas. En ese caso, tienes que poner en marcha iniciativas para tener los datos necesarios, pero a la vez dispones de más agilidad para trabajar con nuevas tecnologías, sin necesidad de hacer migraciones específicas.
Objetivo: "cualquier dato en cualquier lugar"
El objetivo debería ser tener cualquier dato en cualquier lugar donde sea necesario. Para ello se necesita un único panel de control, disponer de las mismas herramientas de gestión para los datos, independientemente de la arquitectura en la que se esté trabajando, sea legacy o sea cloud. El 98% de las compañías están yendo al cloud, pero todavía el 75% de sus datos están on premise, con lo cual necesitan moverlos y gestionarlos datos de forma segura y fiable entre sus entornos.
El almacenamiento all flash no deja de batir récords. ¿Dónde está el límite, cuáles son las claves de lo que está pasando?
El almacenamiento flash, igual que muchas otras tecnologías, cada vez es más asequible y tiene más prestaciones, por lo que va sustituyendo a tecnologías que no han podido seguir una evolución de reducción de costes similar. No es el único, pero desde luego es cada vez más utilizado en distintos entornos porque ofrece muchísimo más rendimiento y hay aplicaciones críticas de negocio que lo necesitan.
En un sistema de prepago de telefonía, en cuanto un número está llamando se necesita acceder rápidamente para ver si tiene crédito, el usuario no va a esperar ni un segundo, es menos paciente. Estamos acostumbrados a una respuesta automática, esperamos inmediatez. Pero el rendimiento no es la única cuestión crítica: hace falta seguridad y protección, que sea compliance y sostenible.
La alianza con NDIVIA
En el ámbito de la inteligencia artificial (IA), quién no está pactando con NVIDIA. ¿Qué supone para NetApp, cómo puede cambiar a la compañía la alianza?
Lo que proporcionamos en nuestra alianza con NVIDIA es una infraestructura inteligente que permite a nuestros clientes tener sus datos preparados para la IA y flexibilidad para poder moverlos de un entorno a otro. Muchas veces hay diferentes proyectos corriendo en paralelo. Se requiere, por ejemplo, clonar los datos rápidamente de modo que puedan trabajar en cada uno de esos proyectos y no se compartan. No debe haber silos de datos: es muy importante el rendimiento, pero también escalar. Ahora mismo, la IA está generando alrededor del 1% del volumen de datos, pero en poco tiempo producirá más del 10%.
La infraestructura inteligente de Netapp está preparada para absorber ese crecimiento de datos que, en muchos casos, van a ser confidenciales. Vamos a necesitar protegerlos, securizarlos, e introducir también una mayor automatización de todos esos procesos, porque ahora mismo a los equipos dedicados a toda esa gestión del dato les viene un crecimiento exponencial.
En el acuerdo con NVIDIA se habla de potenciar los agentes de IA.
Este tipo de agentes son capaces de responder a la mayoría de las cuestiones que pueden plantear nuestros clientes cuando tienen un caso de soporte. También pueden participar en el análisis del comportamiento de nuestros equipos para hacer mantenimiento preventivo. Esos roles están siendo automatizados y al final la respuesta es mucho más rápida y eficiente.
NetApp participa en casos de uso muy diferentes, desde la Politécnica de Madrid a un equipo de Fórmula 1. ¿Cuáles son las principales tendencias de cambio en el mercado?
Trabajamos con cualquier carga de trabajo y en cualquier arquitectura. Vemos un movimiento muy importante en la modernización de aplicaciones e infraestructuras hacia el entorno de kubernetes. Esta área, junto a la IA, son probablemente las de mayor crecimiento que podamos tener ahora, aparte de las diferentes cargas de trabajo tradicionales.
Despilfarro. "El 70% de los datos que generamos no vuelve a ser utilizado"
¿Y en cuanto al tipo de clientes? ¿Con el auge del retrofitting, hay nuevos segmentos en los que se ha despertado el interés por la gestión inteligente de los datos?
Muchas tecnologías están ahora coincidiendo en el mercado con ese denominador común del dato. Los datos que proporciona todo el entorno de IoT (internet de las cosas) ayudarán a generar inteligencia para crear nuevos servicios hacia los clientes, o nuevas eficiencias, o una nueva forma de gestionar la industria en ese entorno del 4.0.
El 70% de los datos que generamos no vuelve a ser utilizado y queda almacenado en algún lugar. Existe también un cierto despilfarro digital, debido a esa conciencia de todo el mundo de que el dato es importante y “no lo borro por si acaso”. La inteligencia en la gestión de los datos es muy importante para ser más eficiente.
Ese dato no es nuevo, pero no deja de ser tremendo. Tiene además implicaciones de materia de sostenibilidad.
También es muy importante en la toma de decisiones en las data driven companies. Cuantos más datos relevantes se puedan utilizar, y de una forma rápida, mayor será la ventaja competitiva dentro del mercado. Antes se hablaba de la intuición, ahora se habla del dato para tomar esas decisiones.
Dato de calidad como ventaja competitiva
En el ámbito de las comunicaciones, de la conectividad, las redes privadas de 5G están experimentando un salto sustancial en algunos mercados (no el español, por diversas razones). ¿Puede traer consigo una nueva estrategia de gestión de datos?
No tenemos tecnología de 5G en una red privada, pero sí alianzas muy sólidas, por ejemplo, con Cisco. Todo este entorno del ecosistema nos enriquece y nos ayuda a proporcionar diferentes soluciones a nuestros clientes, que al final tienen una arquitectura de entorno digital cada día más más completa y compleja. Todo aquello que podamos hacer para simplificar la gestión y la operación de toda esa plataforma inteligente de datos va a permitir que las empresas tengan menos gente en producción de datos y puedan dedicar más recursos a la propia innovación.
La sostenibilidad no es solo el consumo del equipo, sino la inteligencia en la gestión de esa infraestructura inteligente para mover datos al data center que tenga más acceso a fuentes de energía sostenibles. En cualquiera de esos entornos, tenemos que vigilar y ofrecer a nuestros clientes una respuesta a esos nuevos desafíos.