Pure Storage imagina un futuro centrado en los datos e impulsado por la inteligencia artificial. Esta frase puede sonar genérica y parece estar entre los principios de una buena parte de las compañías que construyen su operación desde la tecnología, pero Pure no se la toma a la ligera. Su apuesta es también un cambio de paradigma: evolucionar desde las arquitecturas centradas en aplicaciones que se apoyan en datos (o Data-driven), a una que pone a los datos como protagonistas y a las aplicaciones en roles complementarios (Data-centric).
El camino que lleva a este futuro, por supuesto, nunca es fácil.
La compañía de almacenamiento all-flash llegó a su conferencia anual Pure//Accelerate 2018 con buenas cifras bajo el brazo. El año fiscal 2018 fue el primero en que Pure alcanzó los $1,000 millones de dólares en ingresos, mientras que el primer trimestre fiscal 2019 reportó un crecimiento de 40% año contra año, así que las expectativas se encumbraban también por las nubes. ¿Cómo continuaría Pure esta tendencia en los frenéticos tiempos que vive la tecnología actualmente?
La respuesta es menos sorprendente que efectiva: siendo el que empuja, no el que se deja arrastrar.
Según expresó la compañía, la popularización del machine learning y de la inteligencia artificial ha puesto a los datos en el centro de la innovación. Las organizaciones actuales operan en un mundo de aplicaciones que evolucionan sin parar, donde el éxito futuro está dependiendo cada vez más de la capacidad de extraer inteligencia de los datos. Esta noción no es nueva, pero la infraestructura ha sido lenta para adaptarse al crecimiento exponencial del volumen de datos que se generan. La tecnología existe, pero es cara, difícil de escalar y demasiado compleja de implementar como para lograr un buen equilibrio de costo/beneficio.
Esto está cambiando lentamente y Pure planea estar al centro de esta transición. De acuerdo a un estudio realizado por el MIT Technology Review (encargado por Pure Storage), el 86% de los líderes dicen que los datos son la fundación de las buenas decisiones de negocio, mientras que 87% indicó que los mismos son clave para entregar resultados positivos a los clientes.
“Nuestros clientes están buscando agresivamente usar datos para mejorar la experiencia de sus consumidores y tomar ventaja respecto a sus competidores”, indicó Charles Giancarlo, CEO de Pure Storage. “La explosión de datos sin precedente que vivimos, junto a las nuevas tecnologías de centros de datos permiten a los clientes de Pure construir una arquitectura data-centric, que mejora y simplifica sus habilidades para usar datos de una forma en que generen inteligencia y ventaja competitiva”.
La nueva fiebre del oro
Hasta este punto todo suena más o menos conocido, pero ¿qué implica una arquitectura data-centric y a quién sirve mejor?
Data-centric se refiere a un modelo en el que los datos son el activo primario y permanente, y las aplicaciones vienen y van. En esta arquitectura el modelo de datos precede a la implementación de cualquier aplicación, y pretende ser válido y funcional una vez que estas aplicaciones ya no estén necesariamente operando.
En cambio, un modelo data-driven construye herramientas, análisis y una cultura que opera en función de los datos. Se trata más de adquirir y analizar información para tomar mejores decisiones. Por lo general, cuando se habla de Big Data se está también hablando de un modelo data-driven. Si bien pueden sonar parecidos, una arquitectura data-driven tiende a volverse menos data-centric mientras crece: si cada set de datos que se adquiere está organizado de manera diferente y no se hace ningún esfuerzo por armonizarlos, las posibilidades de generar inteligencia a partir de esos datos de forma eficiente comienza a volverse imposible.
Giancarlo, en su keynote inaugural de Pure//Accelerate comparó el valor de los datos y la forma de extraerlos a la fiebre del oro de 1848. “Menos del 1% de la información está siendo analizada por las organizaciones hoy en día, ese es el oro que tenemos que filtrar para hacer evolucionar el centro de datos”.
Según el CEO de la compañía basada en Mountain View, el centro de datos (y en mayor medida la revolución tecnológica que se vive desde los 70s) es como una silla de tres patas: cómputo, conectividad y almacenamiento. En los últimos años, las exigencias de almacenamiento han crecido tanto que la estructura amenaza con desmoronarse. Ahí es donde entran las soluciones all-flash convergentes de Pure. “Si las tecnologías de almacenamiento no aceleran su paso van a ralentizar a la totalida de la industria”, advirtió Giancarlo. “Pure ha estado invirtiendo en esta transformación desde el día uno”.
En resumen, la idea general de esta arquitectura es permitir más modelos de delivery as-a-service, ayudar a popularizar el machine learning y empujar la tecnología NVMe a más corporaciones.
Volumen de datos e inteligencia artificial
La compañía, que cumple nueve años desde su fundación y cinco desde su primer producto, presentó tres nuevas soluciones con el fin de proseguir su transformación del centro de datos, todas enfocadas en la arquitectura data-centric e intentando ampliar un poco su oferta, que si bien sigue apuntando principalmente a corporaciones de gran tamaño ahora también incluye segmentos más pequeños que quieran operar con inteligencia artificial en entornos de alto rendimiento. Como era de esperarse, estas soluciones incluyen arrays más rápidos, densos y baratos.
Pure contaba hasta ahora con cuatros modelos FlashArray//M: 10, 20, 50 y 70, que usan módulos flash conectados por SATA; además de un modelo //X70 que aprovechaba la tecnología NVMe DirectFlash. Ahora, los modelos //M serán reemplazados por los //X, en sus versiones 10, 20, 50, 70 y un tope de línea //X90. Las capacidades efectivas de estos modelos van desde los 55Tb hasta los 3 Petabytes; los modelos //X50, //X70 y //X90 se conectan además al chasis utilizando NVMe-oF, lo que permite velocidades de 50Gb/s. El tope de línea entrega latencias de hasta 250 μs.
Las intenciones de Pure con esta nueva iteración de sus opciones de almacenamiento all-flash son la integración rápida y funcional de los modelos SAN para las aplicaciones clásicas y los DAS para analíticas avanzadas y aplicaciones web-scale.
“Las nuevas tecnologías nos permiten reimaginar el centro de datos. Finalmente tenemos la habilidad de romper los silos de almacenamiento y facilitar formas más amplias de compartir la información. dijo Bill Cerreta, GM de plataformas de Pure Storage. “Las redes diversas, convergentes y con rápido procesamiento, y protocolos como NVMe están otorgando el potencial de rediseñar el centro de datos para que se enfoque justamente en eso: los datos. La familia FlashArray//X representa un crítico primer bloque de construcción para una arquitectura data-centric”.
Otra de las sorpresas fue el AIRI Mini, una colaboración con Nvidia diseñada para operar con cargas de trabajo de inteligencia artificial y ciencia de datos. El AIRI mini está construido sobre 7 blades de 17Tb, dos servidores Nvidia DGX-1 y dos switches de 100GbE. Si bien AIRI ya había sido presentado este año, la versión Mini permite una operación de menor escala, utilizando sólo medio rack.
AIRI utiliza el software cloud de deep learning de las GPU Nvidia, además del toolkit de escalación de Pure Storage, tecnologías que están optimizadas para entrenamiento multinodo. De acuerdo a información de la compañía, AIRI Mini permite iniciar proyectos basados en AI y deep learning en apenas horas, un proceso que antes podía tomar semanas o meses.
No menos importante fue la actualización del modelo de suscripción Evergreen (ES2). Durante el Pure//Accelerate, IT Masters Mag platicó con media docena de clientes y las opiniones respecto a Evergreen siempre concordaron: es un de las principales razones para elegir a Pure Storage. Con Evergreen las empresas firman un contrato que les permite, además de los soportes tradicionales, actualizar su hardware a las nuevas versiones que lanza Pure, eliminando las recompras de tecnología y los downtimes planeados. Este servicio opera como un SaaS on-premise que facilita adaptarse a los fluctuantes requerimientos de capacidad manteniendo los costos bajos.