Los CIO están comenzando a considerar cuál es la infraestructura necesaria para soportar las tecnologías de Inteligencia Artificial (IA). Así lo indicaron diversos expertos en la Cumbre de Aprendizaje Profundo de ReWork, en San Francisco, California. Según ellos, en el pasado, las arquitecturas empresariales se unieron en torno a pilas de tecnología eficientes para procesos de negocios respaldados por mainframes y, posteriormente, por minicomputadoras, servidores de clientes e Internet, hasta llegar a donde estamos: la computación en la nube.
No obstante, según explicaron varios analistas a SearchCIO, cada nivel de infraestructura hoy está en juego por la prisa de aprovechar la IA. “Por primera vez estamos viendo que cada capa de esa pila está en juego, desde la CPU y la GPU hasta qué marcos se deben usar y de dónde obtener datos”, indica Ashmeet Sidana, fundadora y socia gerente de Engineering Capital
Hay mucho en juego para construir una infraestructura de IA: las startups, así como las empresas heredadas, podrían lograr enormes ventajas innovando en cada nivel de esta pila emergente. No obstante, el trabajo no será fácil para los CIO, que se enfrentan a un campo en rápida evolución, en el cual el orden jerárquico de los proveedores aún no está resuelto y sus decisiones tecnológicas tendrán un impacto dramático en el desarrollo de software.
Según analistas del rubro, una infraestructura de IA requiere un nuevo modelo de desarrollo que necesita un proceso más estadístico que determinista. Por el lado del proveedor, la tecnología TensorFlow de Google se ha convertido en uno de los primeros ganadores, pero enfrenta desafíos de producción y personalización.
Para complicar más las cosas, los CIO también deben decidir si implementar la infraestructura de IA en hardware privado o usar la nube.
Nuevas habilidades requeridas para IA
Los enfoques tradicionales de desarrollo de aplicaciones crean aplicaciones deterministas con mejores prácticas bien definidas. Sin embargo, IA implica un proceso inherentemente estadístico.“Hay una incomodidad en pasar de un reino a otro. Reconocer este cambio y comprender sus ramificaciones será fundamental para llevar a la empresa al aprendizaje automático y al espacio de IA”, asegura Sidana.
Por otro lado está el pequeño y sucio secreto de IA: los tipos de esta tecnología que resultan más útiles para las empresas (el aprendizaje automático y, especialmente, los enfoques de aprendizaje profundo) funcionan muy bien solo con grandes datos, tanto en cantidad como en calidad.
Con los algoritmos cada vez más comoditizados, lo que solía ser la principal característica de limitación de velocidad de IA, es decir, la complejidad de desarrollar los algoritmos de software, está siendo suplantada por un nuevo obstáculo: la complejidad de la preparación de datos.
“Cuando tengamos algoritmos de IA perfectos, todos los ingenieros de software se convertirán en ingenieros de análisis y preparación de datos”, dice Sidana.
Posteriormente, están las importantes preguntas de la plataforma que deben ser resueltas. En teoría, los CIO pueden implementar cargas de trabajo de IA en cualquier lugar de la nube, ya que proveedores como Amazon, Google y Microsoft, por nombrar solo algunos, pueden proporcionar máquinas GPU casi desnudas para los problemas más exigentes.
Aún así, los conferencistas que participaron en la cumbre de ReWork enfatizan que los CIO deben analizar, cuidadosamente, sus necesidades y objetivos antes de tomar una decisión.
TensorFlow examinado
Hay una serie de marcos de aprendizaje profundo, pero la mayoría se centran en la investigación académica. Google es quizás el marco más maduro desde el punto de vista de la producción, pero todavía tiene limitaciones, según indican expertos.
Eli David, CTO de Deep Instinct, una startup con sede en Tel Aviv que aplica el aprendizaje profundo a la ciberseguridad, dice que TensorFlow es una buena opción cuando se implementan tipos específicos de cargas de trabajo bien definidas, tales como reconocimiento de imágenes o reconocimiento de voz.
No obstante, advierte que requiere una gran personalización para cambios aparentemente simples, como el uso de operaciones de convolución no rectangulares en las imágenes.
“Puedes hacer cosas de alto nivel con los componentes básicos pero, en el momento en que quieras hacer algo un poco diferente, esto no será fácil”, asegura.
La plataforma de aprendizaje automático que Deep Instinct creó para mejorar la detección de amenazas cibernéticas mediante el análisis de datos de infraestructura fue diseñada para incorporar una serie de tipos de datos que no son adecuados para TensorFlow o los servicios existentes de IA en la nube. Como resultado, la compañía construyó sus propios sistemas de aprendizaje profundo en infraestructura privada, en lugar de ejecutarlo en la nube.
“Hablé con muchos CIO que hacen aprendizaje automático en un laboratorio, pero tienen problemas en la producción, debido a las ineficiencias inherentes en TensorFlow”, dice David.
Agrega que su equipo también se encontró con problemas de producción al implementar algoritmos de inferencia de aprendizaje profundo basados en TensorFlow en dispositivos con memoria limitada que requieren dependencias en bibliotecas externas. David cree que, a medida que se diseñen más marcos de aprendizaje profundo para la producción en lugar de solo para entornos de investigación, los proveedores posiblemente irán abordando estos problemas.
Entrenamiento separado del despliegue
Un aspecto no menor es que resulta necesario que los CIO hagan una separación entre la capacitación y la implementación de algoritmos de aprendizaje profundo.
Evan Sparks, CEO de Determinated AI, un servicio de capacitación e implementación de modelos de aprendizaje profundo con sede en San Francisco, California, señala que implementar GPU más recientes y rápidas no es sencillo.
“Rechacé la suposición de que el entrenamiento profundo debe ocurrir en la nube. Mucha gente con la que hablamos, finalmente, se da cuenta de que las GPU en la nube son de cinco a 10 veces más caras que comprarlas en las instalaciones”, dice Sparks.
Para el ejecutivo, los objetivos de implementación pueden incluir servicios web, dispositivos móviles o autos de conducción autónoma; aunque este último puede tener problemas de potencia, eficiencia de procesamiento y latencia que pueden ser críticos y no poder depender de una red.
“Creo que cuando se ve fricción al pasar de la investigación a la implementación, ya que los investigadores no diseñan pensando en esta o en las limitaciones de las herramientas”, puntualiza Sparks.