“Cuanto más poderosa se vuelve la inteligencia artificial, más peligrosa es en manos de los actores de amenazas. El fraude ha experimentado una evolución vertiginosa desde que la inteligencia artificial generativa (GenAI) se hizo ampliamente disponible. Se acabaron los correos electrónicos pintorescos de príncipes nigerianos con bolsillos profundos y mala gramática: ahora estamos en la era de las máquinas que pueden hablar, escribir y actuar como humanos”, comentó Mónica Mistretta, directora general de Netmedia, la casa editora de este sitio, en la introducción al tema de la más reciente sesión del IT Masters Club, para la cual “no pudimos elegir mejor socio que Zscaler, que es un líder en este campo”.
El proveedor de seguridad en la nube tiene más de 40 millones de clientes que interactúan en su infraestructura, “la más grande del mundo de la ciberseguridad con 30 veces más transacciones de lo que tiene de consultas Google al día”.
Los ciberataques son frecuentes en todas las industrias. De acuerdo con Statista, se estima que el coste global de la ciberdelincuencia aumentará en $5,700 millones de dólares (70%) para 2028.
En vista de los crecientes riesgos, el viejo lema de combatir fuego con fuego se está volviendo una realidad cotidiana. Se tiene que utilizar la AI para detectar la AI. Por fortuna, existen varias tecnologías clave y técnicas que pueden ser desplegadas para contrarrestar la avalancha de fraude basado en estas nuevas herramientas.
Combatir fuego con fuego
En su discurso de apertura, el director general para México de Zscaler, Mario Mora, destacó la importancia entre ambos temas. “La inteligencia artificial cobra mucha relevancia especialmente hacia la ciberseguridad en términos de que puede ser usada a favor o en contra”.
De acuerdo con un sondeo de IT Masters Mag, la principal tarea en la que las organizaciones usan esta tecnología es el análisis de amenazas. “El viejo tema de combatir fuego con fuego se vuelve relevante”, añadió Mistretta.
Análisis de amenazas, la tarea para la que más se usa AI
Entre los asistentes a la mesa redonda, el análisis de amenazas apareció en el número uno de los resultados del sondeo instantáneo que se hizo sobre las tareas donde se implementa inteligencia artificial.
El gerente de Seguridad IT de Volaris, César Arellanes, dio el primer ejemplo: “Tenemos una herramienta que hace el descubrimiento de información de repositorios que vinculamos. Con base en ciertas reglas, muy al estilo como lo hace DLP, empezamos a correr esas políticas o directivas y descubrimos incumplimientos”.
El director de Ciberseguridad de Invex Grupo Financiero, Enrique López, compartió que “estamos creando todo un ecosistema para descubrimiento de datos para protección de los mismos”, aunque advirtió que están en una etapa poco avanzada.
Agregó que a través de herramientas de procesamiento de datos (DP, por sus siglas en inglés) en diferentes capas en cuanto al endpoint descubren qué información hay “y de acuerdo a ciertos criterios la pueda clasificar o etiquetar para después protegerla”.
Para el CIO de Ica Fluor Daniel, Enrique Susarrey Sánchez, la ventaja al usar estas herramientas —en su caso, Security Copilot— está en la predicción. “Puedes predecir comportamientos del usuario. Algunos temas de phishing estamos empezando a predecir”, comentó.
Falsos positivos
En la opinión de la directora IT del Campus Ciudad de México del Tecnológico de Monterrey, Claudia Galindo, si bien el análisis predictivo facilita y hace más rápidas estas tareas, “uno de los desafíos es encontrar ese punto medio en donde la inteligencia artificial ya no proporciona esa agilidad para poder identificar patrones”.
Añadió la importancia del talento que complemente estos análisis ya que a veces no se sabe “si realmente nos estamos enfrentando a una amenaza o dado que se está en este proceso de entrenamiento está dando un falso positivo”.
La líder de Transformación digital y TISL para América Latina de un conglomerado de las industrias de la confitería, alimentación y bebidas, Yami Hagg, abundó sobre ese problema: “Nos estamos encontrando también con muchos falsos positivos. Todavía hay mucho trabajo que hacer en configuración para que estemos en un 100% automatizado, para que pueda cerrar los ojos”.
Sin embargo, destacó que “nos ha ayudado que no sea un trabajo totalmente manual como lo veníamos haciendo”.
El consultor sénior de IT y Seguridad de la información de CIBanco, Charles Eaton, también habló del tema. Si bien “más de 90% de las amenazas nunca las detectaríamos hasta el momento en que se cometen, el problema es que arrojan muchos falsos positivos y tienes que estar enseñándole”.
Para el gerente de BI de Grupo Empresarial Ángeles, Omar Téllez, “los falsos positivos van a existir hasta que la AI sea perfecta. Hoy en día trae precargado el estándar —como le llamamos— y tiene que conectarse con machine learning para que a diario aprenda cosas nuevas, de acuerdo a cada tipo de industria”.
Marco Antonio Gómez Moreno, director de Sistemas e IT de ICEE de México
Téllez detalló que no todos los ataques son iguales, pues varía por sector e incluso por empresa. De ahí, dijo, la importancia del big data para poder enseñar todos los posibles escenarios, incluidos los ataques no generados por humanos. “Hay ciberataques creados a través de inteligencia artificial, que son capaces de hacerse pasar por un humano. Entonces hay que incluso entrenar para detectar si se trata de máquinas”.
No a los ambientes aislados
Sobre el uso de estas herramientas, Mora, de Zscaler, sugirió no quedarse con un ambiente aislado: “Sería de mucho valor que, dentro de estos datos que estás comparando, puedas tener un estándar de industria. Saber cómo está alguien que hace lo mismo que tú, el tipo de ataques que está teniendo, qué tan cerca o lejos estás de las mejores prácticas de tu industria”.
En ese sentido, la líder de Seguridad de aplicaciones de Alsea, Maribel Hernández, coincidió. “Es importante la colaboración, ya que justamente la inteligencia artificial permite hacer ataques especializados y dirigidos”.
Como ejemplo habló de una de las herramientas que usan para entender patrones e identificar si se está bajo ataque. “Si empezó a usarse del otro lado del mundo, a través de su base, puede protegerte a ti”.
Análisis veloz de amenazas
Entre los asistentes, el principal beneficio de usar AI para el análisis de amenazas es la detección más rápida, de acuerdo con las respuestas de una nueva pregunta del sondeo instantáneo.
Para identificar la “verdadera ventaja” de la inteligencia artificial, Eaton, de CIBanco, recordó cómo ocurría antes de esta tecnología el análisis de vulnerabilidades.
“Había un par de auditores que estaban enfocados al área de Sistemas para revisar todo el código de los programas que se tenían en Cobol para identificar una vulnerabilidad. Estoy seguro que esos siete meses de trabajo arduo de esas dos personas hoy lo tendríamos en no más de dos horas”, comentó.
El gerente de Seguridad informática de Grupo Empresarial Ángeles, Rogelio Alvarado, explicó que han empezado a descubrir estas soluciones y aunque “el trabajo de hacer el análisis, de hacer las revisiones, de tener la parte minuciosa” lo lleva a cabo una persona, su responsabilidad ya es compartida con una herramienta.
La CIO para América Latina de Stanley Black & Decker, Guadalupe Azuara, indicó que en su caso usan estas herramientas para “un análisis preventivo-predictivo de las posibles amenazas que podemos tener”.
Azuara detalló que usan Zscalaer como parte de la herramienta corporativa para la detección de esas vulnerabilidades, que pueden generar un ataque tanto interno como externo.
A pesar de los “resultados extraordinarios”, sobre todo en tiempos, al pasar de meses a semanas, que Grupo Financiero Inbursa logró con un proyecto piloto de casi 300 personas usando Copilot, su director de Sistemas, Raúl Ramírez habló de un freno: la seguridad.
En su experiencia, compartió, la dirección general detuvo el proyecto ante algunos riesgos que veía. “Hoy el reto que tenemos es cómo vamos a asegurar esos repositorios de código —no tenemos nada en la nube—. Aún teniendo todo on-prem cómo vamos a garantizar ese gobierno de GenAI”.
Participantes
Rogelio Alvarado Vilchis, gerente de Seguridad informática de Grupo Empresarial Ángeles; César Arellanes Sánchez, gerente de Seguridad IT de Concesionaria Vuela Compañía de Aviación; Guadalupe Azuara León, CIO Latam de Stanley Black & Decker; Raúl Ángel Domínguez García, oficial de Seguridad de la información de Invex Grupo Financiero; Charles Frances Eaton Correa, consultor sénior de IT y Seguridad de la información de CIBanco; Claudia Julieta Galindo Reza, directora IT del Campus Ciudad de México del Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM); Marco Antonio Gómez Moreno, director de Sistemas e IT de ICEE de México; Yami Hagg y Hagge, líder de Transformación Digital y TISL para América Latina de un conglomerado de las industrias de la confitería, alimentación y bebidas; Maribel Hernández Gutiérrez, líder de Seguridad de aplicaciones de Alsea; Enrique López Angulo, director de Ciberseguridad de Invex Grupo Financiero; Luis Miguel Manzo Gallardo, director regional de ALPLA México; Armando Méndez Hernández, director de Tecnología de Información y Transformación de Sabormex; Raúl Ramírez Hernández, director de Sistemas de Grupo Financiero Inbursa; Humberto David Rosales Herrera, director de Seguridad de la información del Banco Nacional de Obras y Servicios Públicos; Carlos Eduardo Sánchez Arroyo, líder de Ciberseguridad de Concesionaria Vuela Compañía de Aviación; Fernando Sartillo Ángeles, gerente de Infraestructura de Grupo Empresarial Ángeles; Enrique Alejandro Susarrey Sánchez Hidalgo, CIO de Ica Fluor Daniel; Leonardo Tapia, CISO de Casa Cuervo, y Omar Téllez, gerente de BI de Grupo Empresarial Ángeles.