ciberseguridad

México enfrenta un nuevo desafío de ciberseguridad

La inteligencia artificial generativa (GenAI) ha dejado de ser una promesa futurista para convertirse en una herramienta cotidiana dentro del ecosistema digital mexicano. Desde redactar correos hasta automatizar tareas complejas, su adopción se ha expandido rápidamente. Sin embargo, este fenómeno también ha abierto una puerta inquietante: la pérdida de datos confidenciales y el aumento de riesgos de ciberseguridad.

Así lo revela el más reciente informe The State of Generative AI 2025, elaborado por Unit 42, el equipo de inteligencia de amenazas de Palo Alto Networks, líder global en ciberseguridad. Según el estudio, el tráfico global de GenAI creció más de 890% en 2024, y los incidentes de pérdida de datos relacionados se duplicaron con creces durante la primera mitad de 2025.

En México, donde la adopción de estas tecnologías es particularmente alta, la alerta es aún más clara.

México, un país pionero en adopción… pero también vulnerable

De acuerdo con el reporte, las organizaciones mexicanas utilizan en promedio más de 60 aplicaciones de GenAI, siendo Grammarly (66,9%) y ChatGPT (12,1%) las más empleadas en términos de transacciones. No obstante, en cuanto a volumen de datos compartidos, ChatGPT lidera con el 37,6%, seguido de Grammarly (31,3%) y Microsoft Power Apps (15,5%).

Aunque estas cifras muestran una clara tendencia hacia la digitalización inteligente, también revelan una problemática creciente: el uso no controlado de estas herramientas —conocido como “Shadow AI”—.

“En México, donde estas tecnologías se adoptan rápidamente, es clave establecer políticas claras de uso y mecanismos de control que permitan aprovechar sus beneficios sin comprometer la seguridad”, señaló Daniela Menéndez, Country Manager de Palo Alto Networks México.

ciberseguridad
Imagen de referencia de Pexels

¿Qué está en juego? De correos inofensivos a filtraciones críticas

El uso informal o sin supervisión de GenAI puede parecer trivial: un colaborador redactando un correo con ayuda de la IA, un estudiante resolviendo una tarea, o un desarrollador generando código desde una app gratuita. Pero en el entorno corporativo, estas pequeñas acciones pueden escalar rápidamente a situaciones de alto riesgo.

Entre los incidentes más comunes se encuentran:

  • Exposición involuntaria de información confidencial, como contratos, datos de clientes o propiedad intelectual.

  • Incumplimientos regulatorios, al transferir datos sensibles a plataformas sin autorización.

  • Filtración de estrategias empresariales que pueden comprometer la ventaja competitiva.

¿Qué hacen otras compañías frente al mismo desafío?

A medida que el uso de GenAI se vuelve masivo, empresas tecnológicas en mercados como Estados Unidos y Europa han comenzado a integrar políticas restrictivas y herramientas específicas para monitorear su utilización.

Por ejemplo, Google ha limitado internamente el uso de algunas aplicaciones GenAI para proteger información interna, mientras que Amazon ha desarrollado sus propias soluciones de IA para uso interno con protocolos de seguridad estrictos.

Sin embargo, Palo Alto Networks da un paso más allá al ofrecer un enfoque de seguridad integral para entornos SaaS y aplicaciones de inteligencia artificial generativa, adaptado a mercados emergentes como el mexicano.

Un nuevo marco de protección: visibilidad, control y educación

El modelo de seguridad propuesto por Palo Alto Networks se basa en su tecnología AI Access Security, que permite a las organizaciones:

  • Obtener visibilidad en tiempo real sobre qué herramientas GenAI están siendo utilizadas.

  • Establecer controles de acceso dinámicos según el nivel de riesgo, tipo de usuario o dispositivo.

  • Implementar inspección de contenidos en tiempo real para prevenir que datos sensibles sean enviados a plataformas externas.

Además, esta estrategia se complementa con un enfoque Zero Trust, que parte del principio de que ninguna interacción es segura por defecto, lo que permite detectar amenazas incluso en respuestas aparentemente legítimas generadas por IA.

Y quizá uno de los pilares más importantes: la capacitación constante del personal. Porque en un escenario donde la tecnología avanza a velocidades vertiginosas, los usuarios deben estar preparados no solo para usar herramientas inteligentes, sino para usarlas de forma segura y ética.

Entre la innovación y la protección, México se juega el futuro digital

La inteligencia artificial generativa llegó para quedarse. En sectores como la salud, la educación, la manufactura o los servicios financieros, su adopción seguirá creciendo. Pero si las organizaciones mexicanas no logran equilibrar su uso con estrategias de protección adecuadas, los beneficios podrían verse rápidamente opacados por las consecuencias.

Palo Alto Networks, a través del trabajo de Unit 42, pone el dedo sobre la llaga: la velocidad de la innovación no puede superar nuestra capacidad de proteger lo que más importa: la información.

👉 ¿Quieres conocer más sobre cómo proteger tu organización frente a la era de la inteligencia artificial generativa? Visita attohh.com para descubrir estrategias, análisis y soluciones.