1. A medida que los centros de datos adquieren una importancia cada vez mayor por el crecimiento de la computación en la nube y la IA, ¿cómo está cambiando su perfil de riesgo en ciberseguridad?
El nuevo perfil de riesgo es más distribuido, más dinámico y mucho más sensible al tiempo. Quiero decir, el riesgo en un centro de datos ya no viene solo de un intento de entrar, sino de la facilidad con la que un atacante puede moverse, escalar privilegios y extraer datos dentro de un entorno híbrido. Ese es el punto clave: el data center actual no opera solo; está conectado a nubes públicas, aplicaciones, identidades, APIs y, cada vez más, cargas de IA. Por eso el riesgo es más transversal y más rápido. Unit 42, nuestra unidad de inteligencia de amenazas, ya pone cifras a ese cambio. Según el último Global Incident Response Report, alrededor del 35% de las investigaciones implicó activos cloud o SaaS; en el 20%, la nube figuró entre las superficies afectadas; y en más de uno de cada cinco casos (22%), la exfiltración de datos comenzó en menos de una hora desde el compromiso inicial. Para nosotros, esto obliga a abandonar la seguridad fragmentada y avanzar hacia una plataforma que unifique visibilidad, inspección y políticas desde el data center hasta la nube y la IA.
2. En un entorno que exige más capacidad, mayor eficiencia y disponibilidad constante, ¿por qué la ciberseguridad debe integrarse en el diseño del centro de datos desde el primer momento?
Porque cuando se incorpora desde el diseño, deja de competir con la eficiencia y pasa a reforzarla: se construye visibilidad profunda sobre infraestructuras físicas, virtualizadas, containerizadas y cloud; se definen controles coherentes para el tráfico norte-sur y este-oeste; y se automatiza la respuesta para aislar actividad maliciosa sin comprometer la disponibilidad. Ese es nuestro enfoque en Palo Alto Networks: una política consistente del centro de datos a la multicloud, no una colección de herramientas inconexas. Y en sectores regulados hay un requisito adicional, el de proteger con soberanía y cumplimiento en mente. Nuestra infraestructura cloud local está desplegada en más de 87 países, con 17 certificaciones y 15 productos globales, para ayudar a cumplir esos requisitos de residencia de datos. Mirando a medio plazo, yo sumaría además la exigencia de la agilidad criptográfica, porque NIST ya recomienda iniciar la migración a criptografía resistente a la computación cuántica.
3. Con la expansión de la IA en las organizaciones, y especialmente de los agentes autónomos, ¿qué nuevos riesgos deberían empezar a prever ya los operadores de centros de datos y los responsables de seguridad?
Con la IA agéntica aparecen nuevos riesgos, como identidades de agentes no humanos no gobernadas, permisos excesivos, acceso descontrolado a herramientas, exposición de datos en tiempo real, automatizaciones inseguras, “shadow AI” y una cadena de suministro del propio modelo que puede introducir backdoors o código malicioso. Lo acabamos de ver en la investigación de Unit 42 sobre Vertex AI: un agente comprometido, apoyado en permisos por defecto demasiado amplios, podía escalar privilegios, exfiltrar datos y abrir la puerta a una afectación mucho mayor del entorno cloud. Por eso, desde Palo Alto Networks insistimos en asegurar todo el ciclo de vida: descubrir cada agente, app y modelo; validar identidad y supply chain; someterlos a red teaming; y gobernar el runtime antes de permitir ejecución autónoma. Si la IA va a actuar, la seguridad tiene que verificar no solo el acceso, sino también el comportamiento y la acción.
4. Muchas organizaciones ya operan en entornos híbridos que abarcan centros de datos, la nube y servicios distribuidos. ¿Dónde se están produciendo hoy los fallos de protección más habituales?
El fallo más habitual no es un único gran agujero, sino la suma de pequeñas fracturas. Hablamos, por ejemplo, de políticas distintas entre centro de datos y nube, inventarios incompletos, APIs expuestas, cuentas sobredimensionadas, MFA inconsistente, servicios efímeros sin visibilidad y equipos que siguen trabajando por silos. Según nuestros datos, el 89% de las organizaciones cree que la seguridad cloud y de aplicaciones debe integrarse con el SOC, pero muchas siguen gestionando una media de 17 herramientas cloud de cinco proveedores; el 97% prioriza consolidar y un 30% tarda más de un día en resolver un incidente. Por eso defendemos la plataformización, es decir, menos ensamblaje manual y más telemetría, política y respuesta en un único plano operativo. La solución está en unificar red, cloud, SOC y protección de aplicaciones bajo una misma arquitectura, con visibilidad común y capacidad real de prevención y respuesta en tiempo real.
5. ¿Está realmente preparado el sector para detectar, contener y recuperarse de un ciberataque sin comprometer la continuidad del servicio?
Hay organizaciones muy maduras, pero como sector aún estamos lejos de una resiliencia homogénea. El problema es que el atacante ya no busca solo cifrar; busca interrumpir, y además, el impacto ya no se queda en un único vector: en 2025, el 87% de las intrusiones involucró actividad en múltiples superficies de ataque y, en más del 90% de los incidentes, brechas evitables de visibilidad o controles aplicados de forma inconsistente contribuyeron materialmente a la intrusión. El margen para reaccionar también se estrecha: el cuartil más rápido alcanzó la exfiltración en apenas 72 minutos y, en el 22% de los casos, en menos de una hora. Además, los operadores están lidiando a la vez con restricciones energéticas, presión por disponibilidad, escasez de talento y exigencias de IA. Desde nuestra perspectiva, la continuidad real exige detección y contención automatizadas, ejercicios serios de respuesta y una arquitectura unificada que ofrezca visibilidad completa. No basta con prevenir; hay que poder aislar rápido, seguir operando y recuperar sin improvisar.






