El desarrollo de la ciberseguridad está generando cambios estructurales dignos de ser observados detenidamente en el terreno de la informática. Cada día es más claro que las operaciones digitales ocurren en milisegundos, los modelos de inteligencia artificial toman decisiones en tiempo real y los datos circulan constantemente entre sistemas, plataformas y usuarios. Por ello, las tareas de protección van más allá de la infraestructura. El punto crítico tiene que ver en la manera que debemos asegurar que cada acción deje evidencia, en la validación de identidades en tiempo real y en asegurar el control en sistemas que no se detienen. La ciberseguridad va más allá de una función técnica aislada. Es una capa estructural del negocio.
Control operativo y evidencia verificable
Las empresas suelen generar su infraestructura de seguridad bajo una lógica clara: proteger accesos, restringir sistemas y responder a incidentes. Ese modelo funciona bien en ecosistemas donde los procesos tienen cierta secuencia y donde la revisión posterior (post mortem) puede ser suficiente.
Pero, hoy, ese enfoque ya muestra obsolescencia.
Cada operación —una transacción financiera, un alta de cliente, una interacción en una aplicación— tiene implicaciones inmediatas en términos de cumplimiento regulatorio. No basta con ejecutar correctamente el proceso; es necesario demostrar que se ejecutó bajo condiciones controladas.
La generación de evidencia, por lo tanto, es probablemente uno de los retos más importantes para los responsables del área de Tecnología de Información (TI)
Una trazabilidad ideal, sugiere auditorías, reguladores y áreas de riesgo. Pero en muchos casos la evidencia sigue generándose de forma manual, fragmentada y posterior al evento. Esto crea un desfase estructural, pues la operación ocurre en tiempo real, pero la validación llega después.
La arquitectura tecnológica, por lo tanto, debe ajustarse para brindar respuesta a este problema. La evidencia, más allá de ser un entregable a posteriori, se debe generar de forma simultánea a la operación. El cambio es relevante, pues no se trata de revisar lo ocurrido, sino de documentarlo en el momento sucede.
Capacidad con gobernanza
Un aliado indiscutible para gestionar esta complejidad es la inteligencia artificial, ya que permite analizar grandes volúmenes de datos, identificar patrones anómalos y priorizar riesgos con mayor precisión, una tarea que, de realizarse de forma manual, es muy desgastante y exigente. Pero, como es de esperarse, su adopción introduce nuevas variables de riesgo.
Las preguntas más relevantes que surgen en cuanto a la operación tiene que ver con el uso de modelos, particularmente generativos; estos cuestionamientos deben plantearse para responderse qué datos se utilizan, cómo se procesan y qué información puede ser expuesta a través de las interacciones. Es posible anticipar que la conversación se desplaza hacia la gobernanza de la IA.
Por lo tanto, es crucial tener una alta capacidad de prompting, control de datos de entrada, y conocimiento para encapsular modelos y registrar cada interacción. La IA debe operar bajo principios de trazabilidad y control. Aunque los ambientes están bien regulados, no es suficiente que el modelo funcione correctamente. Debe ser auditable, explicable y consistente con los lineamientos de riesgo.
Detección de anomalías y prevención de crimen
En servicios financieros, así como en algunas industrias más, el riesgo ya no solo se expresa en eventos técnicos visibles, sino en comportamientos que parecen legítimos hasta que se observan en contexto. Transferencias atípicas, cambios en patrones de uso, relaciones inusuales entre cuentas o inconsistencias en la identidad transaccional son señales que difícilmente pueden evaluarse con esquemas manuales o reglas aisladas.
La operación exige capacidades para identificar anomalías en tiempo real, correlacionar eventos y priorizar señales con criterios de riesgo. En este terreno, la inteligencia artificial y la analítica avanzada permiten reforzar la prevención de fraude o de lavado de dinero, pero su valor depende de que funcionen bajo principios de trazabilidad, consistencia y supervisión.
No se trata únicamente de detectar más alertas, sino de generar alertas más útiles, con contexto suficiente para tomar decisiones oportunas y sostenerlas frente a auditoría, cumplimiento y reguladores.
Cómo proteger los datos
Sin duda, la preocupación de tener los datos bajo resguardo es permanente. En sistemas solemos pensar en tener controles centrados en la información en reposo y en tránsito. Sin embargo, el punto crítico hoy es el procesamiento. El concepto de confidential computing responde a la necesidad de proteger los datos mientras están siendo utilizados.
Ahora es muy importante que, a través de enclaves seguros a nivel hardware, se procese la información sin exponerla, incluso aquellos que residen dentro de entornos compartidos como la nube. Lo anterior permite ejecutar cargas sensibles sin comprometer la confidencialidad.
El resultado es mayor flexibilidad arquitectónica. Las organizaciones pueden operar en esquemas híbridos —local, nube o edge— sin perder control sobre los datos. Esto es un alivio para aquellos que se preocupan por la ubicación, pues el enfoque debe quedar en las condiciones bajo las cuales se procesan los datos.
En paralelo, la identidad es vista como un elemento central de la ciberseguridad y se debe al crecimiento de fraudes digitales y el uso de identidades sintéticas. Por ello, ha sido vital reforzar los procesos de validación. El onboarding también se observa ya como un proceso de supervisión continua.
Tecnologías como biometría, validación documental automatizada y análisis de comportamiento permiten verificar identidades en distintos puntos de interacción. Como lo hemos ya atestiguado, esto incluye múltiples canales, como son aplicaciones móviles, plataformas digitales y centros de atención. En todos los casos, el objetivo es asegurar que cada interacción esté asociada a una identidad verificable.
En términos conceptuales, esto resulta muy interesante, pue la identidad, más allá de ser un dato y se ha transformado en un mecanismo de control.
Velocidad y control estructural
La automatización y el procesamiento en tiempo real generan una presión natural hacia la velocidad. Sin embargo, operar rápido sin control introduce riesgos de manera importante. Por ello, conceptos como trazabilidad, explicabilidad y gobernanza son fundamentales, pero no como elementos teóricos, sino como condiciones de operación.
Cada decisión automatizada debe poder explicarse, cada flujo de datos debe ser rastreable y cada modelo debe ser validado. La velocidad, por lo tanto, solo es sostenible cuando está acompañada de control.
Como podemos comprender, la ciberseguridad no se establece como un componente independiente, sino que se concibe como una infraestructura transversal que interviene en todas las capas del negocio: transacciones, modelos analíticos, procesos operativos e interacciones con clientes.
Más allá de proteger, la función de la ciberseguridad es validar, documentar y habilitar operaciones confiables.
Queda claro de que estamos frente a un cambio conceptual o cultural.
Entonces, no es que diseñemos sistemas de ciberseguridad para estar a la defensiva, sino que lo hacemos para mejorar las condiciones de operación.
Es cuestión de cambiarnos el chip.

