El uso de asistentes de IA públicos para registrar minutas empresariales puede comprometer información sensible y generar filtraciones accidentales.
Es tentador. Descargas una app de agente de reuniones, conectas tu calendario, y en segundos tienes transcripciones automáticas, resúmenes accionables y hasta gráficas de participación. Parece el sueño de cualquier gerente operativo.
Pero hay un problema: muchas de estas herramientas (tan accesibles como poderosas) no están diseñadas con criterios de seguridad empresarial… Y aún así, se están usando masivamente en organizaciones que manejan información crítica.
Lo digo con claridad: si usas asistentes públicos para registrar y transcribir tus juntas internas sin revisar su política de privacidad y sin segmentar acceso, estás poniendo en riesgo la confidencialidad de tu empresa. Lo hemos visto ya con consecuencias reales.
En junio de 2025, se supo que Scale AI dejó documentos sensibles de Meta, Google y xAI accesibles mediante enlaces de Google Docs mal gestionados. La filtración incluyó nombres de contratistas, modelos de análisis y reportes internos. No fue un hackeo, fue una omisión de buenas prácticas de control. El origen: agentes de IA con acceso abierto a plataformas de almacenamiento públicas, sin protocolos de segregación.
Casos como este no son anecdóticos. Según Harmonic Security, más de 4 % de los prompts enviados a herramientas de IA durante el primer semestre de 2025 contenían información sensible. Y más de 20 % de los archivos adjuntos también lo eran. La empresa no necesitó espiar: bastó con medir metadatos y tipos de contenido compartido voluntariamente.
Lo más preocupante es que muchas empresas no saben lo que sus empleados están compartiendo. Herramientas como Otter.ai, Fireflies, Noty.ai o Supernormal se integran directamente en Zoom o Google Meet, sin intervención del área de TI. Un clic, y el asistente ya está grabando, transcribiendo y almacenando en la nube externa. A veces sin cifrado, a veces sin control.
La IA ¿es privada o pública?
No estoy cuestionando la utilidad de estas plataformas. Son útiles, sin duda. Pero su diseño está pensado para individuos o equipos pequeños, no para entornos corporativos con datos estratégicos. Y lo que muchas empresas están haciendo hoy es delegar a estos agentes públicos el registro de decisiones clave, como si fueran pizarras blancas en una sala cerrada.
Pero no lo son.
La solución no es regresar a la libreta. La solución es definir una política clara: qué herramientas pueden usarse para capturar conversaciones, cómo se almacenan esas transcripciones, quién las puede consultar, cuánto tiempo se conservan, y qué alternativas privadas existen.
En algunos sectores críticos, como defensa o finanzas, ya hay iniciativas internas de desarrollo de agentes propios de IA, montados en una infraestructura segura. Algunas firmas tecnológicas están ofreciendo soluciones on-premise o en nubes privadas para asistencia conversacional. Incluso Microsoft y Google ya han lanzado funciones de IA empresarial bajo modelos de privacidad reforzada. Pero siguen siendo opciones que muchas pymes desconocen o subestiman.
A lo largo de mi carrera, he aprendido que los grandes fallos no siempre vienen por errores técnicos. Muchas veces vienen por la comodidad no regulada. Por dejar que una herramienta eficiente, pero inadecuada, se instale como estándar operativo.
Si vas a usar agentes de IA para minutas (y eso es por citar un ejemplo de herramientas basadas en IA), asegúrate de que estén bajo control de tu infraestructura. O, al menos, que estén auditados, integrados con tus políticas de ciberseguridad, y con barreras claras de acceso. Lo que se habla en una sala cerrada no debe quedar flotando en servidores desconocidos; de otra manera, estás dejando tu organización al desnudo.

