Un colaborador de finanzas usa un asistente de IA para redactar un análisis de proyección. Pega el estado de resultados del trimestre, algunos datos de clientes y las cifras del presupuesto aprobado. El resultado es impecable. El problema: acaba de enviar información financiera confidencial a un modelo externo cuyos términos de uso permiten usar ese contenido para entrenamiento.
Nadie se lo impidió. Ni siquiera había una política al respecto.
La adopción va adelante, la gobernanza va detrás
Según el informe de riesgos de IA de Gartner 2024, más del 40% de los empleados en organizaciones medianas y grandes ya usa herramientas de IA generativa en su trabajo diario, y la mayoría lo hace sin que TI o seguridad lo sepa. No es negligencia: es la velocidad natural de adopción cuando una tecnología es útil, accesible y gratuita.
El problema es que esa brecha entre adopción y gobernanza crea riesgos que no aparecen en el mapa de amenazas tradicional. No es un atacante externo. Es el propio colaborador haciendo su trabajo con una herramienta que nadie le dijo que no podía usar.
Los riesgos que más se están subestimando
El primero es la exfiltración involuntaria de datos. Cuando un empleado pega información confidencial en un servicio externo de IA, esos datos salen del perímetro de la organización. Dependiendo de los términos del servicio, pueden ser retenidos, procesados o usados para mejorar el modelo. No hay un alerta de DLP porque técnicamente no es una transferencia de archivo: es texto en un campo de chat.
El segundo es la ingeniería social potenciada por IA. Los ataques de phishing generados con IA generativa son gramaticalmente correctos, contextualmente relevantes y personalizados a escala. El correo ya no llega con errores de ortografía y remitente sospechoso. Llega con el tono adecuado, referenciando proyectos reales obtenidos de LinkedIn, y con un sentido de urgencia perfectamente calibrado. Los filtros tradicionales no están diseñados para detectar esto.
El tercero es la confianza ciega en el output. Los modelos de IA generativa alucinan: producen información incorrecta con una confianza sintáctica que parece autoridad. En contextos de análisis jurídico, financiero o técnico, un colaborador que no valida el output puede tomar decisiones basadas en datos fabricados. Eso no es un problema de ciberseguridad en sentido estricto, pero sí es un riesgo operativo con consecuencias reales.
El cuarto, y quizás el menos visible, es el uso de IA por parte de los atacantes para acelerar la explotación de vulnerabilidades. Los modelos de lenguaje pueden generar variantes de malware, identificar patrones en código fuente expuesto y automatizar la personalización de ataques. Lo que antes requería un equipo de atacantes especializados ahora puede hacerse con mucha menos fricción.
¿Qué hacer al respecto?
El primer paso es reconocer que prohibir el uso de IA generativa no es una estrategia viable. Ya está en uso. La pregunta no es si los colaboradores van a usarla, sino bajo qué condiciones y con qué información.
Lo que sí es accionable es establecer una clasificación de datos clara y comunicarla en términos de lo que puede y no puede compartirse con servicios externos. No un documento de política de cien páginas: una guía práctica que el colaborador de finanzas entienda antes de pegar su próximo reporte.
También es necesario revisar si las herramientas de detección actuales —DLP, monitoreo de tráfico, controles de endpoint— tienen visibilidad sobre transferencias de datos hacia servicios de IA. La mayoría no la tienen en su configuración predeterminada. Esa brecha técnica tiene solución, pero primero hay que diagnosticarla.
Finalmente, el equipo de seguridad necesita entender cómo funciona la IA generativa, no a nivel de ingeniería, sino a nivel de riesgo operativo. No se puede defender un entorno que no se comprende. Eso aplica también para el CISO que tiene que explicarle el riesgo al consejo directivo con claridad y sin alarmismo innecesario.
¿Tu organización sabe hoy qué datos corporativos han salido ya a través de herramientas de IA que nadie aprobó formalmente?
Acciones inmediatas
- Levanta un inventario de herramientas de IA en uso en tu organización. Pregunta directamente a los equipos de operaciones, finanzas, marketing y legal. No asumas que solo las herramientas aprobadas por TI son las que se usan. El resultado te dará el mapa de exposición real.
- Revisa los términos de uso de las herramientas de IA más utilizadas en tu empresa. Enfócate en cómo cada servicio maneja los datos que recibe: si los retiene, si los usa para entrenamiento, y bajo qué jurisdicción opera. Ese análisis define qué tipo de información puede o no puede usarse con cada herramienta.
- Crea una guía de uso responsable de IA generativa orientada a usuarios no técnicos. Dos páginas máximo. Ejemplos concretos de qué sí y qué no compartir. Sin jerga. Distribúyela a través de los líderes de área, no solo por correo masivo de TI.
- Verifica si tus controles de DLP tienen visibilidad sobre tráfico hacia servicios de IA. Comprueba si el tráfico hacia los servicios de IA más usados está siendo inspeccionado o está pasando como HTTPS genérico sin análisis de contenido. Esa diferencia define si tienes visibilidad real sobre lo que sale.
- Incluye un escenario de phishing generado con IA en tu próximo ejercicio de concienciación. Diseña un correo de prueba que sea gramaticalmente impecable, contextualmente relevante y sin los marcadores clásicos de phishing. La tasa de clics te dirá cuánto ha cambiado el nivel de sofisticación que tu equipo necesita detectar.
Si quieres evaluar la exposición de tu organización frente a los riesgos de la IA generativa, contáctanos en https://tbsek.mx/contacto/.