¿Y si el CEO no era el CEO?: deepfakes y su impacto organizacional

Junio 2025

En pocas palabras: Los deepfakes están pasando de la sátira política y los videos virales al mundo empresarial. Este artículo explora cómo se están usando para fraudes corporativos, qué riesgos representan y cómo prepararte ante esta amenaza emergente.



Imagínate recibir una videollamada del CEO pidiéndote transferir fondos con urgencia. Todo parece legítimo: la voz, el rostro, incluso los gestos. Pero no es él. Es una creación sintética, un deepfake, generada con inteligencia artificial. Y ya no es ciencia ficción.

En TBSEK estamos observando cómo los deepfakes se están convirtiendo en herramientas reales de fraude corporativo. Ya se han reportado casos donde los atacantes utilizaron audios y videos falsificados para suplantar identidades ejecutivas y solicitar transferencias, revelar información confidencial o ejecutar acciones estratégicas sin levantar sospechas inmediatas.

La tecnología detrás de estos engaños ha avanzado de forma impresionante. No se necesita un estudio de producción ni un equipo de expertos. Con herramientas accesibles y fragmentos públicos de voz o imagen, se pueden generar falsificaciones creíbles en minutos. El riesgo crece cada día.

¿Cómo se prepara una empresa ante este tipo de amenaza? Lo primero es reconocer que el problema es real y actual. No basta con controles técnicos: hace falta un componente fuerte de cultura organizacional. Equipos entrenados para validar instrucciones, procesos que no dependan solo de la identidad visual o auditiva, y un entorno donde cuestionar sea parte del protocolo.

Las áreas más vulnerables suelen ser finanzas, recursos humanos y dirección general. Por eso es crucial implementar reglas de validación de instrucciones sensibles, autenticación multifactorial para decisiones críticas, y canales internos seguros para confirmación de órdenes fuera de lo habitual.

También es importante monitorear el uso no autorizado de imagen y voz de directivos en medios públicos. Y considerar incluir este tipo de riesgo en los simulacros de ciberseguridad y en las campañas de concienciación, especialmente para quienes tienen roles con alto nivel de acceso o influencia.

✅ Acciones inmediatas

  • 🎭 Establece protocolos de validación para instrucciones sensibles, especialmente aquellas dadas por voz o video.
  • 🎓 Incluye el tema de deepfakes en los programas de concienciación y simulacros de fraude.
  • 🛡️ Monitorea el uso de la imagen y voz de directivos en redes públicas o plataformas abiertas.

En TBSEK creemos que anticiparse es la mejor defensa. La amenaza de los deepfakes no es una exageración, es una evolución. Y como toda evolución, exige que nuestras defensas también se transformen.

¿Tu empresa está preparada para enfrentar un fraude impulsado por inteligencia artificial? Conversemos en https://www.tbsek.mx/contacto/

🤔 Para reflexionar

  • ¿Cómo verificarías una instrucción urgente si el mensaje viniera por video o voz?
  • ¿Tienes protocolos que protejan a tus directivos de ser suplantados con herramientas de IA?
  • ¿Estás formando a tu equipo para detectar señales de manipulación digital avanzada?
Prol. Paseo de la Reforma 215, Santa Fe, Paseo de las Lomas, Cuajimalpa de Morelos, 01330 Ciudad de México +52 55 4742 1320 contacto@tbsek.mx | Aviso de privacidad