Casos de deepfake: la nueva ola de fraude financiero en Colombia; así se prepara el sector bancario
En Colombia, los deepfakes, contenidos falsificados mediante inteligencia artificial, están comenzando a transformar la forma en que operan los delincuentes digitales.
Una llamada que suena exactamente como la de un gerente, un video que imita con precisión el rostro de un cliente o un audio que reproduce la voz de un familiar solicitando una transferencia urgente. Esto hace pocos años parecía parte de una película de ciencia ficción, pero hoy es una herramienta real para cometer fraudes financieros.
En Colombia, los deepfakes, contenidos falsificados mediante inteligencia artificial capaces de replicar voz, rostro o gestos humanos, están comenzando a transformar la forma en que operan los delincuentes digitales y a poner a prueba los sistemas de seguridad del sector bancario.
En América Latina, y particularmente en Colombia, el crecimiento de identidades sintéticas, deepfakes de voz y esquemas de ingeniería social automatizados están redefiniendo el perfil del fraude financiero. Según cifras de la Superintendencia Financiera, entre enero y julio de 2025 se registraron 27.000 millones de intentos de ciberataque contra establecimientos bancarios, lo que representa un incremento del 69 % frente al mismo periodo del año anterior.
En términos operativos, esto equivale a cerca de 94 intentos de vulneración por segundo y a aproximadamente 1.000 colombianos víctimas diarias de robo de datos personales.
“El acceso a herramientas de Inteligencia Artificial generativa ha democratizado la sofisticación del fraude. Hoy adversarios con pocos conocimientos técnicos pueden ejecutar ataques altamente convincentes”, explicó José Javier Prada, CEO de Become Digital.
Identidades falsas y fallas en la verificación
Uno de los factores que ha facilitado el crecimiento de este tipo de fraude es la persistencia de sistemas de verificación basados en documentos físicos. En muchos procesos de autenticación todavía se depende principalmente de la cédula amarilla, cuyos elementos pueden ser manipulados mediante edición digital, reimpresión o superposición de capas.
Fraudes financieros.
Foto: suministrada.
Esto significa que los motores tradicionales de Reconocimiento Óptico de Caracteres (OCR) y algunos esquemas básicos de biometría no siempre logran detectar alteraciones sutiles pero críticas. Con la llegada de herramientas de inteligencia artificial capaces de generar imágenes, videos o audios hiperrealistas, estas debilidades se vuelven aún más evidentes.
IA contra IA
Como consecuencia, el sector financiero y las empresas tecnológicas han comenzado a desarrollar nuevas arquitecturas de inteligencia artificial diseñadas específicamente para detectar manipulación digital y fraudes de identidad.
En el caso de Become Digital, su tecnología ha sido entrenada durante años con datos y alteraciones reales del mercado colombiano. “Esto permite que la IA identifique patrones gráficos, microvariaciones e inconsistencias estructurales que pueden pasar desapercibidas para los sistemas tradicionales o incluso para el ojo humano”.
Publicidad
El modelo alcanza una tasa de detección de fraude superior al 99 %, mientras mantiene niveles de conversión superiores al 75 %, dependiendo del flujo y del perfil de riesgo. Aproximadamente el 85 % de las transacciones se resuelven automáticamente, mientras que el 15 % restante pasa a revisión de auditores especializados.
Ahora, a lo que le apunta la mayoría de bancos es a saber cómo enfrentar esta nueva generación de fraudes. Espacios como el Congreso CAMP de Asobancaria y los encuentros regionales de Fintech Américas servirán para que reguladores, bancos y proveedores tecnológicos analicen el impacto de la inteligencia artificial, tanto en la evolución del delito como en las estrategias para contenerlo.
Las proyecciones del sector muestran que el mercado de inteligencia artificial aplicada a la detección de deepfakes crecerá a una tasa anual compuesta del 33,5 % hasta 2030, alcanzando un valor global cercano a US $38.500 millones, según estimaciones citadas por Asobancaria.
Un nuevo modelo de confianza digital
Más allá de la adopción de nuevas herramientas tecnológicas, el desafío para Colombia será rediseñar el modelo de confianza digital sobre el cual se sostiene la intermediación financiera. La tendencia apunta a que los sistemas antifraude evolucionen desde la verificación tradicional, basada en foto, voz o documento, hacia modelos de autenticación continua basados en comportamiento, capaces de detectar señales humanas difíciles de replicar por la inteligencia artificial.
Publicidad
“Hoy incorporamos señales comportamentales, especialmente en los procesos de prueba de vida. No nos limitamos a verificar que exista un rostro frente a la cámara; analizamos cómo se comporta ese rostro durante la validación”, señala Prada.