a man with a beard and a blue sweater stands in front of a city skyline with buildings and tents, Ad

Web Editor

Deep Fakes: La Nueva Amenaza Cibernética que Podría Dominar el 2026

El Auge de los Deep Fakes y su Impacto en el Sector Financiero

El fraude con identidades falsas creadas a través de inteligencia artificial (deep fakes) se perfila como el principal riesgo cibernético en este 2026 para las organizaciones, principalmente las del sector financiero. Ricardo Amper, director general de Incode, firma especializada en soluciones de verificación de identidad y autenticación biométrica, advierte que más del 40% de los fraudes en el sistema financiero digital ya son deep fakes generados con herramientas de inteligencia artificial. Este problema, que comenzó a ser más visible en Latinoamérica, donde se observó una incidencia mayor que la de Europa, amenaza con obstaculizar el crecimiento económico al generar desconfianza en las transacciones.

¿Qué son los Deep Fakes y por qué son tan peligrosos?

Los deep fakes son falsificaciones hiperrealistas creadas con inteligencia artificial (IA). A diferencia de las imágenes o documentos estáticos que se falsifican tradicionalmente, estos deep fakes son identidades sintéticas o suplantaciones que pueden interactuar en tiempo real, lo que dificulta enormemente su detección. El problema no reside solo en el fraude en sí, sino en la desconfianza que generan al socavar la base de la confianza necesaria para las transacciones financieras.

La IA se Vuelca contra Sí Misma: La Amenaza de los Deep Fakes en Agentes de IA

El desafío no se limita a la falsificación de identidades humanas. La IA también está siendo utilizada para crear deep fakes de agentes de inteligencia artificial – entidades virtuales que realizan tareas de forma autónoma. Esto plantea la necesidad urgente de desarrollar una “identidad de agentes”, un sistema para verificar que los agentes de IA que realizan transacciones (como mover dinero o abrir cuentas) tienen la autorización legítima de un ser humano. Incode ya está trabajando en este campo, reconociendo que se estima que los primeros usuarios de internet a partir del 2028 ya no serán humanos, sino agentes de IA.

El Trabajo de Incode: Deep Sight – Una Solución Avanzada

En respuesta a esta creciente amenaza, Incode lanzó en late 2025 Deep Sight, una solución tecnológica diseñada específicamente para la detección de deep fakes y la prevención de fraudes de identidad en entornos digitales. Según Ricardo Amper, Deep Sight es 10 veces más efectivo para identificar deep fakes que un analista forense humano especializado, y su margen de error es significativamente menor en comparación con sus competidores – una diferencia de 68 veces.

La Experiencia Latinoamericana: Una Ventaja Clave

El éxito de Incode en la lucha contra el fraude biométrico se debe, en gran medida, a su experiencia en Latinoamérica. Esta región fue pionera en la aparición de estas amenazas hace casi tres años, lo que permitió a Incode entrenar sus modelos con datos de un entorno donde el fraude es hasta 12 veces más frecuente que en Estados Unidos. Esta exposición temprana ha sido fundamental para desarrollar soluciones tan efectivas.

Preguntas y Respuestas Clave

  • ¿Cuál es el principal riesgo cibernético que Incode predice para 2026? Los deep fakes, falsificaciones hiperrealistas creadas con IA.
  • ¿Qué porcentaje de los fraudes en el sistema financiero digital son actualmente deep fakes? Más del 40%.
  • ¿Por qué los deep fakes son más peligrosos que las falsificaciones tradicionales? Debido a su capacidad para interactuar en tiempo real, lo que dificulta su detección.
  • ¿Qué está haciendo Incode para combatir los deep fakes? Han lanzado Deep Sight, una solución tecnológica que es 10 veces más efectiva que un analista forense humano.
  • ¿Por qué la experiencia de Incode en Latinoamérica es importante? Porque el fraude biométrico es mucho más frecuente en Latinoamérica que en Estados Unidos, lo que les permitió entrenar sus modelos con datos relevantes.
  • ¿Qué significa la frase “IA vs. IA”? Se refiere a la posibilidad de que la inteligencia artificial se utilice para falsificar a otros agentes de IA.