La tecnología deepfake utiliza el aprendizaje profundo de la IA para generar imágenes y videos falsos altamente realistas. A medida que esta tecnología avanza, las barreras para crear y simular imágenes y sonidos realistas han disminuido, lo que aumenta significativamente el riesgo potencial de ataques de suplantación de identidad. Esto plantea una grave amenaza de ciberseguridad, especialmente en el sector FinTech.
Según predicciones de Gartner, para 2026, el 30% de las empresas reevaluarán la confiabilidad de sus soluciones de verificación de identidad debido al aumento de los ataques deepfake. Además, una encuesta del desarrollador global de equipos forenses y soluciones de verificación de identidad Regula reveló que el 37% de las empresas han enfrentado fraudes de voz deepfake, y el 29% han sido víctimas de fraudes de video deepfake, mostrando una preocupante tendencia al alza en el fraude de identidad con deepfake.
Este artículo explora el impacto de la tecnología deepfake en FinTech, presenta estudios de casos relevantes y ofrece estrategias para contrarrestar estas amenazas.
El Desarrollo de la Tecnología Deepfake
¿Qué es la Tecnología Deepfake?
La tecnología deepfake ganó atención generalizada en 2017. El término «deepfake» surge de la combinación de «deep learning» (aprendizaje profundo) y «fake» (falso). Su principio básico es utilizar inteligencia artificial para aprender y generar imágenes o voces realistas de una persona y, luego, integrar este contenido sintético en videos, haciendo que parezcan auténticos. Inicialmente, esta tecnología se usaba para superponer las caras de celebridades en videos.
¿Cómo Funciona la Tecnología Deepfake?
El núcleo de la tecnología deepfake radica en las Redes Generativas Antagónicas (GANs), un sistema compuesto por dos redes de inteligencia artificial: una red generadora y una red discriminadora. La tarea de la red generadora es crear imágenes o videos que parezcan reales, mientras que la red discriminadora verifica la autenticidad de estas imágenes. Si la red discriminadora identifica una imagen como falsa, proporciona retroalimentación a la red generadora, que ajusta sus resultados para generar imágenes más realistas.
¿Qué Amenazas Enfrenta FinTech con Deepfake?
La tecnología deepfake, que utiliza IA para generar imágenes y voces falsas realistas, presenta desafíos sin precedentes para las tecnologías biométricas en el sector FinTech. Esta tecnología ha sido ampliamente utilizada por delincuentes en diversas actividades fraudulentas, desde la creación de videos falsos de figuras tecnológicas conocidas para promover transacciones de criptomonedas fraudulentas, hasta el uso de huellas de voz falsas para cometer fraudes de transferencias bancarias. La tecnología deepfake se ha convertido en una grave amenaza de ciberseguridad.
Los métodos de fraude con tecnología deepfake son variados, desde hacerse pasar por altos ejecutivos para realizar estafas de phishing hasta crear perfiles falsos en redes sociales para difundir información falsa. Por ejemplo, recientemente una empresa de diseño e ingeniería del Reino Unido fue víctima de un fraude deepfake, en el que un empleado en Hong Kong fue engañado para pagar 25 millones de dólares a los estafadores, lo que resultó en pérdidas financieras significativas para la empresa.
Otro caso ocurrió en marzo de 2019, cuando el CEO de una empresa energética del Reino Unido recibió una llamada de un ejecutivo de la empresa matriz en Alemania, solicitando que transfiriera 220.000 euros a un proveedor en Hungría. El CEO reconoció el «ligero acento y entonación alemana» del interlocutor y completó la transferencia en una hora; sin embargo, los fondos finalmente fueron a parar a una cuenta ilegal en México. Las autoridades sospechan que los ladrones utilizaron tecnología deepfake para imitar la voz del ejecutivo alemán.
Además, a principios de febrero de este año, Mugur Isarescu, gobernador del Banco Central de Rumania, también fue blanco de un ataque deepfake. En un video falso, los delincuentes utilizaron la imagen y la voz del gobernador para promocionar inversiones en acciones vinculadas a una plataforma de fraude.
En este contexto, el Departamento del Tesoro de EE. UU. publicó recientemente un informe sobre gestión de riesgos de ciberseguridad específicos de IA en el sector de servicios financieros, con el objetivo de garantizar la seguridad y confiabilidad de las aplicaciones relacionadas con IA. El informe también subraya que la IA está redefiniendo la ciberseguridad y los métodos de fraude en los servicios financieros, y el gobierno debe colaborar con las instituciones financieras para utilizar tecnologías emergentes que mantengan la estabilidad financiera y mejoren continuamente las defensas de ciberseguridad.
¿Qué Estrategias Pueden Adoptar las Empresas FinTech?
A medida que avanza la tecnología deepfake, el concepto de «ver para creer» enfrenta desafíos sin precedentes, lo que amenaza gravemente la confiabilidad de la verificación de identidad digital y plantea un gran riesgo para el desarrollo de FinTech. Para mantener la integridad del ecosistema financiero digital, las empresas FinTech deben adoptar estrategias multinivel, abarcando desde tecnología y políticas hasta el comportamiento de los usuarios, para garantizar una protección integral.
Por ejemplo, las empresas pueden agregar valores hash únicos o certificados de seguridad a los videos públicos para asegurar la autenticidad de la fuente de datos y evitar la manipulación maliciosa por parte de hackers. Esta medida técnica ayuda a mejorar la seguridad de las plataformas digitales y reduce la propagación de contenido falso. Además, implementar autenticación multifactor (MFA) puede fortalecer aún más la seguridad, permitiendo que los consumidores obtengan autorización a través de múltiples mecanismos de verificación, reduciendo así el riesgo de uso indebido de la tecnología deepfake.
Asimismo, la Arquitectura de Confianza Cero (Zero Trust Architecture, ZTA) es un modelo de seguridad cibernética estratégica basado en el principio de «Nunca confíes, siempre verifica». Este modelo asume que las amenazas de seguridad no solo provienen del exterior, sino que también pueden surgir desde dentro de los límites tradicionales de la red, por lo que no se debe confiar automáticamente en entidades externas o internas. Bajo este enfoque, el modelo de confianza cero exige la verificación continua de identidad, el control de acceso y la supervisión de seguridad para todas las operaciones y solicitudes de acceso dentro del sistema de una organización, minimizando así los riesgos de seguridad y previniendo filtraciones de datos.
Estas estrategias requieren una inversión significativa en tiempo, recursos y capacitación de personal, así como el establecimiento de procesos de supervisión interna completos, con pruebas y simulacros de ciberseguridad periódicos. Además, combinar programas de educación al consumidor para mejorar la alerta y las capacidades de autodefensa de los usuarios ayudará a mitigar las amenazas que plantea la tecnología deepfake, y en última instancia proporcionará una base operativa más segura para los servicios FinTech.
Adoptar Soluciones de Verificación de Identidad con IA para Proteger la Seguridad de Identidades
A medida que aumenta la amenaza de la tecnología deepfake para FinTech, las empresas deben tomar medidas de protección efectivas para garantizar la seguridad de las plataformas digitales y los datos de los usuarios. La implementación de la tecnología de verificación de identidad y antifraude con IA de Authme permite identificar rápidamente documentos falsificados con precisión, previniendo el fraude desde su origen y asegurando la integridad de la plataforma. Además, la tecnología de reconocimiento facial con IA de Authme, verificada por la norma ISO 30107, puede resistir eficazmente todo tipo de ataques de suplantación, incluidos los deepfakes. Esta tecnología analiza las características biométricas faciales, como la profundidad del rostro, la textura de la piel y el flujo microvascular, asegurando que la persona frente a la cámara sea real, reforzando aún más la autenticidad de las identidades de los usuarios.
A través de estas medidas de detección y prevención proactivas, las empresas pueden eliminar las amenazas potenciales antes de que ocurran acciones fraudulentas y fortalecer la relación de confianza con los usuarios. Para construir un ecosistema financiero digital saludable, las empresas y los consumidores deben enfrentar juntos los desafíos que plantea la
tecnología deepfake y crear un entorno de servicio confiable. Al adoptar las soluciones de verificación con IA de Authme, las empresas pueden proteger mejor sus plataformas digitales y los datos de sus usuarios, estableciendo un entorno financiero digital más seguro y confiable.