La tecnología Deepfake fue desarrollada inicialmente para la producción cinematográfica, pero recientemente ha sido utilizada por delincuentes, convirtiéndose rápidamente en una herramienta para la falsificación de imágenes, la difusión de información falsa, el fraude y la explotación, lo que representa graves riesgos para la privacidad personal y la confianza pública. Estos contenidos falsos generados por IA pueden infringir gravemente la privacidad de empresas o individuos e incluso perturbar los procesos democráticos mediante la difusión de noticias falsas o la incitación a la violencia.
A medida que la tecnología Deepfake continúa evolucionando, las amenazas asociadas también aumentan. Las leyes actuales no son suficientes para prevenir su mal uso, por lo que los países deben legislar activamente para abordar estos desafíos urgentes. Al mismo tiempo, es crucial la participación del sector empresarial y la sociedad civil para promover un desarrollo de la IA que sea transparente, responsable y ético, creando así un entorno digital seguro y confiable.
Regulación de la Tecnología Deepfake en Diferentes Países
China
En noviembre de 2022, China emitió las “Regulaciones sobre la Gestión de la Síntesis Profunda de los Servicios de Información en Internet”, convirtiéndose en uno de los pocos países que regulan específicamente la tecnología Deepfake. Estas regulaciones exigen la divulgación obligatoria del contenido Deepfake y requieren que cualquier contenido creado con esta tecnología esté claramente marcado como tal, con el fin de combatir eficazmente la desinformación y proteger al público de los medios manipulados. Esta normativa, que entró en vigor en enero de 2023, cubre prácticamente todo el ciclo de vida de la tecnología Deepfake, desde su desarrollo hasta su difusión, y establece estrictas regulaciones para los proveedores de esta tecnología, garantizando la transparencia y la responsabilidad.
Unión Europea
La Unión Europea (UE) ha incorporado la regulación de la tecnología Deepfake en su Marco de Políticas Digitales para 2030. Esta iniciativa, conocida como la «Década Digital», tiene como objetivo «empoderar a las empresas y a las personas para co-crear un futuro digital centrado en las personas, sostenible y próspero», siendo la ciberseguridad uno de sus seis focos principales. Las regulaciones de la UE relacionadas con Deepfake incluyen:
- El Marco Regulador de IA
- El Reglamento General de Protección de Datos (GDPR)
- El Régimen de Derechos de Autor
- La Directiva de Comercio Electrónico (e-Commerce Directive)
- La Ley de Servicios Digitales
- La Directiva de Servicios de Comunicación Audiovisual (AVMSD)
- El Código de Prácticas contra la Desinformación
- El Plan de Acción contra la Desinformación
- El Plan de Acción para la Democracia
El Marco Regulador de IA establece directrices específicas para el desarrollo y uso de tecnologías de inteligencia artificial, mientras que la Ley de Servicios Digitales complementa este marco, exigiendo a las plataformas digitales que supervisen y gestionen el contenido Deepfake. Además, la UE ha desarrollado el Código de Prácticas contra la Desinformación para contrarrestar el Deepfake y otras formas de contenido engañoso.
Corea del Sur
Corea del Sur combina medidas legales e innovaciones tecnológicas para enfrentar el mal uso de Deepfake, enfocándose especialmente en la protección de los derechos individuales como los derechos de autor y en la prevención de los riesgos sociales asociados a la desinformación. Basado en la “Ley de Derechos Digitales” promulgada en septiembre pasado, el gobierno surcoreano anunció en mayo una serie de planes legislativos para reformar el régimen actual de derechos de autor, en respuesta al contenido generado por IA y al mal uso de Deepfake que conduce a la propagación de noticias falsas. Simultáneamente, el gobierno continúa invirtiendo en investigación en IA, que incluye el desarrollo de herramientas avanzadas para la detección y gestión de la tecnología Deepfake.
Reino Unido
En abril de este año, el gobierno del Reino Unido anunció una nueva propuesta de ley para criminalizar la creación de imágenes sexuales Deepfake, la cual se introdujo como una enmienda al “Proyecto de Ley de Justicia Penal” promulgado en junio. Inicialmente, la distribución de imágenes sexuales Deepfake se consideraba un delito bajo la “Ley de Seguridad en Línea” (OSA).
Según esta nueva ley, cualquier persona que utilice «imágenes generadas por ordenador o cualquier otra tecnología digital» para crear o diseñar imágenes sexuales de otra persona con la intención de causar angustia, sufrimiento o humillación podría enfrentarse a antecedentes penales y multas ilimitadas. Si el delincuente tiene la intención de compartir o distribuir las imágenes sexuales, podría ser procesado y enfrentarse a una pena de hasta 2 años de prisión.
Estados Unidos
Actualmente, Estados Unidos carece de una legislación federal específica para la tecnología Deepfake, pero existen regulaciones relacionadas ya bien establecidas. La “Ley de Identificación de Salidas de Redes Generativas Adversarias” requiere que la Fundación Nacional de Ciencias apoye la investigación en estándares para la detección e identificación de salidas de GAN (redes generativas adversarias). La “Ley de Reportes sobre Deepfake de 2019” y la “Ley de Responsabilidad de Deepfake” obligan al Departamento de Seguridad Nacional a supervisar y reportar tecnologías que incluyan contenido Deepfake, con el fin de proteger la seguridad nacional y proporcionar remedios legales a las víctimas afectadas por la tecnología Deepfake.
Propuestas recientes incluyen la “Ley DEFIANCE de 2024” y la “Ley para Proteger a los Consumidores de la IA Engañosa”, diseñadas para fortalecer las regulaciones y medidas de protección relacionadas con la tecnología Deepfake.
Taiwán
En 2023, Taiwán aprobó enmiendas al artículo 319-4 del Código Penal, creando el “Delito de Imágenes Falsas”, y al artículo 339-4, que incluye agravantes por fraude a través de imágenes, sonidos o registros electromagnéticos falsos. Estas enmiendas tienen como objetivo frenar la violencia digital de género y los delitos de fraude cometidos mediante el uso de Deepfake u otras formas de síntesis digital. El Instituto para la Industria de la Información también ha recomendado al gobierno que, además de modificar las regulaciones existentes para enfrentar los riesgos de las nuevas tecnologías, siga las tendencias internacionales estableciendo principios normativos adecuados para el desarrollo de la IA y elaborando directrices de gobernanza de IA que tanto el gobierno como las empresas puedan seguir, profundizando así la gobernanza de la IA.
Desafíos en la Regulación de la Tecnología Deepfake
Desafíos Tecnológicos
Uno de los principales desafíos en la regulación de la tecnología Deepfake es el seguimiento y la identificación de los creadores. Muchos creadores de Deepfake operan de forma anónima, lo que dificulta que las autoridades rastreen el origen del contenido falsificado y hagan cumplir la ley de manera efectiva. Además, a medida que la tecnología de IA continúa avanzando, podría eludir las medidas de seguridad existentes, lo que aumenta la dificultad de las futuras investigaciones y esfuerzos regulatorios.
Equilibrio entre la Libertad de Expresión y la Regulación
Otro desafío importante es cómo equilibrar la necesidad de regulación con la protección de la libertad de expresión. Si bien es crucial detener la propagación de contenido Deepfake engañoso o dañino, una regulación excesiva podría infringir la libertad de expresión. Este tema es particularmente controvertido en el contexto del discurso político, ya que el Deepfake podría utilizarse como medio de sátira o expresión personal.
Inadecuación del Marco Legal Existente
Debido a la rápida evolución de la tecnología de IA, la mayoría de las leyes existentes no se diseñaron considerando aplicaciones como el Deepfake, lo que ha provocado lagunas en los marcos de aplicación o inconsistencias en las regulaciones. En vista de esto, organizaciones internacionales como la Organización Mundial de la Propiedad Intelectual (OMPI) y la Electronic Frontier Foundation (EFF) han subrayado la necesidad de que los gobiernos desarrollen regulaciones especializadas que sean tanto completas como flexibles para gestionar eficazmente los delitos relacionados con Deepfake.
Combatir las Amenazas de Deepfake: Sinergia entre Tecnología, Sociedad y Legislación
1. Soluciones Tecnológicas
La implementación de soluciones tecnológicas avanzadas es un paso crucial para mitigar los riesgos asociados con Deepfake. Estas soluciones incluyen mecanismos de detección que utilizan IA y aprendizaje automático para analizar inconsistencias en los medios digitales o identificar señales de manipulación, detectando y marcando así el contenido Deepfake para prevenir daños mayores. Las marcas de agua digitales y las firmas refuerzan aún más los esfuerzos de verificación de contenido, incrustando identificadores únicos en el contenido digital para verificar su originalidad e integridad. Además, con el aumento de los casos de mal uso de Deepfake, el software de análisis forense informático en tiempo real, como Wireshark y EnCase, puede ayudar a los investigadores y a las fuerzas del orden a rastrear la fuente del contenido Deepfake, proporcionando pruebas cruciales para el enjuiciamiento.
2. Conciencia Pública y Alfabetización Mediática
Además de los esfuerzos tecnológicos, la concienciación pública y el consumo responsable de medios también son claves importantes para reducir los riesgos de Deepfake. Las iniciativas de alfabetización mediática tienen como objetivo educar al público sobre cómo identificar y evaluar el contenido digital, buscar fuentes confiables y verificar los hechos, reduciendo así la posibilidad de que se vean afectados por información falsa. En este sentido, las plataformas de medios digitales deben asumir la responsabilidad de la verificación de hechos, marcar el contenido Deepfake, alentar a los usuarios a elegir contenido verificado por la plataforma y denunciar activamente los medios sospechosos para evitar la propagación del contenido Deepfake.
3. Iniciativas Regulatorias y de Políticas
Por último, la implementación y aplicación de políticas regulatorias integrales y leyes específicas para frenar el mal uso son componentes críticos en la prevención de las amenazas de Deepfake. Las medidas regulatorias deben abarcar la verificación del origen, la falsificación y la difusión de contenido digital, y se recomienda mejorar la adaptabilidad de los marcos legales para clasificar los usos futuros, asignando diferentes niveles de obligaciones para responder de manera flexible a los avances en la tecnología de IA.
Por ejemplo, en abril del año pasado, la UE publicó una “Propuesta de Reglamento sobre un Enfoque Europeo para la Inteligencia Artificial” (conocida como la Ley de IA), que clasifica las aplicaciones de IA en cuatro categorías en función del nivel de riesgo y la importancia: «riesgo inaceptable, alto riesgo, riesgo limitado (riesgo bajo), mínimo o sin riesgo», y exige obligaciones correspondientes como «prohibiciones, provisión de información, registro de uso, apoyo a la supervisión de la IA por las autoridades, notificación de acciones de la IA y advertencias».
¿Cómo Pueden las Empresas Prevenir Eficazmente las Amenazas de Deepfake?
La autorregulación en el sector fintech es un factor clave en los esfuerzos nacionales para combatir los delitos de Deepfake. Las empresas deben adherirse activamente a los marcos de responsabilidad tecnológica y de gobernanza. Por ejemplo, en julio del año pasado, la Casa Blanca anunció compromisos voluntarios con siete gigantes tecnológicos—Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI—para desarrollar sistemas de IA basados en principios de seguridad, protección y confianza, asegurando un equilibrio entre el avance tecnológico y la seguridad social.
Mientras tanto, las empresas pueden adoptar soluciones avanzadas de verificación de IA para mejorar la seguridad de los servicios digitales y aumentar la confianza de los usuarios. Frente a los riesgos crecientes en los servicios financieros digitales, Authme aborda las amenazas de Deepfake desde la perspectiva de la prevención del fraude—utilizando la tecnología de resistencia al spoofing facial Authme certificada por la norma ISO 30107, que analiza las características biométricas faciales, incluida la profundidad facial, la textura de la piel y el flujo microvascular, para determinar si la persona frente a la cámara es real, ayudando a las empresas a aplicar servicios de verificación de identidad seguros y a fortalecer la resiliencia y flexibilidad.