Deepfake 악용 방지 방법: 과제, 해결책 및 미래 전망

Explore challenges, solutions, and future outlooks for preventing Deepfake misuse, including global regulations and advanced technologies.

Deepfake 기술은 원래 영상 제작을 위해 개발되었으나, 최근 범죄자들의 손에 넘어가면서 이미지 위조, 허위 정보 유포, 사기 및 착취의 도구로 빠르게 전락했습니다. 이는 개인의 프라이버시와 공공의 신뢰에 심각한 위험을 초래합니다. AI가 생성한 가짜 콘텐츠는 기업이나 개인의 프라이버시를 심각하게 침해할 수 있으며, 가짜 뉴스 유포나 폭력 선동을 통해 민주적 절차를 파괴할 가능성도 있습니다.

Deepfake 기술이 지속적으로 발전함에 따라 그에 따른 위협도 증가하고 있으며, 현재의 법률로는 악용을 방지하기에 부족합니다. 각국은 이러한 긴급한 도전에 대응하기 위해 적극적으로 법률을 제정해야 합니다. 동시에 투명하고 책임감 있으며 윤리적인 AI 개발을 촉진하기 위해 기업과 시민 사회의 참여가 중요하며, 안전하고 신뢰할 수 있는 디지털 환경을 조성하는 것이 필요합니다.

세계 각국의 Deepfake 기술 규제

중국

중국은 2022년 11월에 “인터넷 정보 서비스 심층 합성 관리 규정”을 발표하며, Deepfake 기술을 특별히 규제하는 몇 안 되는 국가 중 하나가 되었습니다. 이 규정은 Deepfake 콘텐츠의 공개를 의무화하고, 이 기술을 사용한 콘텐츠는 반드시 Deepfake임을 명확히 표시해야 하며, 허위 정보 유포를 효과적으로 방지하고 조작된 미디어로부터 대중을 보호하는 것을 목표로 하고 있습니다. 이 규정은 2023년 1월에 시행되었으며, Deepfake 기술의 개발에서부터 배포에 이르는 거의 모든 생애 주기를 포괄하며, 특히 Deepfake 기술 제공자에 대한 엄격한 규제를 통해 투명성과 책임감을 보장하고 있습니다.

유럽연합(EU)

유럽연합(EU)은 Deepfake 기술의 규제를 보다 광범위한 2030년 디지털 정책 프레임워크에 포함시켰습니다. 이 “디지털 디케이드” 정책은 “기업과 개인이 인간 중심의 지속 가능하고 번영하는 디지털 미래를 함께 창조할 수 있도록 권한을 부여”하는 것을 목표로 하며, 사이버 보안이 여섯 가지 주요 초점 중 하나로 언급되었습니다. Deepfake와 관련된 EU의 규제에는 다음이 포함됩니다:

AI 규제 프레임워크는 AI 기술 개발 및 사용에 대한 구체적인 지침을 제공하며, 디지털 서비스 법은 디지털 플랫폼이 Deepfake 콘텐츠를 감시하고 관리할 것을 의무화하고 있습니다. 또한, EU는 허위 정보 대응 행동 강령을 제정하여 Deepfake와 기타 오도성 콘텐츠에 대한 대책을 강화하고 있습니다.

대한민국

대한민국은 법적 조치와 기술 혁신을 결합하여 Deepfake 악용에 대응하고 있으며, 특히 저작권과 같은 개인 권리 침해와 허위 정보로 인한 사회적 위험을 방지하는 데 중점을 두고 있습니다. 지난해 9월 제정된 “디지털 권리 법안”을 바탕으로 올해 5월, 대한민국 정부는 AI 생성 콘텐츠와 Deepfake 악용으로 인한 가짜 뉴스 확산에 대응하기 위해 저작권 제도를 개혁하는 것을 목표로 한 일련의 입법 계획을 발표했습니다. 동시에, 대한민국 정부는 AI 연구에 지속적으로 투자하고 있으며, Deepfake 기술의 검출 및 관리를 지원하는 첨단 도구 개발도 포함하고 있습니다.

영국

올해 4월, 영국 정부는 성적 Deepfake 영상을 형사 범죄로 규정하는 새로운 법안을 발표하고, 6월에 발효된 “형사 사법 법안”에 대한 수정안으로 이를 도입했습니다. 처음에는 “온라인 안전법” (OSA)이 성적 Deepfake 영상의 배포를 범죄 행위로 분류했습니다.

이 새로운 법안에 따르면, “컴퓨터 이미지 또는 기타 디지털 기술”을 사용하여 다른 사람의 성적 이미지를 제작하거나 디자인하여 그 사람에게 공포, 고통 또는 수치심을 유발한 경우, 형사 기록과 무제한의 벌금이 부과될 수 있습니다. 또한, 성적 이미지를 공유하거나 배포할 의도가 있는 경우, 최대 2년의 징역형에 처해질 수 있습니다.

미국

미국은 현재 Deepfake 기술을 대상으로 한 연방 법률이 없지만, 관련 규제는 이미 잘 확립되어 있습니다. “생성적 적대 신경망 출력 식별 법안”은 국가 과학 재단이 생성적 적대 신경망(GAN) 출력의 검출 및 식별에 관한 연구를 지원할 것을 요구하고 있습니다. “2019년 Deepfake 보고서 법안”“Deepfake 책임 법안”은 국토안보부가 Deepfake 콘텐츠를 포함한 기술을 감독하고 보고할 것을 의무화하여 국가 안보를 보호하고, Deepfake 기술의 영향을 받은 피해자에게 법적 구제를 제공하는 것을 목표로 하고 있습니다.

최근 제안된 법안에는 “2024년 반사기법 법안”“소비자 보호를 위한 기만적 AI 법안”이 포함되어 있으며, 이러한 법안은 Deepfake 기술과 관련된 규제와 보호 조치를 강화하는 것을 목적으로 하고 있습니다.

대만

대만은 2023년에 형법 제319조의 4 “허위 영상죄” 및 제339조의 4 허위 영상, 음성 또는 전자기록을 통한 가중 사기죄를 추가 개정하여, Deepfake 등의 디지털 합성 방식을 이용한 디지털 성폭력이나 사기 범죄 행위를 억제하는 것을 목표로 하고 있습니다. 정보산업기술연구소도 정부에 대해 신기술의 리스크에 대응하기 위해 기존 규제를 개정하는 것 외에도 국제적인 추세를 따라 AI 발전에 적합한 원칙적 규범을 수립하고, 정부와 기업이 따를 수 있는 AI 가이드라인을 제정하여 AI 거버넌스를 심화시킬 것을 제안하고 있습니다.

Deepfake 기술 규제가 직면한 과제

기술적 과제

Deepfake 기술 규제에서 주요 과제 중 하나는 제작자를 추적하고 식별하는 것입니다. 많은 Deepfake 제작자가 익명으로 활동하고 있어 당국이 위조된 콘텐츠의 출처를 추적하기 어렵고, 효과적인 법 집행이 어려운 상황입니다. 또한, AI 기술이 지속적으로 발전함에 따라 기존의 방어책을 우회할 가능성이 있어, 향

후 조사와 규제 작업에 있어서 도전 과제가 더욱 커질 것으로 예상됩니다.

언론의 자유와 규제의 균형

또 다른 중요한 과제는 규제 필요성과 언론의 자유 보호 간의 균형을 맞추는 것입니다. 오도되거나 해를 끼칠 수 있는 Deepfake 콘텐츠의 확산을 억제하는 것이 중요하지만, 과도한 규제는 언론의 자유를 침해할 수 있습니다. 특히 정치적 담론의 맥락에서, Deepfake는 풍자나 개인적 의견 표현의 수단으로 사용될 수 있어 이 점에서 논란을 불러일으킬 가능성이 있습니다.

현행 법적 프레임워크의 부족

AI 기술의 급속한 발전으로 인해, 대부분의 기존 법률은 Deepfake와 같은 관련 응용 프로그램을 고려하지 않고 제정되었으며, 집행 프레임워크에 갭이 생기거나 법 조항이 일관되지 않는 상황이 발생합니다. 이에 대해 세계지적재산권기구 (WIPO) 및 전자 프론티어 재단 (EFF)과 같은 국제기구들은 각국 정부가 Deepfake 관련 범죄를 효과적으로 관리하기 위한 포괄적이고 유연한 규제를 새로 제정할 필요성을 강조하고 있습니다.

기술, 사회, 법률의 협력으로 Deepfake 위협에 대처

1. 기술적 해결책

Deepfake 관련 위험을 줄이기 위해서는 첨단 기술적 해결책을 도입하는 것이 필수적입니다. 여기에는 디지털 미디어의 불일치를 분석하고 조작된 징후를 감지하여 Deepfake 콘텐츠를 탐지하고 표시하는 탐지 메커니즘의 AI 및 머신 러닝 기술의 활용이 포함됩니다. 또한, 디지털 워터마킹 및 서명을 통해 디지털 콘텐츠에 고유 식별자를 삽입하여 콘텐츠의 독창성과 완전성을 확인하는 작업이 강화됩니다. 더불어, Deepfake 악용 사례가 증가함에 따라 WiresharkEnCase와 같은 실시간 컴퓨터 포렌식 소프트웨어가 수사 기관과 법 집행 기관을 지원하여 Deepfake 콘텐츠의 출처를 추적하고 기소에 필요한 중요한 증거를 제공합니다.

2. 대중 인식과 미디어 리터러시

기술적 노력 외에도 대중의 인식 제고와 책임 있는 미디어 소비 역시 Deepfake 위험을 줄이는 중요한 열쇠입니다. 미디어 리터러시 이니셔티브는 대중에게 디지털 콘텐츠를 식별하고 평가하는 방법을 교육하여, 신뢰할 수 있는 출처를 찾고 사실 확인을 통해 허위 정보의 영향을 받는 가능성을 줄이는 것을 목표로 합니다. 이 점에서 디지털 미디어 플랫폼은 사실 확인의 책임을 지고, Deepfake 콘텐츠를 표시하며, 사용자가 플랫폼에서 검증된 콘텐츠를 선택하도록 장려하고, 의심스러운 미디어를 적극적으로 보고하여 Deepfake 콘텐츠의 확산을 방지해야 합니다.

3. 규제 및 정책 이니셔티브

마지막으로, 포괄적인 규제 정책과 악용을 방지하기 위한 구체적인 법률을 제정하고 시행하는 것이 Deepfake 위협을 예방하는 가장 중요한 요소입니다. 규제 범위는 디지털 콘텐츠의 출처 확인, 위조 및 유포를 포괄할 뿐만 아니라, 법적 프레임워크의 적응성을 높이고, 미래 사용 방식을 분류하며, 다양한 수준의 행동 의무를 부여하여 AI 기술 발전에 유연하게 대응할 수 있도록 하는 것이 필요합니다.

예를 들어, EU는 지난해 4월에 “유럽적 접근법을 위한 인공지능 규제안” (일명 AI 법)을 발표했으며, 위험의 수준과 중요성에 따라 AI 응용 프로그램을 “용납할 수 없는 위험, 높은 위험, 제한적인 위험(낮은 위험), 최소/무위험”의 4가지 범주로 분류하고, “사용 금지, 정보 제공, 사용 상황 기록, 규제 기관의 AI 감시 지원, AI 행동 알림 의무, 경고 표시” 등의 의무를 요구하고 있습니다.

기업은 Deepfake 위협을 효과적으로 방지할 수 있는 방법은?

핀테크 산업의 자기 규제는 각국이 Deepfake 범죄에 대항하는 데 중요한 요소입니다. 기업은 기술 및 거버넌스 책임 프레임워크를 적극적으로 준수해야 합니다. 예를 들어, 지난해 7월 백악관에서 발표한 것처럼 Amazon, Anthropic, Google, Inflection, Meta, Microsoft, OpenAI의 7개 주요 기술 대기업과 함께 AI 시스템을 안전성, 보안 및 신뢰를 바탕으로 개발하기 위한 자발적 약속을 체결하여 기술 발전과 사회적 안전의 균형을 보장하고 있습니다.

한편, 기업은 첨단 AI 인증 솔루션을 채택하여 디지털 서비스의 안전성을 강화하고 사용자 신뢰를 향상시킬 수 있습니다. 증가하는 디지털 금융 서비스 위험에 직면하여, Authme는 사기 방지 관점에서 Deepfake 위협에 대응합니다. ISO 30107 인증을 받은 Authme 얼굴 스푸핑 저항 기술을 통해 AI는 얼굴의 깊이, 피부 텍스처, 미세 혈관 흐름 등 얼굴 생체 특징을 분석하여 카메라 앞에 있는 사람이 실제 사람인지 여부를 판단하고, 기업이 안전한 신원 확인 서비스를 적용할 수 있도록 지원하여 회복력과 유연성을 강화합니다.

Keep Reading