Deepfake(深偽技術)是一種利用 AI 深度學習來生成逼真假造圖像和影片的技術,隨著技術的進步,這項技術已經變得越來越成熟,降低合成與模擬影像畫面與聲音的門檻,大幅提升讓身分冒用攻擊的潛在風險——特別是在金融科技(FinTech)領域,已構成嚴重資安威脅。
根據 Gartner 的預測,到 2026 年,30% 的企業將因為 Deepfake 攻擊事件增加,重新評估身分驗證解決方案之可靠性;此外,根據全球法證設備和身分驗證解決方案開發商 Regula 的調查,37% 的企業遭遇過深偽聲音詐騙、29% 的企業曾淪為深偽影片詐騙的受害者,顯示 Deepfake 身分詐欺正呈現令人擔憂的上升趨勢。
本文將探討深偽技術對金融科技的影響,展示相關案例,並提供應對策略。
Deepfake 技術的發展
什麼是 Deepfake(深偽技術)
Deepfake 技術首次受到廣泛關注是在 2017 年,這項技術的名稱源自於「深度學習」(deep learning)與「偽造」(fake)兩個詞的結合。它的核心原理是利用人工智慧來學習並生成某個人的逼真影像或聲音,並將這些合成內容嵌入到影片中,使得這些影像看起來像是真實拍攝的一樣。這項技術最初是用來將名人或明星的臉部影像合成到影片中。
Deepfake 技術如何運作
Deepfake 技術的核心在於其生成對抗網路(GANs),這是一種由兩個人工智慧網絡構成的系統:生成網路和辨別網路。前者的任務是創造出看起來真實的影像或影片,後者則負責檢查這些影像的真偽——如果辨別網路能夠識別出圖像是偽造的,它就會向生成網路提供改進的建議,生成網路則會根據這些建議進行調整,從而生成更真實的圖像。
金融科技面臨哪些 Deepfake 威脅?
DeepFake 技術利用 AI 生成逼真的偽造影像和聲音,對金融科技(FinTech)領域中的生物識別技術構成了前所未有的挑戰。這項技術被不法分子廣泛應用於各種詐騙活動中,從偽造著名科技人物的影像來推銷虛假的加密貨幣交易,到利用偽造聲紋進行匯款詐騙,深偽技術已然構成嚴重的資安威脅。
深偽技術的詐騙手法多種多樣,涵蓋了從冒充高階主管進行網路釣魚詐騙,到創建虛假的社交媒體資料來傳播虛假訊息等形式。例如最近英國一家設計與工程公司就遭遇了這類 DeepFake 騙局,其香港員工被騙支付了 2500 萬美元給詐騙者,造成企業嚴重的財務損失。
又例如在 2019 年 3 月,英國一家能源公司的 CEO 接到一通德國母公司主管的電話,對方要求他向匈牙利的供應商轉帳 22 萬歐元。該 CEO 認出了電話中對方的“輕微德國口音和語調”,並在一小時內完成了這筆轉帳,這筆帳款最終被流入墨西哥某個非法帳戶,事後檢調推測,竊賊使用 Deepfake 技術仿冒了德國高管的語音。
而在今年二月初,羅馬尼亞中央銀行行長 Mugur Isarescu 也成為 Deepfake 攻擊的目標:一段深偽影片中,犯罪分子使用了這位央行行長的形象和聲音來推銷股票投資,並連結至一個詐騙平台。
在這樣的脈絡下,美國財政部最近發布了一份關於在金融服務領域管理人工智慧特定網路安全風險的報告,旨在確保 AI 相關技術應用之安全與可信賴性;該報告亦明確指出,AI 正在重新定義金融服務領域的網路安全和詐騙手段,政府須致力於與金融機構合作,利用新興科技維護金融穩定性,持續升級資安防護。
金融科技公司能採取哪些應對策略?
隨著 DeepFake 技術的進步,「眼見為憑」的概念正面臨前所未有的挑戰,數位身份識別的信任度也因此受到嚴重威脅,這對 FinTech 的發展構成了巨大風險。為了維護數位金融生態的健全,金融科技公司必須採取多層次的應對策略,從技術、制度到用戶行為進行全面防護。
舉例來說,企業可以在公開影片中添加專屬的雜湊值(hash values)或安全憑證,以確保資料來源的真實性,防止駭客進行惡意篡改。這種技術措施有助於提升數位平台的安全性,減少假冒內容的散播。其次,採用多因子認證(MFA)可以進一步強化安全性,讓消費者通過多重驗證機制獲得授權,從而降低 DeepFake 技術濫用帶來的風險。
此外,零信任架構(Zero Trust Architecture, ZTA)是一種策略性網路安全模型,其核心原則是「永不信任,持續驗證」(Never Trust, Always Verify)。這一模型假設資安威脅不僅來自外部,也可能來自傳統網路邊界內部,因此無論是外部或內部的實體,都不應自動獲得信任。在這一前提下,零信任模型要求對組織系統內的所有操作和訪問請求進行持續的身份驗證、訪問控制及安全監控,以最小化資安風險並防止數據洩露。
這些應對策略需要企業在時間、資源以及人員培訓上進行大量投入,並且需要建立完善的內部監管流程,定期進行資安測試與演練。此外,結合消費者教育計劃,提升用戶的警覺性和自我防護能力,將有助於防範 DeepFake 技術帶來的威脅,最終為金融科技服務提供更安全的運行基礎。
採用 AI 身分驗證解決方案,守護身分安全
隨著深偽技術對金融科技的威脅日益嚴峻,企業必須採取有效的防護措施來保護數位平台和用戶資料的安全。採用 Authme 的 AI 身分驗證防偽技術,可以快速且精準地辨別偽造證件,從源頭起杜絕詐欺行為,保障平台的完整性。此外,Authme 的 AI 人臉辨識技術通過 ISO 30107 規範驗證,能有效抵禦包括 DeepFake 在內的各類偽冒攻擊。這項技術通過 AI 分析人臉的生物特徵,如臉部深度、肌膚紋理和微血管流動,確保鏡頭前的是真人,進一步強化用戶身份的真實性。
透過這些主動偵查和預防措施,企業能夠在詐欺行動發生前杜絕潛在威脅,鞏固與用戶之間的信任關係。為了打造一個健康的數位金融生態,企業和消費者必須共同應對 DeepFake 技術帶來的挑戰,營造出讓消費者信任的服務環境。通過採用 Authme 的 AI 驗證解決方案,企業可以更好地保護其數位平台和用戶資料,建立更安全、更可信的數位金融環境。