Deepfake: Tantangan dan Strategi di FinTech

Deepfake threatening the fintech sector

Teknologi deepfake menggunakan pembelajaran mendalam AI untuk menghasilkan gambar dan video palsu yang sangat realistis. Seiring dengan kemajuan teknologi ini, hambatan untuk membuat dan menyimulasikan gambar dan suara realistis semakin berkurang, sehingga meningkatkan risiko potensial dari serangan pemalsuan identitas. Ini menimbulkan ancaman keamanan siber yang serius, terutama di sektor FinTech.

Menurut prediksi Gartner, pada tahun 2026, 30% perusahaan akan menilai ulang keandalan solusi verifikasi identitas mereka akibat meningkatnya serangan deepfake. Selain itu, survei oleh pengembang perangkat forensik global dan solusi verifikasi identitas Regula menunjukkan bahwa 37% perusahaan telah mengalami penipuan suara deepfake, dan 29% perusahaan telah menjadi korban penipuan video deepfake, yang menunjukkan tren peningkatan yang mengkhawatirkan dalam penipuan identitas deepfake.

Artikel ini membahas dampak teknologi deepfake pada FinTech, menampilkan studi kasus yang relevan, dan menawarkan strategi untuk mengatasi ancaman ini.

Perkembangan Teknologi Deepfake

Apa Itu Teknologi Deepfake?

Teknologi deepfake pertama kali menarik perhatian luas pada tahun 2017. Nama teknologi ini berasal dari kombinasi dua kata, yaitu “deep learning” dan “fake”. Prinsip utamanya adalah menggunakan kecerdasan buatan untuk mempelajari dan menghasilkan gambar atau suara realistis dari seseorang, dan memasukkan konten sintetis ini ke dalam video, sehingga tampak seolah-olah direkam secara nyata. Awalnya, teknologi ini digunakan untuk menggabungkan wajah selebritas atau bintang ke dalam video.

Bagaimana Teknologi Deepfake Bekerja?

Inti dari teknologi deepfake terletak pada Generative Adversarial Networks (GANs), yaitu sistem yang terdiri dari dua jaringan AI: jaringan generator dan jaringan diskriminator. Tugas generator adalah menciptakan gambar atau video yang tampak nyata, sedangkan diskriminator memeriksa keaslian gambar-gambar tersebut. Jika diskriminator dapat mengenali bahwa gambar tersebut palsu, ia akan memberikan umpan balik kepada generator, yang kemudian akan menyesuaikan untuk menghasilkan gambar yang lebih realistis.

Ancaman Apa yang Dihadapi FinTech dari Deepfake?

Teknologi deepfake yang menggunakan AI untuk menghasilkan gambar dan suara palsu yang realistis menimbulkan tantangan besar bagi teknologi biometrik di sektor FinTech. Teknologi ini banyak digunakan oleh penjahat dalam berbagai aktivitas penipuan, mulai dari memalsukan gambar tokoh teknologi terkenal untuk mempromosikan transaksi cryptocurrency palsu hingga menggunakan sidik suara palsu untuk penipuan transfer dana. Teknologi deepfake telah menjadi ancaman keamanan siber yang serius.

Metode penipuan dengan teknologi deepfake sangat beragam, mulai dari menyamar sebagai eksekutif tingkat tinggi untuk melakukan phishing, hingga membuat profil media sosial palsu untuk menyebarkan informasi palsu. Misalnya, baru-baru ini sebuah perusahaan desain dan teknik di Inggris menjadi korban penipuan deepfake, di mana seorang karyawan di Hong Kong ditipu untuk membayar USD 25 juta kepada penipu, menyebabkan kerugian finansial yang signifikan bagi perusahaan.

Contoh lainnya adalah pada bulan Maret 2019, CEO sebuah perusahaan energi di Inggris menerima telepon dari seorang eksekutif perusahaan induk Jerman, yang memintanya untuk mentransfer €220.000 kepada pemasok di Hungaria. CEO tersebut mengenali “aksen Jerman yang ringan dan intonasi” dari penelepon dan menyelesaikan transfer dalam satu jam, namun uang tersebut akhirnya masuk ke rekening ilegal di Meksiko. Penyelidik menduga bahwa pencuri menggunakan teknologi deepfake untuk meniru suara eksekutif Jerman tersebut.

Pada awal Februari tahun ini, Gubernur Bank Sentral Rumania, Mugur Isarescu juga menjadi target serangan deepfake. Dalam video palsu, para penjahat menggunakan gambar dan suara gubernur untuk mempromosikan investasi saham yang dihubungkan ke platform penipuan.

Dalam konteks ini, Departemen Keuangan AS baru-baru ini merilis laporan tentang pengelolaan risiko keamanan siber khusus AI di sektor layanan keuangan, yang bertujuan untuk memastikan keamanan dan keandalan aplikasi terkait AI. Laporan tersebut juga menyoroti bahwa AI sedang mendefinisikan ulang keamanan siber dan metode penipuan di sektor layanan keuangan, dan pemerintah harus bekerja sama dengan lembaga keuangan untuk memanfaatkan teknologi baru dalam menjaga stabilitas keuangan dan terus meningkatkan pertahanan keamanan siber.

Strategi Apa yang Bisa Diambil Perusahaan FinTech?

Seiring dengan kemajuan teknologi deepfake, konsep “melihat berarti percaya” menghadapi tantangan yang belum pernah terjadi sebelumnya, yang secara serius mengancam kepercayaan pada verifikasi identitas digital, dan ini menimbulkan risiko besar bagi perkembangan FinTech. Untuk menjaga integritas ekosistem keuangan digital, perusahaan FinTech harus menerapkan strategi multi-level, mulai dari teknologi, kebijakan, hingga perilaku pengguna untuk memastikan perlindungan yang komprehensif.

Sebagai contoh, perusahaan dapat menambahkan nilai hash atau sertifikat keamanan unik ke video publik untuk memastikan keaslian sumber data dan mencegah perusakan jahat oleh peretas. Langkah teknis ini membantu meningkatkan keamanan platform digital dan mengurangi penyebaran konten palsu. Selain itu, penerapan otentikasi multi-faktor (MFA) dapat lebih memperkuat keamanan, memungkinkan konsumen untuk mendapatkan otorisasi melalui beberapa mekanisme verifikasi, sehingga mengurangi risiko penyalahgunaan teknologi deepfake.

Selain itu, Arsitektur Zero Trust (ZTA) adalah model keamanan siber strategis yang didasarkan pada prinsip “Never Trust, Always Verify” (Jangan Pernah Percaya, Selalu Verifikasi). Model ini mengasumsikan bahwa ancaman keamanan tidak hanya datang dari luar tetapi juga dapat berasal dari dalam batas jaringan tradisional, sehingga entitas baik eksternal maupun internal tidak boleh dipercaya secara otomatis. Dalam konteks ini, model Zero Trust mengharuskan verifikasi identitas yang berkelanjutan, pengendalian akses, dan pemantauan keamanan terhadap semua operasi dan permintaan akses dalam sistem organisasi untuk meminimalkan risiko keamanan dan mencegah kebocoran data.

Strategi-strategi ini memerlukan investasi signifikan dalam waktu, sumber daya, serta pelatihan personel, dan memerlukan pembentukan proses pengawasan internal yang komprehensif, dengan pengujian dan latihan keamanan siber secara berkala. Selain itu, menggabungkan program pendidikan konsumen untuk meningkatkan kewaspadaan dan kemampuan perlindungan diri pengguna akan membantu mengurangi ancaman yang ditimbulkan oleh teknologi deepfake, serta akhirnya menyediakan dasar operasi yang lebih aman bagi layanan FinTech.

Menerapkan Solusi Verifikasi Identitas AI untuk Melindungi Keamanan Identitas

Seiring dengan meningkatnya ancaman teknologi deepfake terhadap FinTech, perusahaan harus mengambil tindakan perlindungan yang efektif untuk melindungi keamanan platform digital dan data pengguna. Dengan mengadopsi teknologi verifikasi identitas AI dan anti-penipuan dari Authme, perusahaan dapat mengidentifikasi dokumen palsu dengan cepat dan akurat, mencegah penipuan sejak awal dan menjaga integritas platform. Selain itu, teknologi pengenalan wajah AI dari Authme, yang telah diverifikasi oleh standar ISO 30107, secara efektif dapat melawan berbagai jenis serangan spoofing termasuk deepfake. Teknologi ini menganalisis fitur biometrik wajah, seperti kedalaman wajah, tekstur kulit, dan aliran mikro-vaskular, untuk memastikan bahwa orang di depan kamera adalah orang yang nyata, sehingga semakin memperkuat keaslian identitas pengguna.

Melalui langkah-langkah deteksi dan pencegahan proaktif ini, perusahaan dapat menghilangkan potensi ancaman sebelum tindakan penipuan terjadi dan memperkuat hubungan kepercayaan dengan pengguna. Untuk membangun ekosistem keuangan digital yang sehat, perusahaan dan konsumen harus bersama-sama menghadapi tantangan yang ditimbulkan oleh teknologi deepfake dan menciptakan lingkungan layanan yang terpercaya. Dengan mengadopsi solusi ver ifikasi AI dari Authme, perusahaan dapat lebih melindungi platform digital dan data pengguna mereka, serta membangun lingkungan keuangan digital yang lebih aman dan terpercaya.

Keep Reading