Teknologi Deepfake awalnya dikembangkan untuk produksi film, tetapi belakangan ini telah digunakan oleh penjahat, dengan cepat menjadi alat untuk pemalsuan gambar, penyebaran informasi palsu, penipuan, dan eksploitasi, yang menimbulkan risiko serius terhadap privasi pribadi dan kepercayaan publik. Konten palsu yang dihasilkan oleh AI ini dapat sangat merugikan privasi perusahaan atau individu, bahkan mengganggu proses demokrasi dengan menyebarkan berita palsu atau menghasut kekerasan.
Seiring dengan perkembangan teknologi Deepfake, ancaman yang terkait dengannya juga meningkat. Hukum yang ada saat ini belum cukup untuk mencegah penyalahgunaan, sehingga negara-negara perlu secara aktif membuat undang-undang untuk mengatasi tantangan mendesak ini. Pada saat yang sama, partisipasi dunia usaha dan masyarakat sipil sangat penting untuk mendorong pengembangan AI yang transparan, bertanggung jawab, dan etis, sehingga menciptakan lingkungan digital yang aman dan dapat dipercaya.
Regulasi Teknologi Deepfake di Berbagai Negara
China
Pada November 2022, China mengeluarkan “Peraturan tentang Pengelolaan Layanan Informasi Internet Sintesis Mendalam”, menjadikannya salah satu dari sedikit negara yang secara khusus mengatur teknologi Deepfake. Regulasi ini mewajibkan pengungkapan konten Deepfake dan mengharuskan setiap konten yang menggunakan teknologi ini untuk diberi tanda yang jelas, sehingga secara efektif memerangi disinformasi dan melindungi publik dari media yang dimanipulasi. Peraturan ini mulai berlaku pada Januari 2023, mencakup hampir seluruh siklus hidup teknologi Deepfake, dari pengembangan hingga penyebaran, dengan regulasi ketat terhadap penyedia teknologi Deepfake untuk menjamin transparansi dan akuntabilitas.
Uni Eropa
Uni Eropa (UE) telah mengintegrasikan regulasi teknologi Deepfake ke dalam Kerangka Kebijakan Digital 2030 yang lebih luas. Kebijakan “Dekade Digital” ini bertujuan untuk “memberdayakan bisnis dan individu untuk bersama-sama menciptakan masa depan digital yang berpusat pada manusia, berkelanjutan, dan sejahtera,” dengan keamanan siber sebagai salah satu dari enam fokus utamanya. Regulasi terkait Deepfake di UE meliputi:
- Kerangka Regulasi AI
- Regulasi Perlindungan Data Umum (GDPR)
- Rezim Hak Cipta
- Direktif e-Commerce
- Undang-Undang Layanan Digital
- Direktif Layanan Media Audiovisual
- Kode Praktik tentang Disinformasi
- Rencana Aksi Melawan Disinformasi
- Rencana Aksi Demokrasi
Kerangka Regulasi AI menetapkan pedoman spesifik untuk pengembangan dan penggunaan teknologi AI, sementara Undang-Undang Layanan Digital melengkapi kerangka ini, mewajibkan platform digital untuk memantau dan mengelola konten Deepfake. Selain itu, UE telah mengembangkan Kode Praktik tentang Disinformasi untuk menangkal Deepfake dan bentuk-bentuk konten yang menyesatkan lainnya.
Korea Selatan
Korea Selatan menggabungkan langkah-langkah hukum dan inovasi teknologi untuk menghadapi penyalahgunaan Deepfake, dengan fokus khusus pada perlindungan hak-hak individu seperti hak cipta dan pencegahan risiko sosial yang ditimbulkan oleh disinformasi. Berdasarkan “Undang-Undang Hak Digital” yang diberlakukan pada bulan September lalu, pemerintah Korea Selatan mengumumkan serangkaian rencana legislatif pada bulan Mei untuk mereformasi rezim hak cipta yang ada, sebagai tanggapan terhadap konten yang dihasilkan oleh AI dan penyalahgunaan Deepfake yang menyebabkan penyebaran berita palsu. Sementara itu, pemerintah terus berinvestasi dalam penelitian AI, termasuk pengembangan alat canggih untuk mendeteksi dan mengelola teknologi Deepfake.
Inggris
Pada bulan April tahun ini, pemerintah Inggris mengumumkan proposal undang-undang baru untuk mengkriminalisasi pembuatan gambar Deepfake yang bersifat seksual, yang diperkenalkan sebagai amandemen terhadap “Rancangan Undang-Undang Kehakiman Pidana” yang diberlakukan pada bulan Juni. Awalnya, distribusi gambar seksual Deepfake dianggap sebagai tindakan kriminal di bawah “Undang-Undang Keamanan Daring” (OSA).
Berdasarkan undang-undang baru ini, siapa pun yang menggunakan “gambar komputer atau teknologi digital lainnya” untuk membuat atau merancang gambar seksual orang lain dengan tujuan menyebabkan ketakutan, penderitaan, atau penghinaan, dapat menghadapi catatan kriminal dan denda yang tidak terbatas. Jika pelaku berniat untuk berbagi atau mendistribusikan gambar seksual tersebut, mereka dapat dituntut dan menghadapi hukuman penjara hingga 2 tahun.
Amerika Serikat
Saat ini, Amerika Serikat tidak memiliki undang-undang federal yang secara khusus mengatur teknologi Deepfake, tetapi ada regulasi terkait yang sudah mapan. “Undang-Undang Identifikasi Keluaran Jaringan Adversarial Generatif” mewajibkan National Science Foundation untuk mendukung penelitian dalam standar deteksi dan identifikasi keluaran GAN (jaringan adversarial generatif). “Undang-Undang Laporan Deepfake 2019” dan “Undang-Undang Akuntabilitas Deepfake” mewajibkan Departemen Keamanan Dalam Negeri untuk memantau dan melaporkan teknologi yang mengandung konten Deepfake, dengan tujuan melindungi keamanan nasional dan memberikan pemulihan hukum bagi korban yang terpengaruh oleh teknologi Deepfake.
Proposal baru-baru ini termasuk “Undang-Undang DEFIANCE 2024” dan “Undang-Undang Perlindungan Konsumen dari AI yang Menipu”, yang dirancang untuk memperkuat regulasi dan perlindungan terkait teknologi Deepfake.
Taiwan
Pada tahun 2023, Taiwan mengesahkan amandemen Pasal 319-4 KUHP, menciptakan “Kejahatan Gambar Palsu”, dan Pasal 339-4, yang mencakup penipuan dengan pemberatan melalui gambar, suara, atau rekaman elektromagnetik palsu. Amandemen ini bertujuan untuk mengekang kekerasan digital berbasis gender dan tindakan penipuan yang dilakukan dengan menggunakan Deepfake atau bentuk sintesis digital lainnya. Institute for Information Industry juga merekomendasikan kepada pemerintah bahwa, selain memperbarui regulasi yang ada untuk menghadapi risiko teknologi baru, Taiwan harus mengikuti tren internasional dengan menetapkan pedoman prinsip untuk perkembangan AI dan menyusun pedoman tata kelola AI yang dapat diikuti oleh pemerintah dan perusahaan, sehingga memperdalam tata kelola AI.
Tantangan dalam Regulasi Teknologi Deepfake
Tantangan Teknologi
Salah satu tantangan utama dalam regulasi teknologi Deepfake adalah pelacakan dan identifikasi pembuatnya. Banyak pembuat Deepfake beroperasi secara anonim, sehingga menyulitkan otoritas untuk melacak asal usul konten yang dipalsukan dan menegakkan hukum secara efektif. Selain itu, seiring dengan kemajuan teknologi AI, ada kemungkinan teknologi ini dapat menghindari langkah-langkah perlindungan yang ada, yang akan semakin meningkatkan tantangan dalam penyelidikan dan upaya regulasi di masa depan.
Menyeimbangkan Kebebasan Berekspresi dan Regulasi
Tantangan lain yang signifikan adalah bagaimana menyeimbangkan kebutuhan regulasi dengan perlindungan kebebasan berekspresi. Meskipun penting untuk menghentikan penyebaran konten Deepfake yang menyesatkan atau berbahaya, regulasi yang terlalu ketat dapat mengancam kebebasan berekspresi. Hal ini terutama kontroversial dalam konteks wacana politik, di mana Deepfake mungkin digunakan sebagai sarana satir atau ekspresi pribadi.
Kekurangan Kerangka Hukum yang Ada
Karena evolusi teknologi AI yang cepat, sebagian besar undang-undang yang ada tidak dirancang dengan mempertimbangkan aplikasi seperti Deepfake, yang menyebabkan celah dalam penegakan hukum atau inkonsistensi dalam regulasi. Oleh karena itu, organisasi internasional seperti Organisasi Kekayaan Intelektual Dunia (WIPO) dan Electronic Frontier Foundation (EFF) menekankan perlunya pemerintah untuk mengembangkan regulasi khusus yang komprehensif dan fleksibel untuk secara efektif mengelola kejahatan terkait Deepfake.
Mengatasi Ancaman Deepfake: Sinergi antara Teknologi, Masyarakat, dan Hukum
1. Solusi Teknologi
Penerapan solusi teknologi canggih adalah langkah penting dalam mengurangi risiko terkait Deepfake. Solusi ini termasuk mekanisme deteksi yang menggunakan AI dan pembelajaran mesin untuk menganalisis ketidaksesuaian dalam media digital atau mengidentifikasi tanda-tanda manipulasi untuk mendeteksi dan menandai konten Deepfake, mencegah kerusakan lebih lanjut. Watermarking digital dan tanda tangan lebih lanjut memperkuat upaya verifikasi konten, dengan menanamkan pengenal unik dalam konten digital untuk memverifikasi orisinalitas dan integritasnya. Selain itu, dengan meningkatnya kasus penyalahgunaan Deepfake, perangkat lunak forensik komputer waktu nyata seperti Wireshark dan EnCase dapat membantu penyidik dan penegak hukum untuk melacak sumber konten Deepfake, memberikan bukti penting untuk penuntutan.
2. Kesadaran Publik dan Literasi Media
Selain upaya teknologi, peningkatan kesadaran publik dan konsumsi media yang bertanggung jawab juga merupakan kunci penting untuk mengurangi risiko Deepfake. Inisiatif literasi media bertujuan untuk mendidik publik tentang cara mengidentifikasi dan mengevaluasi konten digital, mencari sumber yang dapat diandalkan, dan melakukan verifikasi fakta, sehingga mengurangi kemungkinan mereka terkena dampak informasi palsu. Dalam hal ini, platform media digital harus bertanggung jawab untuk melakukan verifikasi fakta, menandai konten Deepfake, mendorong pengguna untuk memilih konten yang telah diverifikasi oleh platform, dan secara aktif melaporkan media yang mencurigakan untuk mencegah penyebaran konten Deepfake.
3. Inisiatif Regulasi dan Kebijakan
Terakhir, penerapan dan penegakan kebijakan regulasi yang komprehensif serta undang-undang khusus untuk membatasi penyalahgunaan merupakan komponen penting dalam mencegah ancaman Deepfake. Tindakan regulasi harus mencakup verifikasi sumber, pemalsuan, dan penyebaran konten digital, dan disarankan untuk meningkatkan adaptabilitas kerangka hukum untuk mengklasifikasikan penggunaan di masa depan, memberikan berbagai tingkat kewajiban untuk menanggapi perkembangan teknologi AI secara fleksibel.
Misalnya, pada bulan April tahun lalu, UE menerbitkan “Proposal untuk Regulasi Pendekatan Eropa terhadap Kecerdasan Buatan” (dikenal sebagai Undang-Undang AI), yang mengklasifikasikan aplikasi AI ke dalam empat kategori berdasarkan tingkat risiko dan kepentingannya: “risiko yang tidak dapat diterima, risiko tinggi, risiko terbatas (risiko rendah), minimal/tanpa risiko”, dan mengharuskan kewajiban yang sesuai seperti “larangan penggunaan, penyediaan informasi, pencatatan penggunaan, dukungan untuk pengawasan AI oleh otoritas, kewajiban pemberitahuan tindakan AI, dan peringatan.”
Bagaimana Perusahaan Dapat Mencegah Ancaman Deepfake secara Efektif?
Regulasi diri di sektor fintech adalah faktor kunci dalam upaya nasional untuk melawan kejahatan Deepfake. Perusahaan harus secara aktif mematuhi kerangka tanggung jawab teknologi dan tata kelola. Misalnya, pada bulan Juli tahun lalu, Gedung Putih mengumumkan komitmen sukarela dengan tujuh raksasa teknologi—Amazon, Anthropic, Google, Inflection, Meta, Microsoft, dan OpenAI—untuk mengembangkan sistem AI berdasarkan prinsip-prinsip keselamatan, keamanan, dan kepercayaan, memastikan keseimbangan antara kemajuan teknologi dan keselamatan sosial.
Sementara itu, perusahaan dapat mengadopsi solusi verifikasi AI yang canggih untuk meningkatkan keamanan layanan digital dan meningkatkan kepercayaan pengguna. Menghadapi risiko yang terus meningkat dalam layanan keuangan digital, Authme mengatasi ancaman Deepfake dari perspektif pencegahan penipuan—menggunakan teknologi ketahanan spoofing wajah Authme yang disertifikasi oleh standar ISO 30107, AI menganalisis biometrik wajah, termasuk kedalaman wajah, tekstur kulit, dan aliran mikrovascular, untuk menentukan apakah orang di depan kamera adalah orang yang sebenarnya, membantu perusahaan menerapkan layanan verifikasi identitas yang aman dan memperkuat ketahanan dan fleksibilitas.