Deepfake Makin Sulit Dibedakan, Deteksi Denyut Nadi Pun Bisa Dipalsukan

May 05, 2025 09:56 AM - 2 minggu yang lalu 23133

Kincai Media – Pernahkah Anda menerima pesan berisi video yang membikin Anda ragu, “Ini original alias rekayasa?” Jika dulu kita bisa dengan mudah menuding “Itu hasil Photoshop”, sekarang frasa itu berganti menjadi “Itu buatan AI”. Teknologi generatif AI telah mengaburkan pemisah antara realitas dan ilusi digital. Yang lebih mengkhawatirkan, tidak ada lagi langkah pasti untuk membedakan konten sintetis dari yang asli.

Sebuah penelitian terbaru dari Humboldt University of Berlin mengungkap kebenaran mengejutkan: deepfake sekarang apalagi bisa meniru debar jantung manusia dalam video. Padahal, sebelumnya, degub nadi dianggap sebagai salah satu tanda keaslian yang susah dipalsukan. Studi yang dipublikasikan di Frontiers in Imaging ini menemukan bahwa model deepfake mutakhir dapat menghasilkan video dengan parameter debar jantung yang mirip manusia.

Perbandingan foto original (kiri) dan deepfake (kanan) dari partisipan penelitian

“Ini pertama kalinya kami menunjukkan bahwa video deepfake berbobot tinggi dapat menampilkan debar jantung realistis dan perubahan warna wajah yang halus, membuatnya jauh lebih susah dideteksi,” jelas Peter Eisert, guru besar di Humboldt dan penulis utama studi tersebut, seperti dikutip Popular Science.

Krisis Kepercayaan di Era Deepfake

Deepfake menggunakan AI untuk menciptakan gambar, video, alias rekaman bunyi yang dimanipulasi namun terlihat sangat meyakinkan. Teknologi ini telah menimbulkan beragam masalah, mulai dari penyebaran materi definitif non-konsensual hingga penipuan dan misinformasi. Sebuah laporan menyebut lebih dari 244.000 video porno deepfake diunggah ke 35 situs teratas hanya dalam seminggu.

Kasus Scarlett Johansson yang menjadi korban deepfake dan mendesak izin di AS hanyalah salah satu contoh dari banyaknya kasus serupa. Bahkan tokoh seperti Elon Musk pun tidak luput dari penyalahgunaan teknologi ini untuk penipuan kripto.

Bagaimana Deepfake Menipu Detektor?

Metode penemuan deepfake tradisional mengandalkan identifikasi ketidakkonsistenan visual seperti kedipan mata yang tidak alami alias distorsi fitur wajah. Sistem yang lebih baru menggunakan remote photoplethysmography (rPPG), teknik yang awalnya dikembangkan untuk telemedisin, untuk mendeteksi tanda debar jantung dengan menganalisis perubahan sinar pada kulit wajah.

Tim Humboldt melatih model penemuan menggunakan video original partisipan yang melakukan beragam aktivitas. Setelah menganalisis hanya 10 detik rekaman, sistem dapat mengidentifikasi debar jantung setiap orang dengan andal. Namun, ketika metode yang sama diterapkan pada jenis deepfake partisipan tersebut, hasilnya mengejutkan: detektor menemukan debar jantung dalam video yang dimanipulasi dan menandainya sebagai asli.

Tiga orang muda di kafe luar ruangan, salah satunya adalah deepfake

“Eksperimen kami menunjukkan bahwa deepfake dapat menampilkan debar jantung yang realistis, bertentangan dengan temuan sebelumnya,” tulis para peneliti. Yang menarik, deepfake dalam penelitian ini tidak sengaja diprogram untuk mensimulasikan debar jantung. Para peneliti percaya klip sintetis tersebut secara tidak sengaja “mewarisi” sinyal seperti degub nadi dari rekaman asli.

Masa Depan Deteksi Deepfake

Meskipun penelitian ini menunjukkan celah dalam sistem penemuan saat ini, para peneliti mengatakan situasinya tidak sepenuhnya suram. Deepfake masa sekarang tetap belum bisa mereplikasi pola aliran darah yang lebih kompleks di wajah seseorang seiring waktu. Metode penemuan lain—seperti melacak perubahan kecerahan piksel alias menggunakan watermark digital—sedang dieksplorasi oleh perusahaan teknologi seperti Adobe dan Google untuk melengkapi pendekatan tradisional.

Namun, temuan ini menyoroti kebutuhan bakal pembaruan terus-menerus pada teknologi deteksi. Seperti yang disarankan Eisert dan timnya, tidak ada parameter tunggal yang mungkin cukup dengan sendirinya dalam jangka panjang. Di tengah maraknya penggunaan deepfake untuk memengaruhi pemilu, kesadaran publik dan izin yang ketat menjadi semakin penting.

Lalu, gimana kita bisa melindungi diri di era di mana mata dan telinga kita sendiri tidak lagi bisa dipercaya? Langkah pertama adalah selalu skeptis terhadap konten yang mencurigakan, terutama yang berkarakter sensasional. Kedua, manfaatkan perangkat verifikasi kebenaran yang tersedia. Dan yang terpenting, dukung upaya-upaya seperti inisiatif StopNCII yang bermaksud memerangi penyalahgunaan teknologi ini.

Selengkapnya