Ancaman Deepfake: Bagaimana Kita Bisa Membedakan Realita dan Manipulasi Digital

Konten Kreator Ramai-ramai Bercanda Soal Neraka Pakai Google Veo 3
Konten Kreator Ramai-ramai Bercanda Soal Neraka Pakai Google Veo 3

Jakarta, VIVA – Di era digital saat ini, fenomena deepfake semakin meresahkan. Teknologi berbasis kecerdasan buatan ini mampu menciptakan video atau audio palsu yang terlihat begitu nyata, sehingga sulit dibedakan dengan konten asli.

Bukan hanya sekadar hiburan, deepfake juga berpotensi digunakan untuk menyebarkan disinformasi, merusak reputasi seseorang, bahkan memengaruhi opini publik.

Sejumlah pakar internasional menilai ancaman deepfake tidak bisa dianggap remeh. Laurel Cook dan Amy Cyphert dari West Virginia University menyebut bahwa masyarakat perlu menganggap konten deepfake layaknya spam digital.

Menurut mereka, cara terbaik untuk tetap waspada adalah bersikap skeptis terhadap konten yang terlalu memancing emosi, terutama kemarahan atau rumor provokatif.

Hasil video buatan Google Veo 3

Hasil video buatan Google Veo 3

Mereka menekankan bahwa detail kecil pada wajah, mata, hingga ekspresi sering kali bisa mengungkap kejanggalan dalam sebuah video.

Sementara itu, Siwei Lyu, pakar kecerdasan buatan dari University of Buffalo yang juga pengembang platform DeepFake-o-meter, mengingatkan bahwa hasil dari deteksi otomatis sering kali tidak konsisten.

Dalam sebuah wawancara dengan The Guardian, ia menyebutkan bahwa rentang hasil deteksi bisa sangat beragam, mulai dari hampir nol persen hingga seratus persen, sehingga tidak bisa dijadikan patokan tunggal.

"Saya pikir gambaran palsu tentang reliabilitas lebih berbahaya daripada reliabilitas rendah," ujarnya dikutip The Guardian.

Pakar lain, Hany Farid dari University of California Berkeley, menegaskan bahwa deteksi deepfake tidak bisa hanya mengandalkan algoritma. Dalam wawancaranya dengan Wired, ia menekankan perlunya kombinasi antara alat forensik dan analisis manual.

"Siapa pun yang mengatakan solusinya cukup dengan melatih model AI adalah orang bodoh atau pembohong," kata Farid. Ia mengingatkan bahwa ini adalah perlombaan teknologi, di mana setiap detektor baru kemungkinan akan segera dikalahkan oleh generasi deepfake berikutnya.

V S Subrahmanian, profesor kecerdasan buatan dan keamanan dari Northwestern University, menawarkan panduan yang lebih praktis. Ia menilai ada beberapa indikator visual yang dapat diperhatikan, mulai dari gerakan bibir yang tidak sinkron, pencahayaan yang aneh, hingga detail wajah yang terlihat tidak wajar.

Peneliti MIT melalui proyek Detect Fakes juga menyoroti delapan tanda fisik yang bisa menjadi acuan, seperti tekstur kulit, kedipan mata yang tidak normal, dan refleksi cahaya pada kacamata.

Namun, kemampuan publik dalam mengenali deepfake masih sangat terbatas. Sebuah studi dari iProov pada 2025 menunjukkan bahwa dari ribuan responden di Amerika Serikat dan Inggris, hanya 0,1 persen yang mampu membedakan konten asli dan deepfake dengan akurasi sempurna.

Artinya, mayoritas masyarakat masih rentan terhadap manipulasi digital yang kian canggih.

Para ahli sepakat bahwa deteksi deepfake memerlukan pendekatan ganda. Masyarakat perlu dilatih untuk lebih kritis dalam mengonsumsi konten digital, sementara pengembang teknologi harus terus menyempurnakan alat deteksi.

Yang tidak kalah penting, pengguna internet dituntut untuk tidak mudah terpancing oleh konten viral tanpa melakukan verifikasi lebih lanjut.

Deepfake bukan sekadar persoalan teknologi, melainkan juga tantangan sosial yang berkaitan dengan literasi digital, kepercayaan publik, dan keamanan informasi. Pertanyaannya kini, apakah kita siap menghadapi era ketika realita dan manipulasi digital semakin sulit dibedakan?