Delapan Kekhawatiran Publik Indonesia atas AI

DI TENGAH laju adopsi Artificial Intelligence (AI) yang pesat di Indonesia, suara publik yang penuh kekhawatiran semakin nyaring terdengar.
Survei nasional Sharing Vision yang melibatkan lebih dari 5.000 responden menunjukkan bahwa 71 persen masyarakat cemas terhadap potensi ketergantungan berlebihan pada AI.
kira untuk mengatasi kekhawatiran ini? Bagaimana agar masyarakat Indonesia tidak tergantung secara berlebihan ke AI?
Zana Buçinca dkk. dalam jurnal Proceedings of the ACM on Human Computer Interaction menemukan bahwa penerapan cognitive forcing functions—seperti checklist, jeda kognitif, dan intervensi yang disengaja—secara signifikan mampu menurunkan tingkat over-reliance pada rekomendasi AI.
Meskipun beberapa peserta melaporkan penurunan kenyamanan (misalnya, penurunan kepuasan subjektif seiring tingkat ketelitian yang meningkat).
Metode adaptif ini memungkinkan pengguna berpikir secara reflektif sebelum menerima jawaban AI, alih-alih mengandalkan sistem otomatis.
Tejas Srinivasan dan Jesse Thomason (2025) dalam arXiv mengusulkan pendekatan trust adaptive interventions. Misalnya memasukkan jeda otomatis atau menjelaskan kontra-alternatif saat algoritma mendeteksi tingkat kepercayaan pengguna yang tinggi atau rendah.
Pendekatan ini berhasil mengurangi kesalahan keputusan hingga 38?persen dan meningkatkan akurasi hingga 20?persen dalam pengambilan keputusan kompleks.
Dalam konteks pendidikan, tinjauan sistematis oleh Chunpeng Zhai, Santoso Wibowo, dan Lily D. Li (Smart Learning Environments, 2024) menunjukkan bahwa penggunaan sistem dialog AI berlebihan menyebabkan penurunan kemampuan berpikir kritis dan analitis siswa, serta meningkatnya learned helplessness.
Mereka merekomendasikan strategi yang memperkuat kemampuan metakognitif, literasi data, dan refleksi kritis agar AI berfungsi sebagai fasilitator, bukan pengganti.
Studi dalam domain klinis oleh Min Hun Lee dan Chong Jun Chew (2023) menemukan bahwa pemberian counterfactual explanations—yang menjelaskan bagaimana hasil berubah jika kondisi diubah—dapat mengurangi over-reliance hingga 21?persen dibanding penjelasan fitur saja.
Ini mendukung gagasan bahwa pemaparan informasi tentang ketidakpastian dan alternatif dapat meningkatkan kemampuan pengguna untuk mengkritisi output AI.
Selain itu, artikel Washington Post (Juni 2025) menyebutkan pentingnya mengadopsi strategi “distrust and verify”: anggapkan bahwa setiap saran AI mungkin salah hingga bisa dibuktikan benar.
Pendekatan skeptis ini, menurut para pakar seperti Meredith Broussard dan Simon Willison, adalah kunci untuk membalik efek automation bias dalam kehidupan nyata
Keseluruhan riset ini mendukung panduan dari World Economic Forum dan MIT Sloan yang menekankan pendidikan budaya berbasis AI literacy.
Individu harus dibekali kemampuan mengenali bias, menilai kredibilitas sumber, dan melihat AI sebagai kopilot, bukan pengganti kontrol manusia.
Demikian pula penilaian risiko menurut standar NIST dan ISO 42001 mendorong transparansi dan audit berkelanjutan agar pengguna tidak tergelincir dalam kepercayaan berlebihan.
Dengan demikian, strategi efektif untuk mengurangi ketergantungan berlebihan pada AI mencakup: penerapan intervensi kognitif (cognitive forcing), sistem adaptif berdasarkan kepercayaan pengguna, edukasi reflektif agar individu terus aktif berpikir, dan penanaman budaya kritis dan skeptis yang sehat (“distrust and verify”), semuanya didukung oleh riset peer-reviewed bereputasi tinggi.
Kembali pada data yang diperoleh dari Survei Sharing Vision periode Mei-Juni 2025. Selain ketergantungan berlebihan ke AI, masih ada beberapa kekhawatiran publik Indonesia terhadap AI.
Sebanyak 66 persen menyatakan kekhawatiran atas kebocoran dan penyalahgunaan data pribadi.
Tak kalah serius, 51 persen takut pada penyebaran informasi palsu melalui AI, termasuk dalam bentuk deepfake dan hoaks.
Isu lain yang juga mengemuka adalah kekhawatiran akan berkurangnya kreativitas manusia (43 persen), penyalahgunaan AI untuk tujuan merugikan (39 persen), hilangnya pekerjaan akibat otomatisasi (36 persen), dan kesulitan membedakan konten buatan manusia dan AI (31 persen).
Bahkan 21 persen responden menyuarakan kekhawatiran terhadap ketidakadilan dalam keputusan berbasis AI, seperti dalam rekrutmen atau akses pinjaman, dan 17 persen mengkritisi kurangnya transparansi sistem AI secara umum.
Data ini memperlihatkan jurang kesiapan antara optimisme adopsi AI dan kondisi riil kesiapan regulasi, teknologi pengawasan, serta budaya dan literasi digital bangsa.
Indonesia memang telah memiliki UU Perlindungan Data Pribadi (PDP). Namun implementasinya masih menghadapi tantangan kapasitas lembaga pengawas, rendahnya kepatuhan sektor privat, serta belum adanya payung hukum spesifik mengatur pemanfaatan AI secara komprehensif dan etis.
Rancangan regulasi AI nasional masih dalam tahap awal. Padahal kebutuhan akan kerangka etika dan tanggung jawab bersama dalam penggunaan AI sudah sangat mendesak.
Tanpa regulasi yang kuat, kekhawatiran publik seperti bias sistemik, diskriminasi algoritmik, hingga penyalahgunaan data tidak akan menemukan saluran perlindungan hukum yang memadai.
Di sisi lain, kesiapan teknologi pengawasan dan pencegahan penyalahgunaan AI masih minim. Belum banyak lembaga atau perusahaan di Indonesia yang mengadopsi standar keamanan AI seperti NIST AI Risk Management Framework dari Amerika Serikat atau ISO/IEC 42001 yang menetapkan prinsip-prinsip pengelolaan risiko AI secara sistemik.
Padahal standar ini penting untuk memastikan sistem AI tidak hanya aman secara teknis, tetapi juga dapat diaudit, dijelaskan, dan dikendalikan.
Ketika sistem AI digunakan dalam proses kritikal seperti rekrutmen, asesmen pinjaman, atau keputusan hukum, transparansi dan akuntabilitas menjadi prasyarat mutlak.
Perusahaan yang hendak menggunakan AI seharusnya juga sudah memiliki sistem tata kelola berbasis prinsip people–process–technology, dengan tim lintas fungsi yang memadukan keahlian hukum, etika, data science, dan bisnis untuk menjamin AI digunakan secara sah dan adil.
Selain aspek regulasi dan teknologi, tantangan terbesar justru terletak pada kesiapan manusia. Kekhawatiran bahwa AI akan mengurangi kreativitas dan kemampuan berpikir bukan tanpa dasar.
Di sinilah pentingnya transformasi pendidikan yang radikal— tidak hanya mengajarkan penggunaan AI sebagai alat bantu, tetapi juga menanamkan cara berpikir kritis, etika digital, serta semangat reflektif agar generasi mendatang tidak tenggelam dalam arus kemudahan yang ditawarkan mesin.
Pendidikan dasar hingga tinggi harus memosisikan AI bukan sebagai pengganti guru atau manusia, tetapi sebagai “copilot” yang membantu memperluas cakrawala dan mempercepat proses belajar.
Hal serupa berlaku dalam dunia kerja: program pelatihan berkelanjutan dan literasi AI di level korporat harus dirancang agar pekerja tetap memimpin dalam pengambilan keputusan strategis, sementara AI mengambil peran sebagai alat penguat, bukan pemutus akhir.
Sudah saatnya kita membongkar mitos bahwa AI sepenuhnya adalah kotak hitam yang tak bisa dipahami.
Banyak model dan sistem AI modern kini dilengkapi dengan fitur explainability, alat audit, dan dokumentasi transparan yang memungkinkan penelusuran logika di balik keputusan.
Namun untuk itu, pengguna harus dilibatkan dalam proses evaluasi, pengujian, dan pengawasan.
Tidak cukup hanya percaya pada AI karena hasilnya terasa meyakinkan—harus ada sistem uji ketat yang menyertai setiap penggunaan, dari uji bias dan fairness hingga simulasi ketahanan terhadap penyalahgunaan.
Evaluasi semacam ini seharusnya menjadi prosedur standar dalam pengembangan dan implementasi AI di institusi publik maupun swasta.
Maka dalam merespons hasil survei ini, Indonesia memerlukan pendekatan strategis yang menyeluruh dan reflektif.
Regulasi harus dipercepat dan diperkuat, teknologi pengawasan harus dimodernisasi, organisasi harus mengadopsi tata kelola AI yang ketat, dan pendidikan harus mengembangkan manusia Indonesia seutuhnya—yang tidak inferior terhadap AI, tetapi mampu menggunakannya untuk membangun masa depan yang adil dan berkelanjutan.
Kunci utamanya adalah kesadaran kolektif bahwa AI bukan takdir, melainkan alat. Dan seperti semua alat, dampaknya bergantung pada nilai, niat, dan kebijaksanaan mereka yang menggunakannya.