Soal Privasi, Meta AI Disebut Lebih Mengkhawatirkan dari ChatGPT

– Peluncuran chatbot Meta AI yang terintegrasi ke dalam aplikasi seperti Facebook, Instagram, dan WhatsApp menuai sorotan tajam dari para pakar privasi digital.
Teknologi kecerdasan buatan milik Meta ini dianggap lebih berisiko terhadap privasi pengguna dibandingkan ChatGPT, lantaran pola pengumpulan data dan proses opt-out yang dinilai membingungkan.
Berbeda dengan ChatGPT yang tidak mengakses data pribadi pengguna secara otomatis, Meta AI memanfaatkan konten publik pengguna dan interaksi mereka di platform Meta sebagai bahan pelatihan model AI.
Meta memang menyatakan tidak menggunakan pesan pribadi atau konten non-publik untuk pelatihan, namun tidak semua pengguna menyadari sejauh mana informasi mereka diproses.
Praktik ini dinilai sebagai bentuk “dark pattern”, yakni desain antarmuka yang secara sengaja membingungkan pengguna dan membuat mereka lebih sulit mengambil keputusan yang menguntungkan privasi mereka.
Di platform WhatsApp, Meta bahkan menambahkan ikon Meta AI di bagian atas layar, menjadikannya fitur default yang sulit dihindari. Pengguna harus aktif mencari tahu untuk menonaktifkan atau mengabaikan fitur tersebut.
Bagi banyak pengguna, kedekatan antara AI dan data kehidupan pribadi mereka terasa mengganggu, terlebih jika tidak ada transparansi penuh dalam bagaimana data tersebut diproses dan digunakan.
Pakar privasi digital menyuarakan kekhawatiran bahwa Meta mengandalkan keterikatan sosial pengguna di platform mereka untuk “mengorbankan” data, demi pengembangan teknologi AI.
Sementara itu, dikutip KompasTekno dari Washington Post, Sabtu (10/5/2025), Meta membela diri dengan menyebut bahwa semua proses pelatihan AI mereka tunduk pada hukum perlindungan data yang berlaku di masing-masing negara, dan pengguna tetap memiliki kendali atas datanya.