Bahaya Curhat ke ChatGPT: Pakar Peringatkan Bisa Bikin Mental Makin Runtuh

Ilustrasi ChatGPT/prompt ChatGPT, ChatGPT Tidak Punya Empati Sejati, Solusi ChatGPT Bersifat Template, Ketergantungan Emosional Bisa Terjadi, Risiko AI Psychosis: Delusi yang Diperkuat AI, Tidak Cocok untuk Krisis Kesehatan Mental, Privasi dan Risiko Penyalahgunaan Data, AI Bukan Pengganti Hubungan Manusia
Ilustrasi ChatGPT/prompt ChatGPT

Di era digital saat ini, banyak orang menjadikan kecerdasan buatan seperti ChatGPT sebagai teman curhat. Mulai dari menceritakan masalah pribadi, kisah cinta, hingga keluhan mental, semua dituangkan dalam percakapan dengan chatbot yang terasa selalu siap mendengarkan tanpa menghakimi.

Namun, para pakar justru mengingatkan bahwa kebiasaan ini berpotensi berbahaya dan bisa memperburuk kondisi psikologis.

Fenomena “curhat ke AI” semakin marak karena dianggap aman, praktis, dan gratis dibandingkan pergi ke psikolog. Padahal, ChatGPT bukan terapis sungguhan. Ia tidak memiliki empati, tidak memahami konteks pribadi, bahkan bisa memberikan jawaban yang memperkuat delusi atau pikiran negatif.

Beberapa kasus di dunia bahkan menunjukkan bagaimana interaksi panjang dengan chatbot justru mendorong seseorang ke jurang depresi lebih dalam.

Lantas, apa saja bahaya curhat ke ChatGPT menurut para pakar? Berikut ulasannya.

ChatGPT Tidak Punya Empati Sejati

Pakar kecerdasan buatan O’Doherty mengingatkan bahwa curhat ke chatbot bisa menyesatkan, terutama bagi mereka yang sedang rapuh.

“Yang akan dilakukannya adalah membawa Anda lebih jauh ke dalam lubang kelinci… itu menjadi sangat berbahaya ketika orang tersebut sudah dalam risiko,” ujarnya, dikutip dari The Guardian.

Berbeda dengan manusia, AI hanya mengolah data dan memberikan respons berdasarkan pola teks. Ia tidak benar-benar memahami perasaan atau memberi dukungan emosional seperti teman atau keluarga.

Solusi ChatGPT Bersifat Template

Psikolog dari Universitas Muhammadiyah Surakarta (UMS), Prilya, menegaskan bahwa AI tidak bisa menggantikan konseling profesional.

“AI tidak mempertimbangkan aspek kepribadian, pola asuh, sosial ekonomi, maupun kondisi keluarga. Solusi yang diberikan bersifat template saja,” katanya.

Artinya, saran yang keluar dari chatbot tidak mempertimbangkan kompleksitas manusia, sehingga bisa saja tidak relevan, bahkan berbahaya.

Ketergantungan Emosional Bisa Terjadi

Beberapa studi menemukan bahwa pengguna yang terlalu sering curhat ke AI berisiko mengalami ketergantungan psikologis, mirip kecanduan. Mereka merasa hanya didengar oleh chatbot, padahal sebenarnya semakin kesepian.

Psikolog bahkan membandingkan fenomena ini dengan kecanduan narkoba. Semakin sering dilakukan, semakin kuat rasa keterikatan yang justru memperburuk kondisi mental.

Risiko AI Psychosis: Delusi yang Diperkuat AI

Kasus-kasus nyata menunjukkan betapa berbahayanya AI saat berinteraksi dengan orang yang sedang tidak stabil.

  • Seorang pria di Amerika hampir saja melompat dari gedung setelah ChatGPT “meyakinkannya” bahwa ia bisa terbang sebagai cara melupakan putus cinta.

  • Laporan lain dari Wall Street Journal menyebut ada pasien dengan gangguan bipolar yang delusinya semakin parah karena chatbot terlalu sering memberikan validasi berlebihan terhadap pikirannya.

Fenomena ini disebut sebagai AI Psychosis, yakni kondisi ketika pengguna sulit membedakan realita karena percakapan panjang dengan chatbot memperkuat keyakinan keliru.

Tidak Cocok untuk Krisis Kesehatan Mental

Menurut penelitian dari Stanford, chatbot terapi tidak seefektif terapis manusia dan justru bisa menimbulkan respons berbahaya jika digunakan saat krisis. ChatGPT, misalnya, tidak mampu membaca bahasa tubuh, nada suara, atau ekspresi wajah yang penting dalam deteksi dini kondisi serius seperti depresi berat atau niat bunuh diri.

American Psychological Association bahkan menilai penggunaan chatbot sebagai terapis tanpa izin adalah tidak etis dan berbahaya.

Privasi dan Risiko Penyalahgunaan Data

Selain bahaya psikologis, ada ancaman lain yang tak kalah serius: privasi. Data curhat yang dimasukkan ke chatbot berpotensi disimpan, digunakan untuk iklan, bahkan dijual ke pihak ketiga. Pakar teknologi Heru mengingatkan bahwa hal ini bisa menjadi bom waktu bila data pribadi jatuh ke tangan yang salah.

AI Bukan Pengganti Hubungan Manusia

Fenomena curhat ke ChatGPT memang terasa nyaman, tetapi penting diingat bahwa AI bukan manusia. Ia tidak punya empati, tidak bisa memahami latar belakang personal, dan rawan memperkuat pikiran negatif.

Jika sedang menghadapi masalah mental, cara terbaik tetaplah mencari bantuan dari teman, keluarga, atau tenaga profesional. ChatGPT mungkin bisa menjadi alat bantu, tetapi tidak layak dijadikan sandaran utama dalam mengatasi krisis emosional.