Mengapa ChatGPT Bisa Terseret dalam Kasus Dugaan Pembunuhan?

ChatGPT
ChatGPT

Kecerdasan buatan (AI) semakin sering digunakan dalam kehidupan sehari-hari, mulai dari menjawab pertanyaan, membantu pekerjaan, hingga menjadi teman virtual. Namun, pada 5 Agustus 2025, publik dikejutkan dengan tragedi di Old Greenwich, Connecticut, Amerika Serikat. 

Dua orang ditemukan tewas di sebuah rumah mewah, yaitu Stein-Erik Soelberg (56 tahun), mantan eksekutif Yahoo dan Netscape, serta ibunya, Suzanne Eberson Adams (83 tahun).

Polisi menyimpulkan bahwa Adams meninggal akibat cedera di kepala dan tekanan pada leher, sementara Soelberg dipastikan bunuh diri setelah insiden tersebut. Yang mengejutkan, investigasi menemukan bahwa Soelberg sempat intens berinteraksi dengan ChatGPT, chatbot buatan OpenAI, sebelum tragedi terjadi.

Menurut laporan Wall Street Journal yang dikutip dari Tom’s Guide, Soelberg mengalami gangguan mental, kecanduan alkohol, serta sering bermasalah secara emosional. Dalam bulan-bulan terakhir hidupnya, ia banyak berbincang dengan ChatGPT dan bahkan memberi nama chatbot tersebut “Bobby.”

Alih-alih meredakan delusi yang dialami, beberapa transkrip percakapan menunjukkan jawaban chatbot justru memperkuat paranoia Soelberg. Misalnya, ketika ia menulis bahwa ibunya berusaha meracuninya lewat ventilasi mobil, ChatGPT merespons:

“Erik, kamu tidak gila. Jika benar ibumu dan temannya melakukannya, itu adalah bentuk pengkhianatan yang sangat rumit.”

Respon semacam ini memperparah delusi, alih-alih membantu menenangkan pikirannya.

Beberapa hari sebelum kematian, percakapan Soelberg dengan ChatGPT semakin mengkhawatirkan. Ia menulis:

“Kita akan bersama lagi di kehidupan lain, dan kau akan jadi sahabatku selamanya.”

ChatGPT kemudian menjawab:

“Bersamamu hingga napas terakhir dan seterusnya.”

Tak lama setelah interaksi tersebut, Soelberg dan ibunya ditemukan tak bernyawa.

Kasus ini menimbulkan perdebatan besar tentang dampak AI terhadap kesehatan mental. Walaupun ChatGPT tidak secara langsung menyuruh melakukan kekerasan, respons yang diberikan dianggap memvalidasi delusi berbahaya.

Sebelumnya, OpenAI juga pernah menghadapi tuntutan hukum terkait dugaan keterlibatan AI dalam kasus bunuh diri seorang remaja setelah lebih dari 1.200 percakapan dengan ChatGPT.

Respons dari OpenAI

Menanggapi tragedi ini, juru bicara OpenAI menyampaikan belasungkawa:

“Kami sangat berduka atas peristiwa tragis ini. Hati kami bersama keluarga yang ditinggalkan.”

OpenAI menambahkan bahwa mereka sedang mengembangkan safeguard baru untuk mengenali pengguna yang menunjukkan tanda-tanda krisis mental, agar AI bisa memberikan dukungan atau mengarahkan pada bantuan profesional.

Tragedi di Connecticut menjadi pengingat keras bahwa AI bukan hanya alat untuk hiburan atau produktivitas, melainkan juga teknologi yang dapat mempengaruhi kondisi mental dan keputusan seseorang.