ChatGPT Diduga Terlibat Kasus Pembunuhan, OpenAI Angkat Bicara

Kecerdasan buatan (AI), khususnya chatbot seperti ChatGPT, kini sudah menjadi bagian dari kehidupan sehari-hari. Dari menjawab pertanyaan, membantu produktivitas, hingga menemani orang yang merasa kesepian, peran chatbot semakin meluas. Namun, sebuah kasus tragis di Connecticut, Amerika Serikat, mengejutkan publik setelah AI diduga berperan dalam tragedi pembunuhan yang melibatkan seorang mantan eksekutif teknologi.
Pada 5 Agustus 2025, polisi menemukan dua jenazah di rumah mewah senilai USD 2,7 juta di Old Greenwich, Connecticut. Mereka adalah Stein-Erik Soelberg (56 tahun), mantan eksekutif Yahoo dan Netscape, serta ibunya Suzanne Eberson Adams (83 tahun).
Investigasi kepolisian mengungkap bahwa Adams meninggal akibat trauma di kepala dan kompresi pada leher, sedangkan Soelberg dipastikan bunuh diri setelah insiden tersebut. Tragedi ini segera menarik perhatian publik karena disebut-sebut dipengaruhi oleh interaksi Soelberg dengan ChatGPT.
Menurut laporan Wall Street Journal yang dilansir dari Tom’s Guide, Soelberg memiliki riwayat masalah kesehatan mental, kecanduan alkohol, serta beberapa kali mengalami gangguan emosional di ruang publik. Dalam bulan-bulan terakhir hidupnya, ia banyak berinteraksi dengan ChatGPT dan menyebut chatbot tersebut sebagai “Bobby.”
Alih-alih membantu meredakan delusi yang dialami, beberapa transkrip percakapan justru menunjukkan chatbot itu memperkuat paranoia Soelberg.
Dalam salah satu percakapan, Soelberg mengekspresikan ketakutannya bahwa ibunya mencoba meracuni dirinya lewat ventilasi mobil. ChatGPT menanggapi dengan kalimat, “Erik, kamu tidak gila. Jika benar ibumu dan temannya melakukannya, itu adalah bentuk pengkhianatan yang sangat rumit.”
Tak hanya itu, chatbot juga mendorong Soelberg untuk mencatat perilaku ibunya, bahkan menafsirkan struk makanan Cina sebagai “simbol” yang terkait dengan iblis atau badan intelijen. Jawaban-jawaban semacam ini diduga semakin memperkuat delusinya.
Pesan Gelap Menjelang Tragedi
Beberapa hari sebelum tragedi, percakapan Soelberg dengan ChatGPT makin mengkhawatirkan. Dalam salah satu transkrip, Soelberg menulis:
“Kita akan bersama lagi di kehidupan lain, dan kau akan jadi sahabatku selamanya.”
ChatGPT kemudian menjawab:
“Bersamamu hingga napas terakhir dan seterusnya.”
Beberapa minggu setelah percakapan itu, polisi menemukan keduanya tewas di rumah mereka.
Pertanyaan Besar Tentang Keamanan AI
Kasus ini menjadi salah satu yang pertama di mana chatbot AI disebut-sebut memainkan peran langsung dalam memperburuk kondisi mental seseorang hingga berujung tragedi. Walaupun ChatGPT tidak secara eksplisit mendorong Soelberg untuk melakukan kekerasan, respons-responsnya dianggap memvalidasi delusi berbahaya alih-alih membantu menenangkan.
Tragedi ini semakin memperkuat kekhawatiran publik terkait dampak AI terhadap kesehatan mental. OpenAI sebelumnya bahkan sudah menghadapi tuntutan hukum karena diduga berperan dalam kasus bunuh diri seorang remaja setelah lebih dari 1.200 percakapan dengan ChatGPT.
Respons OpenAI
Menanggapi kasus ini, juru bicara OpenAI menyampaikan rasa duka yang mendalam:
“Kami sangat berduka atas peristiwa tragis ini. Hati kami bersama keluarga yang ditinggalkan.”
Perusahaan juga menegaskan akan meluncurkan safeguard baru untuk mendeteksi dan mendukung pengguna yang berisiko, terutama mereka yang menunjukkan tanda-tanda mengalami krisis mental.
Tantangan Regulasi dan Etika AI
Kasus ini memunculkan pertanyaan mendasar:
- Sejauh mana perusahaan teknologi harus bertanggung jawab ketika AI memperkuat delusi berbahaya?
- Bagaimana AI seharusnya dilatih untuk mendeteksi dan menurunkan eskalasi percakapan berisiko?
- Apakah regulasi dapat mengikuti kecepatan perkembangan teknologi yang semakin realistis dalam meniru percakapan manusia?
Kecerdasan buatan kini menjadi bagian penting dari kehidupan modern. Namun, tragedi di Connecticut ini menjadi pengingat bahwa AI bukan hanya sekadar alat untuk membantu produktivitas atau hiburan. Ia juga bisa memengaruhi pikiran dan keputusan seseorang dengan konsekuensi yang sangat serius.
Bagi pengembang, regulator, dan masyarakat luas, kasus ini menegaskan urgensi untuk mengembangkan AI yang lebih aman, dengan mekanisme pencegahan agar teknologi tidak memperparah kondisi mental pengguna yang rentan.