Peringatan Bos OpenAI: Jangan Terlalu Percaya Jawaban ChatGPT

OpenAI, chatbot, ChatGPT, Chatbot, halusinasi, halu, chatGPT, Peringatan Bos OpenAI: Jangan Terlalu Percaya Jawaban ChatGPT

CEO OpenAI Sam Altman mengingatkan pengguna untuk tidak sepenuhnya percaya pada jawaban yang diberikan oleh chatbot kecerdasan buatan (artificial intelligence/AI) butan perusahaannya itu, ChatGPT.

Pasalnya, meskipun ChatGPT terlihat cerdas dan sering membantu, nyatanya teknologi ini masih sering salah dan bisa membuat jawaban yang sebenarnya keliru, tapi terdengar meyakinkan.

Pernyataan ini disampaikan Altman dalam episode perdana siniar (podcast) resmi OpenAI, bertajuk "Sam Altman on AGI, GPT-5, and what’s next — the OpenAI Podcast Ep. 1".

Di podcast tersebut, sosok kunci di balik OpenAI ini berbicara langsung tentang keterbatasan ChatGPT dan bagaimana seharusnya kita sebagai pengguna bersikap.

“Orang-orang punya tingkat kepercayaan yang sangat tinggi terhadap ChatGPT, yang sebenarnya cukup mengejutkan, karena AI itu masih sering ‘berhalusinasi’,” kata Altman.

Dalam dunia artificial intelligence, istilah “hallucination” bukan berarti AI benar-benar berkhayal seperti manusia, tapi merujuk pada kecenderungan model AI seperti ChatGPT menghasilkan informasi yang salah, meski disampaikan dengan bahasa yang terdengar meyakinkan.

Altman menyarankan agar pengguna selalu memverifikasi informasi yang diberikan oleh ChatGPT, terutama jika digunakan untuk hal penting seperti pendidikan, pekerjaan, riset, kesehatan, atau keuangan.

“Teknologi ini belum benar-benar bisa diandalkan 100 persen. Kami harus jujur dan terbuka soal itu,” kata Altman dalam podcast berdurasi sekitar 40 menit itu.

Altman: ChatGPT bukan sumber kebenaran

OpenAI, chatbot, ChatGPT, Chatbot, halusinasi, halu, chatGPT, Peringatan Bos OpenAI: Jangan Terlalu Percaya Jawaban ChatGPT

Ilustrasi tampilan platform AI ChatGPT.

Altman menjelaskan bahwa ChatGPT bekerja dengan memprediksi kata berikutnya dalam sebuah kalimat, berdasarkan pola bahasa dari data yang digunakan saat pelatihan.

Artinya, chatbot ini tidak benar-benar “mengerti” topik yang sedang dibahas, melainkan hanya meniru pola bahasa yang sering muncul di internet, buku, dan dokumen lainnya.

Jadi, meski hasilnya sering terasa benar, tetap saja ada kemungkinan besar jawaban yang diberikan AI tidak akurat, keliru, atau bahkan sepenuhnya salah.

Maka dari itu, kata Altman, ChatGPT sebaiknya dipakai seperti kita menggunakan alat bantu lainnya (seperti kalkulator atau kamus), bukan sebagai satu-satunya sumber kebenaran.

Dengan peringatan langsung dari CEO OpenAI ini, pengguna diingatkan untuk tidak menggunakan ChatGPT sebagai satu-satunya sumber informasi.

ChatGPT sangat berguna untuk membantu menulis, merangkum, menjawab pertanyaan, hingga belajar sesuatu yang baru, tapi hasilnya tetap harus dicek dan dikonfirmasi kembali.

“ChatGPT itu alat bantu, bukan pengganti akal sehat kita,” begitu kira-kira pesan yang ingin disampaikan oleh Sam Altman, sebagaimana dihimpun KompasTekno dari NDTV, Jumat (4/7/2025).

Jika digunakan dengan bijak, ChatGPT bisa sangat membantu. Sebaliknya, jika digunakan tanpa berpikir kritis, bisa jadi justru menyesatkan. Maka, daru itu, pengguna tetap harus melakukan cek ulang, dan jangan percaya buta pada jawaban chatbot AI.

Potensi iklan dan fitur berbayar

Dalam podcast yang sama, Altman juga membahas soal kemungkinan monetisasi ChatGPT di masa depan, seperti adanya iklan atau fitur berbayar.

Ia menyatakan bahwa jika suatu saat ada iklan, maka itu harus jelas dan tidak boleh memengaruhi isi jawaban AI.

“Kalau isi jawaban ChatGPT sampai dipengaruhi oleh siapa yang bayar lebih, itu akan menghancurkan kepercayaan pengguna,” kata pria kelahiran Chicago pada 1985 itu.

Altman menyadari bahwa menjaga kepercayaan pengguna adalah hal yang paling penting dalam teknologi berbasis AI. Karena itu, ia ingin memastikan bahwa jawaban dari ChatGPT tidak diotak-atik hanya untuk keuntungan bisnis.

Podcast Sam Altman bicara soal jangan terlalu percaya jawaban ChatGPT ini selengkapnya bisa ditonton lewat video di bawah ini.