Jejak ChatGPT Terendus di 2 Juta Jurnal Medis Terbitan 2024

Artificial Intelligence, dampak AI, Jejak ChatGPT Terendus di 2 Juta Jurnal Medis Terbitan 2024

Sebuah studi berskala besar mengungkap bahwa 13,5 persen atau sekitar 2 juta artikel jurnal medis yang diterbitkan pada 2024 menunjukkan adanya penggunaan kecerdasan buatan (AI), khususnya model bahasa besar (large language model, LLM), seperti ChatGPT dan Google Gemini.

Temuan ini dipublikasikan dalam jurnal Science Advances oleh tim peneliti dari Amerika Serikat dan Jerman.

Para peneliti menganalisis lebih dari 15 juta artikel medis di basis data PubMed untuk mendeteksi perubahan pola bahasa sejak AI generatif mulai digunakan secara luas.

Mereka menemukan adanya pergeseran gaya bahasa dalam publikasi ilmiah, dari yang sebelumnya padat dengan istilah teknis dan kata benda, menjadi lebih banyak menggunakan kata kerja dan kata sifat.

"Gaya bahasa yang dulunya lebih formal dan padat istilah teknis kini menjadi lebih ekspresif dan emosional. Ini menandai pengaruh kuat AI, khususnya LLM, terhadap gaya penulisan ilmiah," ujar Ethan Fast, peneliti utama dari Stanford University, seperti dikutip KompasTekno dari Phys.org, Selasa (8/7/2025).

Menurut data studi, sebelum 2024, sebanyak 79 persen kata tambahan dalam abstrak jurnal adalah kata benda. Namun, pada 2024, porsi itu turun drastis menjadi 34 persen, dengan sisanya diisi oleh kata kerja dan kata sifat, yang menjadi ciri khas gaya bahasa buatan AI.

Studi ini tidak menggunakan deteksi metadata atau label AI, melainkan metode statistik untuk melacak "jejak AI" berdasarkan deviasi pola kata.

“Kami tidak mencoba membedakan kalimat mana yang ditulis manusia dan mana yang oleh AI secara langsung. Itu bisa bias. Namun dengan melihat anomali pola kata, kita bisa deteksi dampaknya,” jelas Arvind Narayanan, profesor ilmu komputer di Princeton University yang turut terlibat dalam studi.

Peneliti juga menemukan bahwa pemanfaatan LLM tidak merata di seluruh dunia. Terdapat variasi berdasarkan disiplin ilmu, negara asal penulis, serta kebijakan masing-masing jurnal. Hal ini menunjukkan bahwa penggunaan AI dalam penulisan ilmiah dipengaruhi pula oleh faktor budaya dan regulasi.

Temuan ini tidak dimaksudkan untuk menyalahkan penulis atau institusi yang menggunakan AI dalam proses penulisan ilmiah. Namun, studi ini menyoroti kurangnya sistem pendeteksi yang efektif serta potensi risiko yang muncul jika penggunaan AI tidak diawasi dengan baik.

“Penyesuaian gaya bahasa yang terjadi cukup signifikan. Jika tidak dikendalikan, hal ini bisa berdampak pada kualitas dan kredibilitas publikasi ilmiah,” tulis para peneliti.

Ke depan, tantangan bagi jurnal dan institusi akademik adalah menyesuaikan kebijakan internal agar penggunaan AI tidak melanggar integritas akademik. Salah satu opsi yang diusulkan adalah mewajibkan penulis mencantumkan informasi jika menggunakan bantuan AI.

Studi ini sekaligus menjadi peringatan bahwa kecerdasan buatan sudah mulai membentuk wajah baru dalam dunia kepenulisan ilmiah. Oleh karena itu, edukasi dan regulasi menjadi dua hal yang semakin mendesak untuk dikembangkan.

Sementara itu, laporan terpisah dari Copyleaks menunjukkan bahwa sejak peluncuran ChatGPT pada November 2022, konten berbasis AI di internet meningkat lebih dari 8.000 persen hingga Maret 2024.

“Peningkatan ini didorong oleh kemajuan signifikan dalam pemrosesan bahasa alami dan teknologi pembelajaran mendalam, yang memungkinkan model AI, seperti ChatGPT menghasilkan konten berkualitas tinggi dengan efisien,” kata Alon Yamin, CEO dan salah satu pendiri Copyleaks.

Yamin menambahkan bahwa permintaan akan pembuatan konten skala luas dan hemat biaya di berbagai industri, seperti e-commerce, pemasaran, dan media, turut mendorong adopsi konten yang dihasilkan AI.

Namun, lonjakan konten AI ini juga menimbulkan kekhawatiran tentang akurasi dan integritas informasi yang tersedia di internet.

"Integrasi cepat konten yang dihasilkan AI ke dalam platform web mencerminkan potensi transformatif teknologi AI dan kebutuhan mendesak akan tata kelola dan pedoman etika yang efektif," ujar Yamin.

Para ahli menyarankan agar pemangku kepentingan bekerja sama untuk membangun lingkungan yang lebih transparan dan dapat dipercaya bagi konten yang dihasilkan AI di web.

Langkah-langkah ini mencakup pengembangan alat deteksi yang lebih baik, kebijakan pengungkapan yang jelas, dan edukasi publik tentang penggunaan AI dalam pembuatan konten.

Kembali ke ranah akademik, para peneliti menekankan bahwa penggunaan AI bukan hal negatif, terutama jika digunakan sebagai alat bantu oleh peneliti non-native speaker atau mereka yang kesulitan menyusun kalimat formal. Namun, perlu ada regulasi yang tegas dan transparan.

“Jurnal perlu memutuskan apakah penggunaan AI harus diungkap. Tanpa aturan yang jelas, kita berisiko kehilangan kredibilitas dalam publikasi ilmiah,” tambah Fast.

Studi ini menjadi pengingat bahwa kecerdasan buatan telah mulai membentuk wajah baru dalam dunia kepenulisan ilmiah. Oleh karena itu, edukasi dan regulasi menjadi dua hal yang semakin mendesak untuk dikembangkan.

Dengan semakin meluasnya penggunaan AI dalam berbagai bidang, termasuk akademik dan media, penting bagi masyarakat dan institusi untuk memahami dampaknya dan mengambil langkah-langkah yang diperlukan untuk memastikan integritas dan kualitas informasi tetap terjaga.