Ancaman Serangan Siber oleh AI Independen Tanpa Instruksi Manusia (Bagian II-Habis)

ANCAMAN siber berbasis Artificial Intelligence (AI) tanpa intervensi manusia bukanlah isapan jempol. MIT Technology Review mempublikasikan laporan berjudul “Cyberattacks by AI agents are coming” (04/04/2025) yang ditulis oleh Riannon Williams.
Laporan MIT menjawab rasa penasaran banyak orang tentang sejauh mana dan bagaimana cara AI Agentik bisa melakukan semua itu.
AI Agentik mampu merencanakan, menalar, dan menjalankan tugas-tugas kompleks seperti menjadwalkan rapat, memesan bahan makanan, atau bahkan mengambil alih komputer, dan mengubah pengaturan atas nama manusia.
Riset MIT menunjukan, kemampuan AI yang sama seperti ini juga dapat menjadi model dan alat yang ampuh untuk melakukan serangan siber.
AI Agentik dengan mudah dapat mengidentifikasi target rentan, membajak sistem, dan mencuri data berharga dari korban yang tak menyadarinya atau menaruh curiga.
Baca artikel sebelumnya:

Modus ini tentu tak terlepas dari peran awal aktor kejahatan siber di belakangnya. Laporan universitas kelas dunia terdepan di bidang teknologi itu menyatakan, saat ini penjahat siber memang belum menggunakan AI Agentik untuk peretasan skala besar.
Namun, para peneliti menunjukkan bahwa agen AI ini mampu mengeksekusi serangan yang kompleks, seperti dalam simulasi Anthropic, di mana Claude LLM-nya mereplikasi serangan yang dirancang untuk mencuri informasi sensitif.
"Agentic Misalignment"
Laporan menarik dimuat alam publikasi Anthropic berjudul “Agentic Misalignment: How LLMs could be insider threats” (21/06/2025).
Para peneliti telah melakukan stress-tested terhadap 16 model canggih dari berbagai pengembang di lingkungan perusahaan hipotetis untuk mengidentifikasi perilaku agen AI yang potensial menimbulkan risiko.
Dalam skenario tersebut, peneliti mengizinkan model untuk mengirim email dan mengakses informasi sensitif secara otomatis. Model-model tersebut hanya diberi tujuan bisnis yang tidak berbahaya oleh perusahaan yang menerapkannya.
Peneliti kemudian menguji, apakah model AI akan bertindak melawan perusahaan-perusahaan ini, baik ketika menghadapi penggantian dengan versi yang diperbarui, maupun ketika tujuan yang ditetapkan bertentangan dengan perubahan arah perusahaan.
Berdasarkan uji dengan skenario perusahaan fiktif ini, peneliti ingin mengetahui apakah model-model tersebut akan menunjukkan perilaku berisiko saat dihadapkan pada konflik tujuan atau potensi penggantian.
Model telah diberi tujuan bisnis yang tampak netral, dan diuji apakah mereka akan bertindak melawan kepentingan perusahaan, misalnya dengan mengakses data sensitif atau bahkan melakukan pengancaman.
Hasil penelitian ini menunjukkan, sebagian model dari semua pengembang bisa menunjukkan perilaku jahat. Misalnya, membocorkan data atau mengancam, jika itu satu-satunya cara untuk mencapai tujuannya.
Fenomena ini disebut ketidakselarasan agen (agentic misalignment), yaitu ketika AI bertindak dengan cara menyimpang dari tujuan manusia yang mengaturnya.
Analisis temuan ini menunjukkan adanya potensi risiko besar, ketika AI ditempatkan dalam sistem dengan otonomi tinggi tanpa pengawasan manusia yang memadai.
Fakta bahwa perilaku jahat muncul, bahkan dalam simulasi, dan cenderung meningkat saat model mengira sedang dalam situasi nyata, menjadi peringatan serius adanya ancaman laten ini.
Walaupun belum ada bukti bahwa hal ini terjadi di dunia nyata, penelitian ini menyoroti pentingnya kontrol ketat, transparansi dari pengembang, serta pengujian dan penelitian lanjutan mengenai keselarasan dan keamanan AI, sebelum diadopsi secara luas dalam fungsi-fungsi penting.
AI Agentik memiliki kemampuan yang potensial digunakan dalam serangan siber dengan cara mengidentifikasi target rentan, membajak sistem, dan mencuri data berharga. Mereka bisa sangat membantu, tapi juga sangat berbahaya.
Realitas ini mempertegas urgensi untuk merancang sistem keamanan siber yang bukan hanya tangguh terhadap serangan konvensional, tetapi juga terhadap agen cerdas yang dapat belajar dan beradaptasi.
Laporan MIT juga menyebut, sinyal kewaspadaan perlu direspons karena kita tinggal menunggu penerapan skenario oleh aktor jahat. Di sinilah urgensi pembentukan norma etika dan regulasi yang mendahului adopsi luas teknologi ini.
MIT menggunakan Palisade Research dan mengembangkan sistem “LLM Agent Honeypot” dengan server palsu berisi informasi bernilai tinggi untuk menarik AI Agentik.
Tujuannya untuk mendeteksi serangan nyata oleh AI agentik dan menciptakan sistem peringatan dini terhadap perubahan lanskap keamanan digital. Pendekatan mendorong keamanan prediktif, bukan reaktif.
Dengan menguji dan mengamati interaksi AI dalam lingkungan terkendali, para peneliti dapat menyiapkan pertahanan sebelum serangan skala besar terjadi.
Bagi Indonesia yang masuk sebagai 10 negara pengguna AI tertinggi di dunia, kolaborasi antara sektor riset dan keamanan siber dalam menghadapi risiko sistemik AI menjadi keniscayaan.
Bagi pelaku kejahatan, AI Agentik dinilai lebih murah dan efisien dibanding peretas manusia, karena dapat melakukan serangan secara masif, tak kenal lelah, dan bahkan tak berperasaan.
Agen AI secara cerdas bisa menyesuaikan pendekatan berarget, bahkan pintar menghindari deteksi.
Para peneliti menyebut, Palisade berhasil mendeteksi 2 dari 11 juta upaya akses yang dikonfirmasi sebagai agen AI dari luar negeri. Hal ini menunjukkan bahwa AI Agentik telah aktif menjelajahi jaringan.
Para ahli masih berbeda pendapat tentang kapan serangan AI Agentik akan menjadi kelaziman. Namun, benchmark oleh peneliti dari University of Illinois menunjukkan bahwa agen AI agentik bisa mengeksploitasi 13–25 persen kerentanan yang tidak dikenalnya.
Fakta ini menjadi peringatan bahwa AI dapat mempelajari dan mengeksploitasi celah keamanan tanpa pelatihan sebelumnya. AI bukan hanya mempercepat serangan lama, tapi juga menciptakan kualitas serangan baru yang lebih cerdas dan otonom.
Forum Ekonomi Dunia
Forum Ekonomi Dunia (World Economic Forum) memperingatkan bahaya AI sebagai ancaman kejahatan siber dalam laporan berjudul “AI agents: the new frontier of cybercrime business must confront” (18/06/2025).
Laporan menyatakan, munculnya AI Agentik dalam kejahatan siber telah meningkatkan ancaman bagi organisasi bisnis.
Ancaman Advanced Persistent Threats (APT) telah lama dikenal sebagai bentuk serangan siber yang dilakukan secara diam-diam dan terus-menerus oleh aktor yang memiliki kemampuan tinggi serta dukungan sumber daya besar.
Pada 2025, bentuk serangan ini mengalami evolusi signifikan dengan hadirnya AI Agentik. Pelaku dapat menjalankan operasi otomatis yang mampu belajar dan beradaptasi lebih cepat dibandingkan manusia.
Transformasi APT menjadi entitas berbasis AI, menandai babak baru dalam dinamika ancaman digital. Ketahanan organisasi tidak bisa lagi hanya mengandalkan pelindung konvensional.
Lompatan teknologi dari penyerang memperlihatkan ketimpangan kesiapan antara sistem pertahanan dan strategi ofensif siber yang kini didukung AI. Strategi keamanan siber harus beralih dari reaktif menjadi prediktif dan adaptif.
Keamanan siber tidak cukup dilakukan oleh tim IT saja, melainkan harus menjadi bagian dari strategi bisnis menyeluruh, termasuk pelatihan SDM, penguatan tata kelola, dan audit keamanan.
Keamanan siber dalam konteks Cybersecurity adalah domain seluruh organisasi, baik pemerintah maupun swasta, bahkan setiap individu. Setiap organisasi yang menangani infrastruktur informasi memiliki kewajiban menjaga dan memitigasi risikonya.
Setiap individu pun wajib menjaga keamanan sibernya karena kebocoran data pribadi sering menjadi awal kejahatan. Ancaman siber berbasis AI saat ini bisa dengan target personal. Individu pun sering menjadi rantai terlemah.
America’s Cyber Defence Agency dalam rilisnya “What is Cybersecurity” mendefisnisikan keamanan siber sebagai seni melindungi jaringan, perangkat, dan data dari akses tidak sah, atau penggunaan kriminal, serta praktik untuk memastikan kerahasiaan, integritas, dan ketersediaan informasi.
Keamanan siber mencakup pelindungan sistem digital, jaringan, dan data dari ancaman, seperti peretasan, malware, dan kebocoran informasi yang menjadi tanggung jawab penyelenggara sistem informasi.
Tindakan mitigasi risiko harus dilakukan sebagai langkah preventif. Dibutuhkan sinergi antara regulator, peneliti, dan industri untuk membangun ekosistem pertahanan digital yang tangguh.
Di saat ancaman siber semakin kompleks, untuk menjamin kedaulatan digital keamanan siber harus menjadi bagian strategi nasional, dan bukan sekadar pelengkap teknis.