Dalam dunia teknologi, kita sering kali mengonsumsi penelitian AI sekaligus terbuai oleh narasi fiksi ilmiah. Namun, di penghujung tahun 2025, dunia nyata dan fiksi mulai bertabrakan ketika raksasa AI, Anthropic, tampil dalam sorotan utama media mengenai kasus yang diakui secara luas sebagai “serangan siber AI agen” (agentic AI cyberattack).
Bingkai berita tersebut sangat memikat, menandai tonggak sejarah dalam akselerasi AI yang pesat. Namun, istilah “serangan siber AI agen” dengan cepat melahirkan tajuk berita yang mengklaim bahwa penyerang AI otonom telah tiba, sementara komentator lain menyinggung tentang keniscayaan AI yang memiliki kesadaran (sentient AI).
Pertanyaan mendasarnya adalah: Apakah kita sudah berada di ambang batas di mana mesin mulai berpikir untuk diri mereka sendiri?
Setelah menelusuri nuansa berita tersebut, para pemimpin keamanan—termasuk ahli dari CyberArk—menegaskan poin penting: Ini bukan tentang AI yang memutuskan untuk menyerang. AI tidak bangun di pagi hari dan memilih untuk melakukan spionase. AI tidak memiliki niat atau kesadaran. Manusia masih menjadi pihak yang mengendalikan operasi di balik layar.
Distingsi ini penting untuk memperjelas di mana bahaya yang sesungguhnya berada. Dunia tidak menghadapi pasukan robot T-1000 seperti dalam film Terminator, tetapi kita sedang berhadapan dengan sistem AI yang bertindak dalam skala nyata, di seluruh infrastruktur nyata, dengan kredensial nyata. Tahun 2026 akan menghadirkan serangkaian masalah yang sangat berbeda bagi tim yang bertugas mengamankan agen AI.
Apakah 2025 Benar-Benar “Tahun Agen AI”?
Jika Anda mengikuti pers teknologi atau perdagangan keamanan, jawaban atas pertanyaan ini tampaknya sudah pasti bahkan sebelum tahun 2025 dimulai. Tahun 2025 dinobatkan sebagai “Tahun Agen AI” di berbagai artikel pemikiran, keynote, dan presentasi vendor. Survei menunjukkan bahwa sistem agen (agentic systems) telah disebarkan ke produksi di berbagai perusahaan layanan keuangan dan perangkat lunak, dan adopsinya diperkirakan akan berlipat ganda pada tahun 2028.
Faktanya, sesuatu memang berubah. 2025 menandai tahun ketika agen bertransisi dari eksperimen menjadi objektif perusahaan. Asisten AI berhenti menjadi sekadar titik akhir percakapan yang ramah dan mulai menjadi titik akhir operasional. Mereka menyetujui pembayaran, menyediakan sumber daya cloud, melakukan triase dan eskalasi peringatan (alert), serta mendelegasikan tugas ke agen lain. Dalam beberapa kasus, mereka bertindak tanpa manusia secara eksplisit menyetujui setiap langkah.
Namun, hasilnya beragam. Dari contoh sepele, seperti masalah mesin penjual otomatis yang dilaporkan Wall Street Journal, hingga insiden yang lebih serius seperti penghapusan basis data produksi, dunia mendapatkan gambaran awal tentang apa yang terjadi ketika kemampuan agen AI melampaui kendali (control).
Meskipun agen mendapatkan kekuatan dengan cepat, struktur yang dimaksudkan untuk mengatur mereka tertinggal. Tim keamanan mengandalkan sistem keamanan yang dibangun untuk manusia, memaksanya untuk mengatur entitas yang tidak pernah log off, tidak pernah lupa, dan tidak pernah memiliki firasat buruk tentang tindakan yang salah.
Pelanggaran, Kerusakan, dan Realitas AI di Perusahaan
Tahun 2025 membuktikan bahwa AI tidak secara ajaib membebaskan siapa pun dari kebenaran keamanan lama. Kenaikan dan kejatuhan DeepSeek di bulan Januari adalah contoh sempurna.
Serangan DDoS DeepSeek
Startup AI asal Tiongkok ini menarik perhatian global dengan model berkinerja tinggi, lalu hampir seketika mengalami masalah yang sangat familiar. Serangan DDoS besar-besaran memaksa perusahaan menghentikan pendaftaran baru. Peneliti menemukan basis data yang terpapar, kunci API yang bocor, dan celah keamanan dasar yang tidak ada hubungannya dengan kecanggihan machine learning, melainkan dengan kepercayaan (trust) dan akses istimewa (privileged access)—dasar-dasar yang sama yang telah membebani tim keamanan selama bertahun-tahun.
Risiko Pihak Ketiga dan Ancaman Orang Dalam
Kemudian di bulan yang sama, CyberArk Labs mengalihkan perhatian ke agen AI berbasis web sebagai campuran baru dari risiko pihak ketiga dan ancaman orang dalam (insider threats). Karena begitu Anda memperkenalkan agensi dan otonomi, profil risiko berubah. AI yang dapat bertindak memang dapat membuka produktivitas yang lebih besar, tetapi juga memperkenalkan agen bayangan (shadow agents), pengembang yang secara tidak sengaja menjadi departemen R&D full-stack, dan akses tidak terkendali yang menyebar secara lateral.
Pemodelan Ancaman dan Jailbreaking Agen AI
Pada bulan April, tim CyberArk Labs mulai melakukan pemodelan ancaman pada AI agen, menunjukkan bagaimana sistem ini dapat dikompromikan melalui:
-
Manipulasi aliran kontrol (control flow manipulation).
-
Jailbreaking.
-
Pemberian izin berlebihan (excessive permissioning).
-
Serangan Denial-of-Service.
-
Eksekusi kode jarak jauh (remote code execution).
Untuk membantu menangkal ancaman yang muncul ini, tim CyberArk terus mengadvokasi pertahanan mendalam (defense-in-depth) untuk agen AI, yang dibangun di atas fondasi keamanan yang mengutamakan identitas (identity-first security).
Agen AI sebagai Kelas Identitas Baru
Seiring berjalannya tahun, satu hal menjadi mustahil untuk diabaikan: Agen AI adalah kelas identitas baru, dan mereka harus diamankan seperti itu.
Mereka meniru manusia, tetapi pada kecepatan mesin, menyentuh data sensitif, mengeksekusi transaksi, dan berinteraksi dengan sistem inti. Jika mereka tidak dicakup (scoped) dengan tepat, Anda dapat memberikan izin berlebihan (over-permission), yang dapat memiliki efek berjenjang di seluruh perusahaan.
Dalam satu eksperimen, CyberArk Labs menyembunyikan prompt berbahaya di dalam bidang alamat pengiriman. Agen AI kemudian menelannya saat memproses pesanan, menginterpretasikannya sebagai instruksi, dan—karena memiliki akses yang tidak dibutuhkannya—menyalahgunakan alat hilir (downstream tools) untuk mengekstraksi data sensitif. Tidak ada malware, tidak ada exploit kit, dan tidak ada pelanggaran dalam arti tradisional. Hanya agen yang melakukan persis apa yang diizinkan untuk dilakukan dalam lingkungan yang terlalu mempercayainya.
Mengapa Identitas Adalah Control Plane untuk Keamanan AI
Pada akhir tahun 2025, pola yang jelas muncul di berbagai insiden, eksperimen, dan near-misses. Kapan pun agen AI menyebabkan masalah, bahkan secara tidak sengaja, identitas hampir selalu berada di garis depan.
Agen mengautentikasi, mewarisi izin, dan memanggil API. Mereka beroperasi di bawah kredensial yang sering kali bertahan lebih lama dari tujuan mereka dan melampaui cakupan mereka. Jika terjadi kesalahan, Anda tidak dapat berargumen dengan agen AI. Atau mempermalukannya. Atau memintanya untuk “berhati-hati lain kali.” Anda hanya dapat mencabut apa yang memberinya kekuatan.
Itulah mengapa identitas adalah control plane untuk keamanan AI agen. Organisasi yang memperlakukan agen sebagai identitas mesin istimewa—dapat ditemukan (discoverable), dicakup (scoped), dan diatur dengan hati-hati (governed)—dapat dengan cepat menahan masalah. Mereka yang tidak melakukannya kemungkinan besar akan mengejar gejala, tanpa cara yang bersih untuk mematikan sesuatu tanpa merusak semuanya.
Bagaimana Agen AI Akan Berevolusi di Tahun 2026
Jika tahun 2025 mengungkap celah dalam kontrol keamanan AI, tahun 2026 akan memberikan tekanan yang lebih besar. Agen AI akan menjadi lebih canggih, saling terhubung, dan terintegrasi secara mendalam ke dalam alur kerja bisnis yang kritis.
Kill Switch untuk AI
Perspektif CyberArk tentang lanskap AI yang berkembang di tahun 2026 kembali ke ide yang sama: Identitas akan menjadi kill switch untuk sistem AI. Ini bukan tombol merah besar atau kabel daya tebal untuk dicabut dari stopkontak. Sebaliknya, organisasi membutuhkan tata kelola siklus hidup (lifecycle governance):
-
Mengetahui untuk apa agen diterapkan.
-
Mengetahui apa yang diizinkan untuk disentuh.
-
Mengetahui atas nama siapa agen bertindak.
-
Mengetahui kapan akses harus kedaluwarsa.
-
Mengetahui cara mencabut akses tersebut.
Kita juga akan melihat agen mendekati otoritas pengambilan keputusan. “Dewan bayangan” dan penasihat AI tidak akan menggantikan manusia, tetapi mereka akan mendapatkan akses ke lapisan data perusahaan yang paling dalam. Akses tersebut harus diatur seperti hak istimewa (privilege), karena itulah tepatnya fungsi mereka.
Amankan Masa Depan AI Anda Bersama iLogo Indonesia
Evolusi AI agen menunjukkan bahwa keamanan di era otonom memerlukan pendekatan yang proaktif, terpusat pada identitas, dan terkelola dengan baik. Di Indonesia, kebutuhan akan solusi keamanan tingkat tinggi yang sesuai dengan standar global sangatlah krusial untuk melindungi data dan aset perusahaan.
iLogo Indonesia hadir sebagai partner strategis terbaik Anda dalam menghadirkan solusi keamanan IT dan identitas terdepan. Sebagai ahli dalam solusi infrastruktur IT, kami siap membantu perusahaan Anda menerapkan teknologi keamanan CyberArk Indonesia untuk mencapai:
-
Visibilitas Identitas Mesin: Menemukan dan mengelola setiap agen AI dan kredensial mesin di jaringan Anda.
-
Tata Kelola Hak Akses (Privilege Management): Membatasi akses agen AI hanya pada sumber daya yang diperlukan.
-
Kepatuhan & Mitigasi Risiko: Memastikan keamanan tingkat tertinggi sesuai standar internasional dalam menghadapi ancaman AI baru.
Jangan biarkan kepercayaan yang berlebihan pada sistem otonom menjadi celah keamanan perusahaan Anda. Jadikan iLogo Indonesia sebagai mitra strategis IT Anda untuk mengimplementasikan solusi keamanan identitas kelas dunia dan hadapi tantangan teknologi di tahun 2026 dengan percaya diri.
Hubungi iLogo Indonesia hari ini untuk konsultasi dan demo produk keamanan CyberArk!
