Perusahaan keamanan sistem penghubung aplikasi (API) asal Amerika Serikat, F5 Networks, memperkenalkan dua pendekatan baru untuk mengamankan penggunaan kecerdasan buatan (AI) perusahaan di Indonesia. Kedua layanan tersebut, AI Guardrails dan AI Red Team, dirancang untuk meminimalisir risiko yang timbul dari pemakaian AI di ekosistem API dan cloud suatu perusahaan.
Country Head of Solutions Engineering F5 Networks Indonesia, Danang Wijanarko, menjelaskan bahwa solusi ini hadir untuk mengatasi ancaman yang belum sepenuhnya dipahami organisasi. Pernyataan ini disampaikan Danang kepada KompasTekno di kantor F5 Networks Indonesia, Senayan, Jakarta Selatan, pada Rabu, 25 Februari 2026.
Ancaman Baru di Balik Efisiensi AI
Danang Wijanarko menyoroti bahwa AI memang membawa efisiensi besar dan kini banyak diadopsi. Namun, di sisi lain, teknologi ini membuka risiko baru yang sebenarnya belum dipahami organisasi.
Ia menambahkan, “Risiko tersebut bisa timbul karena AI itu non-deterministik, tidak ada polanya. Dia bersifat generatif. Kita masukkan apa saja, dia akan jawab dan akan terima, baik itu berbahaya atau tidak. Nah, ini yang harus diatur dan diawasi.”
AI Guardrails: Pagar Pengaman Sistem AI
AI Guardrails dapat dipahami sebagai “pagar pengaman” yang dipasang sebelum pengguna terhubung ke sistem AI. Danang menyebut banyak perusahaan di Indonesia menggunakan model AI yang berjalan di internet (cloud) bersifat publik.
Agar AI bisa menjawab pertanyaan sesuai kebutuhan bisnis, sistem biasanya menggabungkan pertanyaan pengguna dengan data internal perusahaan, metode yang dikenal sebagai Retrieval Augmented Generation (RAG). Proses ini berisiko membuat data sensitif yang disimpan dalam database perusahaan tidak disaring dan ikut terkirim ke luar perusahaan serta sistem cloud AI.
“Di sini muncul istilah oversharing, di mana data perusahaan yang tak seharusnya tersimpan baik malah bocor dan diterima sekaligus diproses oleh AI. Biasanya, oversharing ke AI ini tidak disadari oleh suatu perusahaan,” jelas Danang.
AI Guardrails berperan mengurangi oversharing dengan mengontrol dan mengawasi alur data yang bergerak dari perusahaan ke sistem AI, begitu juga sebaliknya. Sistem ini bertugas memeriksa pertanyaan (prompt) sebelum dikirim ke AI, mencegah kebocoran data sensitif, memblokir percobaan manipulasi sistem (prompt injection), serta mengatur siapa saja yang boleh mengakses fitur tertentu.
Dengan demikian, AI Guardrails memastikan perusahaan tetap bisa memanfaatkan AI tanpa kehilangan kendali atas data mereka.
AI Red Team: Menguji Ketahanan Sistem dari Serangan
Jika AI Guardrails adalah pagar pengaman, maka AI Red Team adalah simulasi serangan yang dibuat F5 Networks untuk menguji ketahanan sistem. Dalam dunia keamanan siber, “red team” berarti tim yang berpura-pura menjadi peretas untuk mencari celah sebelum penjahat siber sungguhan menemukannya.
Dalam konteks AI, simulasi pengujian ini mencakup pengujian apakah AI bisa dimanipulasi lewat pertanyaan tertentu, apakah data rahasia bisa “dipancing” keluar, dan apakah sistem bisa dilewati dengan trik tertentu.
Danang menjelaskan bahwa serangan pada AI sejatinya berbeda dengan serangan aplikasi biasa. “Sebab, serangan AI tidak sekadar virus atau malware, melainkan bisa bertipe manipulasi terhadap logika, sistem bisnis, dan cara kerja sistem suatu perusahaan. Artinya, sistem pengamanannya juga akan berbeda,” tuturnya.
F5 Networks rutin melakukan simulasi hingga lebih dari 10.000 teknik serangan AI baru setiap bulannya untuk meminimalisir risiko AI yang bisa mengelabui sistem pengaman. “Simulasi teknik serangan ini akan terus dilakukan rutin setiap bulan, sehingga database pengaman AI (AI Guardrails) makin kaya dan pintar, sehingga nantinya tak ada celah lagi bagi risiko AI untuk masuk dan menyusup ke sistem perusahaan,” klaim Danang.
Tingginya Adopsi AI Berbanding Terbalik dengan Kesiapan Keamanan
Danang mengatakan kedua solusi di atas penting dan relevan untuk Indonesia, mengingat tingkat penggunaan dan adopsi AI di Tanah Air cukup tinggi. Namun, dari sisi kesiapan terkait risiko keamanan siber (cybersecurity readiness), tingkat kesadaran Indonesia disebut Danang sangat rendah.
Banyak perusahaan telah memasang firewall untuk melindungi jaringan dan aplikasi web, namun perlindungan tersebut belum tentu cukup untuk menghadapi risiko baru di level API dan AI. “Implementasi security di layer 7 seperti WAF (Web Application Firewall) itu berbeda dengan security di level API. Dan berbeda lagi di level AI. Itu konteks yang berbeda, sehingga perlu pengamanan ekstra,” kata Danang.
Danang melanjutkan, AI sendiri sejatinya memang tak berbahaya dan bisa digunakan untuk produktivitas kerja. Namun, teknologi ini harus diawasi dan dikendalikan oleh perusahaan, sehingga pihak yang tidak bertanggung jawab tak memakainya untuk menghasilkan malware, mengeksploitasi sistem, atau mengakses data sensitif.
“AI Guardrails dan AI Red Team merupakan dua solusi penting supaya perusahaan tetap bisa inovatif dan berbisnis dengan bantuan AI, namun tak mengorbankan sisi keamanan,” pungkas Danang.
Informasi lengkap mengenai solusi keamanan AI ini disampaikan melalui pernyataan resmi F5 Networks Indonesia yang dirilis pada Rabu, 25 Februari 2026.
