
Berdiri dan menjalankan Pusat Operasi Keamanan (SOC) modern bukanlah hal yang mudah.
Kebanyakan organisasi—terutama perusahaan skala menengah—tidak mempunyai waktu, anggaran, atau staf khusus untuk membangun sistem ini sendiri, apalagi mengikuti laju inovasi. Itu sebabnya banyak yang beralih ke dikelola keamanan penyedia.
Namun tidak semua diciptakan sama—terutama dalam hal penggunaannya AI dan otomatisasi.
Sebagai keamanan siber ancaman tumbuh dalam kecepatan, kecanggihan, dan skala, tim operasi keamanan beralih ke sistem multi-agen (MAS) untuk memperluas kemampuan mereka. Sistem ini—yang terdiri dari agen-agen cerdas dan otonom—menawarkan cara untuk meningkatkan deteksi dan respons ancaman sekaligus mengurangi kelelahan analis dan waktu respons.
Namun, menerapkan MAS di SOC bukanlah hal yang sepele. Ini bukan hanya tentang menulis kode pintar atau menghubungkan beberapa API. Tanpa perlindungan yang tepat, sistem otonom ini dapat menjadi beban yang berbahaya.
Sistem multi-agen untuk respons insiden harus berfungsi secara kolaboratif, memberikan alasan secara independen, dan mengambil keputusan yang berisiko tinggi dan tepat waktu—seringkali dalam lingkungan yang kompleks dan tidak bersahabat.
Mulai dari kerentanan dan halusinasi hingga otonomi dan kepercayaan, MAS memperkenalkan serangkaian tantangan teknis baru yang harus dipecahkan oleh tim agar AI benar-benar menjadi pengganda kekuatan dalam keamanan siber, dan bukan ancaman itu sendiri.
Mengatur kolaborasi: mengoordinasikan agen secara real time
Agar MAS dapat bekerja secara efektif di lingkungan SOC, agen harus berkoordinasi dengan lancar di seluruh sistem yang berbeda—berbagi intelijen, beban kerja, dan niat. Koordinasi ini rumit. Agen memerlukan protokol komunikasi yang kuat untuk mencegah kemacetan data dan kondisi balapan.
Selain itu, mereka harus memiliki pemahaman yang sama tentang terminologi dan konteks, meskipun mereka menguraikan informasi dari sumber yang berbeda (misalnya, log SIEM, telemetri EDR, awan sinyal identitas). Tanpa penyelarasan dan sinkronisasi semantik, agen berisiko bekerja secara terpisah—atau lebih buruk lagi, menghasilkan kesimpulan yang bertentangan.
Merancang untuk skala: ketika lebih banyak agen berarti lebih banyak kompleksitas
Meskipun MAS menjanjikan skalabilitas, hal ini juga menimbulkan paradoks: semakin banyak agen dalam sistem, semakin sulit mengelola interaksi mereka. Ketika agen berkembang biak, jumlah interaksi potensial meningkat secara eksponensial.
Hal ini membuat desain sistem, pengelolaan sumber daya, dan toleransi kesalahan menjadi jauh lebih menantang. Untuk menjaga kecepatan dan keandalan, pengembang harus membangun kerangka kerja penyeimbangan beban dinamis, pengelolaan status, dan orkestrasi yang mencegah sistem mengalami kekacauan seiring dengan skalanya.
Memberdayakan otonomi tanpa mengorbankan kontrol
Inti dari MAS adalah otonomi—tetapi kemandirian penuh bisa berbahaya dalam lingkungan berisiko tinggi seperti respons terhadap insiden. Pengembang harus mengambil garis tipis antara memberdayakan agen untuk bertindak tegas dan mempertahankan pengawasan yang cukup untuk mencegah kesalahan yang berjenjang.
Hal ini memerlukan kerangka pengambilan keputusan yang kuat, validasi logika, dan sering kali sistem failsafe “human-in-the-loop” untuk memastikan agen dapat mengeskalasi kasus-kasus edge ketika diperlukan. Sistem harus mendukung otonomi yang didorong oleh kebijakan—di mana aturan keterlibatan dan ambang batas kepercayaan menentukan kapan agen dapat bertindak sendiri vs. meminta peninjauan.
Mencegah halusinasi: ancaman tersembunyi dari AI yang salah
Salah satu tantangan paling berbahaya dalam sistem AI multi-agen adalah halusinasi—ketika agen dengan percaya diri menghasilkan keluaran yang salah atau menyesatkan. Dalam konteks operasi keamanan, hal ini dapat berarti kesalahan klasifikasi internal sebagai ancaman aktif atau sebaliknya.
Halusinasi bisa berasal dari pelatihan yang tidak lengkap datamodel yang tidak disetel dengan baik, atau rantai logika yang cacat yang diteruskan antar agen.
Mencegah hal tersebut memerlukan teknik landasan yang kuat, validasi sistem yang ketat, dan putaran umpan balik yang ketat di mana agen dapat memeriksa alasan satu sama lain atau menandai anomali kepada analis manusia yang mengawasi.
Mengamankan sistem: mempercayai agen dengan data sensitif
MAS harus beroperasi dalam lingkungan yang sering diserang secara aktif. Setiap agen menjadi permukaan serangan potensial—dan potensi ancaman orang dalam jika dikompromikan oleh aktor eksternal. Langkah-langkah keamanan harus mencakup komunikasi terenkripsi antar agen, kebijakan kontrol akses yang ketat, dan pencatatan audit tingkat agen.
Selain itu, MAS harus dirancang dengan mengutamakan privasi, memastikan bahwa informasi sensitif diproses dan disimpan sesuai dengan undang-undang perlindungan data seperti GDPR atau HIPAA. Agen yang dapat dipercaya tidak hanya efektif—mereka juga aman secara default.
Menjembatani sistem dan standar: membangun interoperabilitas ke dalam MAS
Tumpukan teknologi keamanan terkenal terfragmentasi. Agar MAS dapat bekerja di SOC dunia nyata, agen harus berinteraksi dengan beragam platform—masing-masing dengan skema datanya sendiri, Lebahdan perbarui irama.
Hal ini memerlukan perancangan agen yang dapat menerjemahkan dan menormalkan data, seringkali dengan cepat. Hal ini juga berarti membangun kerangka kerja modular dan dapat diperluas yang memungkinkan penambahan agen atau konektor baru tanpa mengganggu sistem secara keseluruhan.
Membangun kepercayaan manusia terhadap AI: menjadikan MAS dapat dimengerti dan akuntabel
Agar sistem multi-agen berhasil dalam operasi keamanan, analis manusia perlu memercayai apa yang dilakukan agen. Kepercayaan tersebut tidak dibangun melalui keyakinan buta—kepercayaan berasal dari transparansi, kemampuan audit, dan kemampuan menjelaskan. Berikut adalah beberapa strategi dasar:
Keluaran yang bisa dijelaskan: Agen harus memberikan tidak hanya jawaban, namun juga rantai penalaran—ringkasan bukti, logika, dan jalur keputusan yang digunakan.
Putaran umpan balik berkelanjutan: Setiap hasil yang divalidasi atau ditolak oleh manusia harus dimasukkan kembali ke dalam sistem untuk meningkatkan pertimbangan agen seiring waktu.
Jalur eskalasi yang ditentukan: MAS harus tahu kapan harus bertindak, kapan harus berhenti sejenak, dan kapan harus melakukan eskalasi. Ambang batas keyakinan dan skor kekritisan insiden membantu menegakkan hal ini.
Pedoman etis AI: Tim pengembangan harus mengikuti kerangka etika yang ditetapkan untuk mencegah bias, melindungi pribadidan memastikan akuntabilitas.
MAS bisa menjadi transformatif—tetapi hanya jika dibangun dengan benar
Sistem multi-agen memiliki potensi untuk mengubah secara mendasar cara industri keamanan siber merespons insiden keamanan—beralih dari triase peringatan menjadi investigasi dan penyelesaian konteks penuh yang otonom.
Namun, perubahan itu hanya terjadi jika para profesional keamanan mendekati MAS dengan tegas. Sistem ini harus dirancang tidak hanya untuk intelijen, namun juga untuk interoperabilitas, kepercayaan, dan ketahanan terhadap subversi.
Bagi pengembang, arsitek keamanan, dan ilmuwan AI, tantangannya bukanlah apakah MAS dapat menjadi kuat—tetapi apakah MAS dapat dibangun dan diimplementasikan secara bertanggung jawab, dengan skala, dan keselamatan sebagai prioritas utama.
Sebuah sistem yang tidak aman bisa lebih buruk daripada tidak ada sistem sama sekali. Jika ya, kami tidak akan hanya melakukan otomatisasi Operasi Detik. Kami akan mendefinisikannya kembali.
Kami telah menampilkan perangkat lunak enkripsi terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



