
Serangan siber meningkat lebih dari dua kali lipat di seluruh dunia hanya dalam empat tahun, dari 818 per organisasi pada tahun 2021 menjadi hampir 2.000 per organisasi pada tahun lalu, menurut World Economic Forum (WEF). Ini adalah statistik yang mengejutkan.
Dan usaha kecil mereka yang paling rentan, kini tujuh kali lebih besar kemungkinannya untuk melaporkan kurangnya ketahanan siber dibandingkan pada tahun 2022. Suka atau tidak, kecerdasan buatan Alat (AI) mempunyai peran besar di sini, tidak hanya dengan meningkatnya volume serangan tetapi juga kecanggihannya.
Manajer Umum produk keamanan Alibaba Cloud Intelligence.
Risiko kini muncul di setiap lapisan tumpukan AI, mulai dari injeksi cepat dan kebocoran data hingga bot scraping dan deepfake yang didukung AI.
Seperti yang diungkapkan oleh laporan industri baru-baru ini, penyerang kini menggunakannya model bahasa besar (LLM) untuk menyusun kampanye phishing yang meyakinkan, menulis malware polimorfik, dan mengotomatiskan rekayasa sosial dalam skala besar.
Hasilnya adalah lingkungan ancaman yang belajar, beradaptasi, dan berkembang lebih cepat daripada yang dapat ditanggapi oleh analis manusia.
Apa yang ada di bawah lapisan tersebut?
Sistem AI dibangun berlapis-lapis, dan masing-masing sistem memiliki titik lemahnya sendiri. Pada lapisan lingkungan, yang menyediakan komputasi, jaringan, dan penyimpanan, risikonya mirip dengan TI tradisional, namun skala dan kompleksitas beban kerja AI membuat serangan lebih sulit dideteksi.
Lapisan model adalah tempat manipulasi dimulai. Injeksi yang cepat, pembuatan konten yang tidak patuh, dan penyelundupan data kini menjadi salah satu ancaman utama, seperti yang disoroti dalam 10 Besar Aplikasi LLM OWASP 2025.
Lapisan konteks, yang merupakan tempat penyimpanan memori dan database retrieval-augmented generation (RAG), telah menjadi target utama pencurian data. Sementara itu, pada lapisan alat dan aplikasi, API dengan hak istimewa berlebih dan agen AI yang disusupi dapat memberikan penyerang kunci untuk seluruh alur kerja.
Dengan kata lain, permukaan serangan semakin meluas ke segala arah, dan dengan itu, diperlukan pertahanan yang lebih cerdas. Jawabannya bukanlah dengan meninggalkan AI tetapi menggunakan AI untuk mengamankan AI. Jadi kerangka keamanan yang komprehensif perlu menjangkau seluruh siklus hidup AI, melindungi tiga lapisan penting: infrastruktur model, model itu sendiri, dan AI. aplikasi.
Ketika keamanan tertanam dalam alur kerja bisnis, bukan diterapkan setelahnya, organisasi akan memperoleh perlindungan latensi rendah dan efisien tanpa mengorbankan kenyamanan atau kinerja.
Tim keamanan sudah menerapkan pagar pembatas cerdas yang memindai permintaan untuk niat jahat, mendeteksi perilaku API yang tidak wajar, dan memberi tanda air pada konten yang dihasilkan untuk ketertelusuran.
Generasi terbaru yang digerakkan oleh AI keamanan operasi menerapkan model multi-agen untuk menganalisis miliaran kejadian sehari-hari, menandai risiko yang muncul secara real-time, dan mengotomatiskan tindakan respons pertama.
Menurut survei Digital Trust Insights 2026 yang dilakukan PwC, AI kini menduduki peringkat teratas dalam daftar prioritas investasi bagi Chief Information Security Officer (CISO) di seluruh dunia, sebuah tanda bahwa perusahaan pada akhirnya memperlakukan ketahanan siber sebagai sistem pembelajaran, bukan daftar periksa yang statis.
Ancaman yang mengintai dalam bayang-bayang
Namun, bahkan ketika perusahaan-perusahaan memperkuat pertahanan mereka, sebuah risiko baru yang sebagian besar disebabkan oleh diri mereka sendiri mulai terbentuk di dalam jaringan mereka sendiri. Itu disebut bayangan AI. Di sebagian besar organisasi, karyawan menggunakan alat generatif untuk meringkas laporan, menulis kode, atau menganalisis pelanggan, seringkali tanpa persetujuan resmi atau kontrol tata kelola data.
Menurut laporan dari Netskope, sekitar 90 persen perusahaan kini menggunakan aplikasi GenAI, dan lebih dari 70 persen alat tersebut berada di bawah naungan IT. Setiap prompt yang tidak terpantau atau plug-in yang tidak diperiksa berpotensi menimbulkan kebocoran data sensitif.
Analisis internal di seluruh industri menunjukkan bahwa hampir 45 persen lalu lintas jaringan terkait AI berisi informasi sensitif, mulai dari kekayaan intelektual hingga catatan pelanggan. Secara paralel, bot bertenaga AI berkembang biak dengan sangat cepat. Dalam waktu enam bulan, lalu lintas bot yang terkait dengan pengambilan data dan permintaan otomatis meningkat empat kali lipat.
Meskipun AI menjanjikan pengoperasian yang lebih cerdas dan cepat, AI juga mengonsumsi data rahasia dalam jumlah yang semakin besar, sehingga menciptakan lebih banyak hal yang harus dipertahankan dan lebih banyak lagi kerugian.
Sabuk pengaman untuk AI
Pemerintah dan regulator mulai menyadari besarnya tantangan ini. Banyak aturan tata kelola AI yang mengarah pada masa depan di mana organisasi diharapkan menunjukkan tidak hanya kepatuhan, namun juga visibilitas berkelanjutan terhadap sistem AI mereka.
Postur keamanan perlu memperhitungkan pelatihan model, asal data, dan perilaku agen otonom, bukan hanya lalu lintas jaringan atau log akses.
Bagi banyak orang, hal ini berarti memasukkan keamanan langsung ke dalam jalur pengembangan, mengadopsi arsitektur zero-trust, dan memperlakukan model AI sebagai aset hidup yang memerlukan pemantauan terus-menerus.
Ke depan, garis pertempuran sudah digambar ulang. Fase keamanan siber berikutnya akan bergantung pada mesin ganda – mesin yang melindungi sistem AI sekaligus menggunakan AI untuk mendeteksi dan menetralisir ancaman.
Seiring berkembangnya model pembelajaran mesin, pertahanan yang melingkupinya juga harus berkembang. Aturan statis dan respons manual tidak dapat mengimbangi penyerang yang mengotomatiskan kreativitas dan mengeksploitasi kecepatan. Yang dibutuhkan adalah ekosistem yang belajar secepat ia bertahan.
Pergeseran itu sudah berlangsung. Platform keamanan multi-agen kini mengoordinasikan deteksi, triase, dan pemulihan di miliaran peristiwa harian.
Model yang ringan dan spesifik untuk domain menyaring gangguan, sementara model penalaran yang lebih besar mengidentifikasi pola serangan yang sebelumnya tidak terlihat. Ini adalah saluran intelijen yang mencerminkan musuh, hanya saja saluran ini dibangun untuk pertahanan.
Penerapan kecerdasan
Masa depan keamanan digital akan bergantung pada kolaborasi antara wawasan manusia dan intuisi mesin. Dalam praktiknya, hal ini berarti melatih kembali tenaga kerja dan merancang ulang infrastruktur.
Analis yang dapat menafsirkan keluaran AI, ilmuwan data yang memahami risiko, dan pembuat kebijakan yang membangun kepercayaan melalui transparansi sangat dibutuhkan. Permainan jangka panjang adalah tentang kepercayaan diri, bukan hanya ketahanan. Keyakinan bahwa sistem yang mendukung kehidupan modern sedang belajar untuk melindungi diri mereka sendiri.
Karena pada akhirnya, AI bukanlah penjahat dalam cerita ini. Algoritme yang membuat serangan menjadi lebih kuat juga dapat membuat perlindungan menjadi lebih tepat. Pertanyaan bagi para pemimpin bisnis di mana pun adalah apakah mereka akan berinvestasi cukup cepat sehingga kecerdasan, bukan kelambanan, yang menentukan babak selanjutnya dari bisnis mereka. keamanan siber.
Kami telah menampilkan perangkat lunak perlindungan titik akhir terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



