
- Penggunaan SaaS GenAI meningkat tiga kali lipat, dengan volume cepat melonjak enam kali lipat dalam satu tahun
- Hampir separuh pengguna mengandalkan “Shadow AI” tanpa izin, sehingga menciptakan kesenjangan visibilitas yang besar
- Kebocoran data sensitif meningkat dua kali lipat, dengan ancaman orang dalam terkait dengan penggunaan aplikasi cloud pribadi
Kecerdasan Buatan Generatif (GenAI) mungkin bagus untuk produktivitas, namun memiliki beberapa komplikasi keamanan dan kepatuhan yang serius. Ini menurut laporan baru dari lingkup jaringanyang menyatakan bahwa seiring dengan meroketnya penggunaan GenAI di kantor, insiden pelanggaran kebijakan juga meningkat.
Dalam Laporan Cloud dan Ancaman: 2026, yang dirilis awal pekan ini, Netskope mengatakan penggunaan GenAI Software-as-a-Service (SaaS) di kalangan bisnis “meningkat pesat”, dengan jumlah orang yang menggunakan alat seperti ObrolanGPT atau Gemini meningkat tiga kali lipat dalam setahun.
Pengguna juga menghabiskan lebih banyak waktu secara signifikan dengan alat ini – jumlah perintah yang dikirimkan orang ke aplikasi juga meningkat enam kali lipat dalam 12 bulan terakhir, dari 3.000 perintah pada tahun lalu, menjadi lebih dari 18.000 perintah dalam sebulan saat ini.
Bayangan AI
Terlebih lagi, 25% organisasi teratas mengirimkan lebih dari 70.000 perintah per bulan, dan 1% organisasi teratas mengirimkan lebih dari 1,4 juta perintah per bulan.
Namun banyak alat tersebut, dan kasus penggunaannya, tidak disetujui oleh departemen dan eksekutif yang tepat. Hampir setengah (47%) pengguna GenAI menggunakan aplikasi AI pribadi (disebut “Shadow AI”) sehingga organisasi tidak dapat melihat jenis data yang dibagikan, dan alat yang membaca file-file ini.
Akibatnya, jumlah insiden saat pengguna mengirimkan data sensitif ke aplikasi AI meningkat dua kali lipat dalam setahun terakhir.
Saat ini, rata-rata organisasi mengalami 223 insiden per bulan. Netskope juga mengatakan bahwa aplikasi pribadi adalah “risiko ancaman orang dalam yang signifikan”, karena 60% insiden ancaman orang dalam melibatkan aplikasi cloud pribadi.
Data yang diatur, kekayaan intelektual, kode sumber, dan kredensial sering kali dikirim ke aplikasi pribadi yang melanggar kebijakan organisasi.
“Organisasi akan kesulitan mempertahankan tata kelola data karena informasi sensitif mengalir bebas ke ekosistem AI yang tidak disetujui, sehingga menyebabkan peningkatan paparan data yang tidak disengaja dan risiko kepatuhan,” laporan tersebut menyimpulkan.
“Sebaliknya, para penyerang akan mengeksploitasi lingkungan yang terfragmentasi ini, memanfaatkan AI untuk melakukan pengintaian yang sangat efisien dan merancang serangan yang sangat disesuaikan dengan target model kepemilikan dan data pelatihan.”
Antivirus terbaik untuk semua anggaran
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.



