
Keamanan Model-model yang efektif beberapa tahun lalu kini berada di bawah tekanan besar karena cepatnya perubahan yang terjadi dalam organisasi. Saat kita memasuki tahun 2026, banyak tim menghadapi lanskap risiko yang lebih besar dan kompleks.
Hal ini sebagian besar didorong oleh pesatnya kecerdasan buatan (AI), peningkatan otomatisasi, dan peralihan berkelanjutan ke platform cloud dan kolaborasi.
Penasihat Utama CISO di KnowBe4.
Tantangan mendasar ini bukanlah hal baru. Masalah-masalah seperti kepemilikan keamanan yang tidak konsisten, kontrol yang tidak merata di seluruh sistem, dan peningkatan keamanan di akhir siklus pengiriman masih muncul, hanya saja sekarang masalah tersebut cenderung muncul lebih cepat, menyebar lebih jauh, dan membawa dampak yang lebih besar.
“Titik perubahan AI”
Ketika perusahaan mengadopsi AI dalam skala besar, menjadi jelas bahwa ini bukan sekadar kategori ancaman. AI mewakili titik perubahan mendasar dalam manajemen risiko.
Hal ini menimbulkan risiko ganda. Secara internal, karyawan mungkin membagikan data sensitif secara berlebihan ke dalam alat AI tanpa sepenuhnya memahami cara informasi tersebut disimpan atau dilindungi. Secara eksternal, penjahat dunia maya menggunakan AI untuk menghasilkan deepfake, menyamar sebagai individu tepercaya, dan meningkatkan serangan dengan kecepatan dan presisi yang belum pernah terjadi sebelumnya.
Meskipun hampir semua organisasi melaporkan telah mengambil langkah-langkah untuk mengatasi risiko AI, banyak karyawan merasa akses terhadap alat yang disetujui terlalu lambat, terlalu membatasi, atau diatur secara tidak konsisten. Pada saat yang sama, penggunaan yang tidak disetujui, atau bayangan AI, menjadi semakin umum
Karyawan mungkin sudah menggunakan akun pribadi dengan model bahasa besar yang sepenuhnya berada di luar pengawasan organisasi, sehingga menciptakan vektor risiko yang tidak terlihat. Perilaku yang sama yang menjadikan karyawan produktif dengan AI dapat dengan cepat menjadi beban tanpa adanya batasan waktu nyata.
Di sinilah tekanan terbesar diberikan pada model keamanan yang harus diikuti.
“Risiko baru”
Secara historis, organisasi telah melakukan pendekatan terhadap risiko keamanan yang berhubungan dengan manusia terutama melalui pelatihan kesadaran dan mengajari karyawan cara mengenali ancaman dan menghindari kesalahan.
Pendekatan tersebut sangat penting karena penelitian menunjukkan peningkatan sebesar 90% dalam insiden dunia maya yang disebabkan oleh unsur manusia; namun, pendekatan ini saja tidak cukup.
Ketika risiko benar-benar ada di mana pun karyawan bekerja dan berkomunikasi, pertahanan yang berfokus pada perimeter dan siklus pelatihan tahunan tidaklah cukup secara struktural. Sebab, tempat kerja saat ini tidak lagi hanya terdiri dari manusia saja.
Agen AI semakin tertanam dalam alur kerja penting, bekerja bersama karyawan, dan berinteraksi dengan data sensitif. Meskipun vektor serangan yang murni disebabkan oleh manusia masih ada, organisasi-organisasi tidak menerapkan tingkat pelatihan risiko perilaku yang sama kepada agen AI seperti yang mereka terapkan pada tenaga kerja mereka.
Hasilnya? Jenis risiko baru dan sebagian besar tidak terkelola.
Di balik paparan yang semakin besar ini terdapat kesenjangan yang lebih dalam antara organisasi dan karyawannya. Hampir separuh karyawan tidak percaya bahwa data yang mereka tangani adalah milik organisasi. Kepemilikan yang ambigu menyebabkan pembuatan aturan pribadi seputar pembagian data, penyimpanan, dan penggunaan AI.
Mengidentifikasi kesenjangan dalam pemahaman ini memperjelas satu hal: budaya, insentif, dan perangkat membentuk perilaku jauh lebih efektif dibandingkan kebijakan dokumen sendiri. Risiko manusia bukan sekedar soal aturan, tapi lebih soal kejelasan.
Saat Anda mengajari seorang anak untuk menyeberang jalan dengan aman, Anda mengajari mereka semua tentang sinyal hijau dan merah, yang memberi mereka kerangka kerja dan kejelasan tentang cara menyeberang jalan mana pun yang mereka dekati kapan saja dalam hidup mereka.
Meskipun pelatihan manusia melibatkan pembinaan dan kepemimpinan, model AI agen yang baru diterapkan harus membangun pendekatan baru. Menyelesaikan semuanya dengan baik di bawah satu payung akan menjadi tantangan bagi banyak organisasi memasuki tahun 2026, namun hanya karena ada sesuatu yang sulit, bukan berarti hal tersebut tidak boleh dilakukan.
Perhitungannya
Sebuah studi baru yang mengungkap menemukan bahwa 44% organisasi di seluruh dunia telah mendisiplinkan karyawan yang menjadi korban serangan phishing. Pendekatan hukuman yang berlaku terhadap keamanan ini berpotensi semakin melemahkan hasil karena perspektif kepemimpinan dan karyawan tidak selaras.
Pemimpin cenderung menyukai disiplin dan konsekuensi formal, sementara karyawan sangat menyukai dukungan, pembinaan, dan bimbingan yang tepat sasaran. Strategi yang penuh hukuman merusak kepercayaan dan melemahkan ketahanan jangka panjang. Ketika rasa takut mendominasi, pelaporan insiden menurun, kepercayaan terkikis, dan tim keamanan menjadi lelah.
Organisasi tidak dapat menghukum upaya mereka untuk mencapai perilaku keamanan yang lebih baik. Mekanisme yang mengurangi risiko sebelum kesalahan terjadi, dibandingkan bereaksi setelah kesalahan terjadi, sangatlah penting. Daripada berfokus pada menyalahkan, kita harus berupaya membangun budaya keamanan yang positif.
Di sinilah Manajemen Risiko Manusia, atau HRM, harus diposisikan sebagai bagian inti dari strategi keamanan, bukan sebagai inisiatif pendukung. Visibilitas lintas platform terhadap perilaku berisiko dan sinyal risiko tingkat karyawan harus menggantikan kategori dan asumsi pengguna yang luas.
Membangun budaya positif memerlukan pembinaan yang suportif ketika risiko muncul secara real-time. Faktanya, penelitian menemukan bahwa ‘pembelajaran aktif’ (atau belajar sambil melakukan) sangat efektif untuk retensi.
Metode ini memperkuat dan mengintegrasikan keamanan secara langsung ke dalam tugas sehari-hari, dan masyarakat diperlakukan sebagai peserta yang adaptif, bukan tanggung jawab statis. Sistem AI harus diatur dengan cara yang sama, dengan dasar perilaku, pemantauan, dan kontrol yang mencerminkan meningkatnya peran mereka dalam angkatan kerja.
HRM menjadi lapisan penghubung antara perilaku manusia, penggunaan AI, dan ketahanan organisasi.
Arah perjalanannya jelas. Organisasi-organisasi mulai beralih ke tenaga kerja yang melibatkan manusia dan agen, dan pertanyaan mengenai keamanan adalah soal waktu, bukan adopsi. Untuk mempertahankan inovasi tanpa memperbesar risiko, praktik terbaik keamanan harus diterapkan pada sistem manusia dan mesin saat ini.
Penelitian telah menunjukkan bahwa pengguna awal mendapatkan manfaat dari tingkat insiden yang lebih rendah, kepercayaan yang lebih tinggi, dan inovasi berbasis AI yang lebih cepat dan lebih aman. Masa depan keamanan siber adalah bagian dari organisasi yang berhenti mencoba untuk mengunci orang dan mulai merancang sistem yang membantu mereka membuat keputusan yang lebih baik pada saat keputusan tersebut dibuat.
Kami telah menampilkan perangkat lunak enkripsi terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



