
Tangguh AI sistem melampaui kinerja teknis. Ini mencerminkan budaya tim di belakangnya.
Dan, seiring dengan semakin tertanamnya AI dalam bisnis, dan digunakan oleh karyawan serta masyarakat, sistem yang kita andalkan menjadi semakin sulit untuk diatur.
Risiko yang ditimbulkan oleh AI biasanya tidak dramatis atau tiba-tiba. Hal ini muncul secara bertahap, melalui kepemilikan yang tidak jelas, pembaruan yang tidak dikelola, kurangnya pelatihan, dan pengambilan keputusan yang terfragmentasi.
Keamanandalam konteks ini, tidak terlalu bergantung pada kode itu sendiri dan lebih bergantung pada kebiasaan dan koordinasi tim yang membangun kode tersebut.
Membingkai ulang keamanan AI
Ketika membahas keamanan AI, fokusnya cenderung tertuju pada lapisan teknis, pada kumpulan data yang bersih, algoritme yang kuat, dan model yang terstruktur dengan baik. Itu adalah naluri yang bisa dimengerti. Ini adalah komponen yang terlihat dan nyata, dan penting.
Namun dalam praktiknya, sebagian besar risiko terakumulasi bukan karena kesalahan logika, melainkan karena kesenjangan dalam koordinasi. Mereka cenderung membangun dengan lambat ketika pembaruan tidak dicatat, ketika model berpindah antar tim tanpa konteks, atau ketika tidak ada yang yakin siapa yang melakukan perubahan terakhir.
RUU Keamanan dan Ketahanan Siber di Inggris merupakan sebuah langkah maju dalam meresmikan cara digital infrastruktur harus diamankan. Hal ini memperkenalkan persyaratan baru untuk jaminan operasional, pemantauan berkelanjutan, dan respons insiden, terutama bagi penyedia layanan yang mendukung sistem penting.
Meskipun RUU ini mempertajam ekspektasi mengenai infrastruktur, RUU tersebut belum mencakup bagaimana AI sebenarnya dikembangkan dan dipelihara dalam praktiknya.
Di sektor-sektor seperti layanan kesehatan dan keuangan, model-model sudah mempengaruhi keputusan-keputusan berisiko tinggi. Dan hal ini sering kali dibangun di lingkungan yang bergerak cepat dimana peran berubah, alat berkembang, dan tata kelola tidak selalu sejalan.
Dimana risiko cenderung meningkat
Pengembangan AI jarang dilakukan dalam satu tim. Model dilatih ulang, digunakan kembali, dan diadaptasi seiring dengan perubahan kebutuhan. Fleksibilitas tersebut merupakan bagian dari nilai mereka, namun juga menambah lapisan kompleksitas.
Perubahan kecil bisa berdampak luas. Satu tim mungkin memperbarui pelatihannya data untuk mencerminkan masukan baru. Pihak lain mungkin menyesuaikan ambang batas untuk mengurangi positif palsu. Pihak ketiga mungkin menerapkan model tanpa memeriksa cara konfigurasinya sebelumnya.
Tak satu pun dari keputusan-keputusan ini yang secara inheren salah. Namun ketika tim tidak dapat melacak keputusan hingga ke asal usulnya, atau tidak ada seorang pun yang yakin siapa yang menyetujui perubahan tersebut, kemampuan untuk merespons dengan cepat akan hilang.
Ini bukan kesalahan kode atau arsitektur, namun merupakan tanda bahwa cara tim membangun, mengadaptasi, dan menyerahkan sistem tidak sejalan dengan seberapa luas sistem tersebut digunakan saat ini. Ketika budaya kerja tertinggal, risiko menjadi lebih sulit untuk dilihat, dan oleh karena itu lebih sulit untuk dikendalikan.
Mengubah budaya menjadi permukaan kendali
Jika risiko terakumulasi dalam kebiasaan sehari-hari, maka ketahanan harus dibangun di tempat yang sama. Budaya lebih dari sekadar pendukung praktik yang baik, namun budaya menjadi mekanisme untuk mempertahankan kendali seiring dengan skala sistem.
Prinsip itu tercermin dalam regulasi. UU AI UE menetapkan persyaratan untuk sistem berisiko tinggi, termasuk penilaian kesesuaian dan kode praktik sukarela, namun sebagian besar tanggung jawab untuk menerapkan tata kelola ke dalam rutinitas sehari-hari masih berada di tangan organisasi yang menerapkan sistem tersebut.
Di Inggris, Kode Praktik Keamanan Siber AI dari Departemen Sains, Inovasi, dan Teknologi mengikuti pendekatan serupa, memadukan prinsip-prinsip tingkat tinggi dengan panduan praktis yang membantu bisnis mengubah kebijakan menjadi norma kerja.
Program penelitian dan pengakuan mengarah ke arah yang sama. Studi pengembangan AI di dunia nyata, seperti inisiatif LASR di Inggris, menunjukkan bagaimana komunikasi, serah terima, dan asumsi antar tim membentuk kepercayaan seperti halnya model itu sendiri.
Inisiatif seperti National AI Awards kemudian menyoroti organisasi-organisasi yang menerapkan tata kelola budaya dan menetapkan standar kedewasaan yang lebih jelas.
Bagi dunia usaha, tugasnya sekarang adalah menjadikan kejelasan budaya sebagai bagian yang lebih terintegrasi dalam desain operasional. Semakin tim dapat mengandalkan norma-norma bersama, kepemilikan yang terlihat, dan pengambilan keputusan yang konsisten, sistem AI mereka akan semakin tangguh seiring berjalannya waktu.
Melihat ke depan
Ketika AI menjadi bagian dari pengambilan keputusan sehari-hari, fokus kepemimpinan harus beralih dari kinerja model individual ke lingkungan yang lebih luas tempat sistem beroperasi.
Itu berarti melangkah lebih jauh proyek-perbaikan tingkat dan investasi dalam jaringan penghubung antar tim, rutinitas, forum, dan kebiasaan yang memberikan struktur pengembangan AI untuk ditingkatkan dengan aman.
Membangun kedewasaan itu membutuhkan waktu, tapi itu dimulai dengan kejelasan. Kejelasan kepemilikan, perubahan, dan konteks.
Organisasi yang mencapai kemajuan adalah organisasi yang memperlakukan budaya bukan sebagai soft skill, namun sebagai aset kerja, sesuatu yang harus ditinjau, diberi sumber daya, dan terus ditingkatkan.
Struktur budaya inilah yang pada akhirnya akan membentuk keamanan. Melalui kebiasaan tertanam yang membuat risiko lebih mudah dilihat, muncul, dan ditindaklanjuti seiring dengan semakin pentingnya AI dalam cara bisnis saat ini beroperasi.
Kami telah menampilkan kursus keamanan siber online terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



