
Organisasi-organisasi sedang melihat lebih dekat bagaimana caranya kecerdasan buatan cocok dengan lingkungan yang teregulasi dan kaya data. Sebagian besar diskusi berpusat pada model, petunjuk, dan kerangka tata kelola.
Pertanyaan-pertanyaan ini memang penting, namun sering kali mengabaikan masalah yang lebih praktis. Ini adalah sistem operasional yang menentukan apa yang sebenarnya dapat diakses, diubah, atau diekspos oleh AI setelah AI tertanam dalam pekerjaan sehari-hari.
Mengapa risiko AI merupakan masalah operasional, bukan masalah kebijakan
AI tidak beroperasi secara terpisah. Sebaliknya, ia berinteraksi dengan platform langsung, data produksi, jalur penerapan, dan kontrol akses yang telah dirancang jauh sebelumnya model bahasa besar memasuki gambar.
Jika fondasi tersebut tidak konsisten atau tidak diatur dengan baik, AI secara otomatis mewarisi risiko tersebut. AI mengungkapkan, bukan menciptakan risiko baru, dan masalah tersebut biasanya baru diketahui setelah sesuatu terjadi.
Inilah sebabnya mengapa banyak “pagar pembatas” AI bisa gagal di lingkungan nyata. Sebuah kebijakan dapat menjelaskan satu hal, namun kendali sebenarnya berasal dari cara tim mengirimkan perangkat lunak. Jika peninjauan tidak konsisten atau aturan akses tidak jelas, AI akan bekerja sesuai batasan yang diberikan.
Jika terjadi kesalahan, hal ini jarang terjadi karena modelnya gagal. Pasalnya, proses dan disiplin operasional di sekitarnya kurang kuat.
Bagaimana platform yang bergerak cepat menciptakan paparan data yang tersembunyi
Platform yang bergerak cepat – seperti awanPlatform SaaS berbasis atau lingkungan pengembangan kode rendah – meningkatkan kebisingan seputar masalah ini. Sistem perusahaan modern terus berubah, seringkali melalui campuran kode, konfigurasi, dan otomatisasi.
Dalam lingkungan seperti ini, jalur data berubah dengan cepat dan visibilitasnya mungkin tertinggal dari kenyataan. Dalam praktiknya, AI sering kali mengungkapkan informasi yang tidak disadari oleh orang-orang. Hal ini bukan disebabkan oleh perilaku buruk, namun karena tidak adanya batasan yang jelas dan diterapkan secara konsisten dalam sistem yang menjadi landasannya.
Tim mungkin percaya bahwa data sensitif dilindungi karena pada prinsipnya akses dibatasi. Namun hal ini dapat menimbulkan risiko paparan data yang tersembunyi karena tim yang sama akan mengabaikan seberapa sering izin berubah, lingkungan dikloning, atau sistem pengujian disegarkan dengan data berbentuk produksi.
Tanpa kontrol yang konsisten di seluruh siklus penerapan, alat AI dapat menemukan data di tempat yang tidak pernah diinginkan oleh para pemimpin.
Apa sebenarnya arti “AI-ready” dalam lingkungan yang diatur
Oleh karena itu, menjadi “siap AI” tidak ada hubungannya dengan ambisi dan lebih berkaitan dengan kesadaran risiko. Langkah pertama adalah memahami toleransi organisasi terhadap paparan dan kesalahan.
Kejelasan ini akan menentukan di mana AI digunakan, bagaimana AI tersebut diuji, dan kumpulan data mana yang dilarang. Kesiapan harus dilihat oleh organisasi sebagai kemajuan yang dibangun berdasarkan keyakinan dan bukti keberhasilan proyek yang dilaksanakan, bukan sebagai keadaan biner.
Artinya, dalam praktiknya, memulai dengan kasus penggunaan dengan risiko lebih rendah dan taruhan lebih rendah. Proyek AI awal harus fokus pada analisis rutin, data non-sensitif, atau alur kerja internal dokumentasi atau menguji pembuatan data.
Ini memprioritaskan pembelajaran di seluruh tim pengembangan dan mengandung kesalahan. Meskipun hal ini mungkin tidak memberikan hasil yang langsung terlihat, hal ini memungkinkan tim untuk mengamati perilaku, menyempurnakan kontrol, dan membangun kepercayaan sebelum beralih ke proyek yang lebih menarik perhatian.
Mengapa memulai dari hal kecil adalah satu-satunya cara yang bertanggung jawab untuk meningkatkan skala AI
Pendekatan ini mencerminkan bagaimana tim yang matang mengadopsi kemampuan baru. Strategi manajemen risiko yang baik akan memastikan bahwa sistem yang belum teruji tidak ditugaskan ke proses yang paling sensitif pada hari pertama.
Prinsip yang sama berlaku ketika mengintegrasikan alat AI atau pembuatan kode ke dalam sistem yang ada. Kepercayaan harus dibangun seiring berjalannya waktu. Hal ini berarti memulai dari hal yang kecil, membuktikan keandalan, dan melakukan pengujian serta kepemilikan sebelum AI diperbolehkan di dekat alur kerja yang berisiko lebih tinggi.
Semua itu tidak akan berhasil tanpa kekuatan data kebersihan. Tim memerlukan gambaran yang jelas tentang data apa yang ada, bagaimana data tersebut diklasifikasikan, dan ke mana data tersebut dibawa. Penyembunyian, anonimisasi, dan pembersihan data tidak boleh dilihat sebagai sesuatu yang “bagus untuk dimiliki”.
Tanpa hal tersebut, bahkan penerapan AI yang bertujuan baik pun dapat mengungkap informasi hanya dengan mencerminkan apa yang sudah ada.
Fondasi DevOps yang memungkinkan AI yang dapat dipercaya
Tata kelola operasional harus berkembang seiring dengan perkembangan peralatan. Hal ini termasuk mengendalikan akses ke sistem AI, membatasi penggunaan alat pribadi yang tidak dikelola – seperti asisten AI generatif publik, dan memberikan alternatif yang disetujui dan menghormati batasan organisasi.
Penting bagi tim untuk memahami alasan adanya kontrol ini. Artinya, perilaku aman dimasukkan ke dalam budaya organisasi, bukan sebagai praktik kepatuhan yang didorong oleh rasa takut terhadap audit.
Yang terakhir, organisasi harus meneliti vendor AI dengan cermat, sama seperti vendor lainnya infrastruktur mitra. Kesiapan AI mencakup tinjauan resmi AppSec terhadap lingkungan hosting vendor untuk memastikan lingkungan tersebut memenuhi standar industri dan menyediakan kerangka kerja yang aman.
Ini bukanlah argumen yang menentang adopsi AI. Organisasi yang berinvestasi pada ketelitian operasional mempunyai posisi yang lebih baik untuk mewujudkan manfaat AI dengan aman. Namun organisasi-organisasi tersebut pastinya memiliki proses penerapan yang jelas, pengujian yang andal, dan kontrol akses yang konsisten.
Semua hal ini bertransformasi untuk menciptakan lingkungan di mana AI dapat diperkenalkan dengan percaya diri dan bukan dengan kehati-hatian yang mengesampingkan kemajuan.
Kepercayaan terhadap proses AI tidak dapat dicapai melalui dokumen kebijakan saja. Sebaliknya, hal ini dibangun melalui mekanisme sehari-hari tentang bagaimana perangkat lunak dikembangkan, diuji, dan dirilis.
Untuk organisasi yang serius dalam melindungi data sekaligus menerapkan inovasi, DevOps disiplin bukanlah detail implementasi. Ini adalah landasan yang memungkinkan AI yang bertanggung jawab dalam skala besar.
Kami telah menampilkan perangkat lunak otomatisasi terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



