
AI Generatif (GenAI) tidak hanya mengubah cara penulisan kode; ini mengubah cara kita mendefinisikan kualitas perangkat lunak.
Sebagai alat AI menjadi lebih tertanam dalam alur kerja pengembangan perangkat lunak, peran jaminan kualitas (QA) bergeser dari penjaga gerbang manual ke pengawasan real-time terhadap keluaran yang dihasilkan mesin.
Manajer Produk yang berspesialisasi dalam AI di TestRail.
Ketidakpercayaan ini muncul lebih dari sekadar tingkat ketidaknyamanan; ini tentang apa yang dipertaruhkan. Dalam QA, kecepatan tanpa akurasi dapat menjadi suatu kerugian.
Banyak alat GenAI yang menghasilkan pengujian dari satu perintah, juga dikenal sebagai generator kasus pengujian “satu kali”, sering kali lebih mengutamakan volume keluaran daripada presisi.
Pengorbanan tersebut dapat menciptakan lebih banyak pembersihan daripada penghematan waktu, memaksa penguji untuk mengurai logika yang salah, dan membangun kembali pengujian arsitekturdan menambal kesenjangan kritis dalam cakupan.
Dan perubahannya tidak terbatas pada perkakas saja. Laporan “AI at Work” dari Indeed pada tahun 2025 menemukan bahwa 54% keterampilan kerja di lowongan kerja di AS kini berada pada posisi untuk mengalami transformasi moderat berkat GenAI, dengan peran perangkat lunak di antara yang paling banyak terpapar.
Pergeseran ini memperjelas bahwa tim QA sedang dibentuk ulang secara mendasar.
Daripada menulis kode atau pengujian dari awal, mereka diminta untuk mengawasi dan menyempurnakan keluaran yang dihasilkan mesin, sehingga membawa lapisan tanggung jawab editorial baru ke dalam alur kerja teknis.
Dengan kata lain, cara tercepat untuk menghasilkan kode mungkin bukan cara terbaik untuk merilis perangkat lunak.
Daya Tarik dan Keterbatasan Pengujian Pelengkapan Otomatis
Pembuatan kasus uji adalah salah satu penggunaan AI yang paling terlihat dalam pengujian perangkat lunak, namun penerapan nyata masih menjadi berita utama.
Sebuah studi pemetaan baru-baru ini melaporkan bahwa hanya 16% peserta yang telah menerapkan AI dalam pengujian, namun angka tersebut kemungkinan besar tidak sesuai dengan kenyataan.
Banyak organisasi yang masih membatasi atau melarang penggunaan AI dalam pekerjaannya, sehingga banyak orang ragu untuk mengatakan bahwa mereka menggunakannya. Ada juga kebanggaan di dalamnya—beberapa orang lebih suka menyajikan hasil yang mereka peroleh sepenuhnya sebagai milik mereka.
Kepercayaan, persepsi, dan emosi membentuk keterbukaan tim dalam merangkul AI, bahkan ketika tekanan tenggat waktu yang lebih pendek membuat “persyaratan masuk, uji kasus dalam hitungan detik” terdengar sangat menarik.
Inilah sebabnya mengapa desain proses penting. Janji kecepatan itu nyata, tetapi tanpa konteks dan tinjauan, hal itu sering kali berubah menjadi pembersihan di kemudian hari.
Tim yang mengakui sisi kemanusiaan dari adopsi dan membangun kebiasaan untuk memberikan dorongan yang hati-hati dan meninjau secara langsung akan mendapatkan manfaat dari keduanya: Mereka bergerak lebih cepat dan menjaga kepercayaan diri tetap tinggi.
Saat Kecepatan Menghasilkan Titik Buta
Generasi yang sepenuhnya otonom dapat salah membaca aturan bisnis, melewatkan kasus-kasus rumit, atau bertabrakan dengan arsitektur yang sudah ada. Hal ini mengarah pada penulisan ulang, validasi ulang, dan pembuangan karya; kebalikan dari “lebih cepat”.
Tapi ini bukan hanya masalah AI. Perlu diingat bahwa manusia juga salah.
Manusia yang berada di bawah tekanan tenggat waktu juga melewatkan persyaratan, menyesuaikan diri dengan jalur yang menyenangkan, atau membawa bias dari proyek sebelumnya. Di dunia nyata, 63% dari keamanan insiden dan pelanggaran data melibatkan faktor manusia dan sebagian besar aplikasi menunjukkan beberapa kesalahan konfigurasi selama pengujian.
AI tidak akan memperbaikinya dengan sendirinya. Hal ini memerlukan konteks, batasan, dan langkah peninjauan manusia sehingga kita tidak menukar satu jenis kesalahan dengan kesalahan lainnya.
Di mana LLM “berhalusinasi” atau melayang tanpa konteks yang cukup, orang salah menafsirkan spesifikasi yang ambigu atau terlalu mengandalkan firasat. Resikonya meningkat ketika tim terjerumus ke dalam kepercayaan yang tidak kritis.
Melewatkan peninjauan karena keluarannya terlihat bagus, baik itu berasal dari model atau penguji senior, akan mengundang pola kegagalan yang sama.
Cara mengatasinya adalah menjadikan peninjauan menjadi kebiasaan dan simetris: perlakukan keluaran AI seperti Anda memperlakukan draf analis junior. Membutuhkan konteks di awal (sistem, data, persona, risiko). Periksa kasus negatif dan batas.
Bandingkan “perbedaan AI” dengan alur yang diinginkan, dan catat penerimaan versus pengerjaan ulang sehingga Anda dapat melihat bagian mana yang membantu dan bagian mana yang bermasalah.
Ini bukan tentang membuktikan siapa yang melakukan lebih sedikit kesalahan—ini tentang memadukan kekuatan yang saling melengkapi. Biarkan AI menghasilkan perancah terstruktur dengan cepat; biarkan manusia menerapkan penilaian terhadap risiko, kepatuhan, dan nuansa.
Dengan aturan sederhana bahwa tidak ada artefak yang masuk ke dalam suite tanpa izin manusia, kecepatan berhenti menciptakan hutang tersembunyi dan mulai bertambah menjadi kepercayaan.
Human-in-the-Loop Adalah Jalan Maju yang Lebih Cerdas
AI harus menambah penguji, bukan menggantikan mereka. Alur kerja human-in-the-loop (HITL) membuat orang tetap mengambil keputusan sekaligus mengubah AI menjadi mitra penyusunan yang produktif.
Kuncinya adalah panduan yang disengaja: semakin jelas dan terarah masukan manusia, semakin dapat diandalkan keluarannya.
Dalam praktiknya, hal ini berarti penguji tidak hanya “meminta dan berharap”. Mereka menyediakan konteks (sistem, data, persona, risiko), menentukan format yang diinginkan (langkah, BDD, atau teks bebas), dan menyatakan tepi dan kasus negatif di awal.
Organisasi mendukung hal ini dengan pagar pembatas, seperti templatpanduan gaya, dan kontrol berbasis peran sehingga pembuatannya konsisten dan dapat diaudit.
Dengan struktur ini, penguji meninjau draf ringan, menyempurnakan judul dan langkah, serta menerima atau menolak saran berdasarkan relevansi bisnis dan keakuratan teknis.
Keyakinan meningkat karena prosesnya disengaja: masukan dibatasi, keluaran diperiksa, dan tidak ada yang masuk ke dalam ruangan tanpa izin manusia.
Hal ini mencegah otomatisasi masuk/keluar sampah dan menjaga kepercayaan di seluruh regresi, kepatuhan, dan kolaborasi lintas tim.
AI yang Dipandu Manusia Membantu Setiap Penguji
Ketika AI diarahkan oleh manusia dan ditinjau sebelum melakukan sesuatu, AI menjadi alat pembelajaran dan pengganda kekuatan. Untuk penguji karir awal, generasi yang dipandu oleh manusia mengubah halaman kosong menjadi titik awal yang terstruktur.
Langkah-langkah draf dan skenario yang disarankan memudahkan untuk mengenali kondisi batas, jalur negatif, dan validasi kompleks, sehingga keterampilan terbentuk lebih cepat dan lebih sedikit dugaan.
Praktisi yang berpengalaman mendapatkan waktu untuk fokus pada pengujian eksplorasi, analisis risiko, dan strategi regresi karena penyusunan yang berulang-ulang tidak lagi menyita waktu. Tim global juga mendapat manfaatnya.
Menulis artefak pengujian dalam bahasa kedua atau ketiga tidak terlalu membebani jika AI membantu dengan kejelasan dan konsistensi. Hasilnya adalah dokumentasi yang lebih kuat, lebih sedikit stres, dan lebih banyak perhatian tersedia untuk pengujian lebih dalam.
Sebut saja AI yang mengutamakan peninjauan, diarahkan oleh manusia, atau sekadar AI kolaboratif. Idenya sama: manusia menetapkan konteks dan standar, AI mengusulkan rancangan, dan manusia menjaga kualitas dan akuntabilitas tetap utuh.
Pengujian yang Aman dan Cerdas Dimulai dengan Kepercayaan
Alat AI tidak selalu relevan dengan QA, namun banyak yang dibuat secara umum dan tidak memenuhi tuntutan pengujian nyata dalam konteks sehari-hari.
Dan itu tidak hanya terjadi pada mesin. Manusia juga melakukan kesalahan, terutama dalam tekanan waktu atau ketika persyaratan tidak jelas.
Pelajaran yang bisa diambil sama untuk keduanya – kualitas meningkat ketika kita memberikan konteks yang jelas, menggunakan struktur yang konsisten, dan menjaga titik pemeriksaan peninjauan tetap berjalan.
Perlakukan AI seperti rekan setim yang cakap dan membutuhkan pelatihan. Berikan sistem dukungan yang sama seperti yang kita andalkan untuk masyarakat. Perintah yang tepat terkait dengan alur kerja nyata, templat yang menentukan format yang diharapkan, dan tinjauan sejawat sebelum melakukan apa pun.
Padukan hal tersebut dengan tata kelola dasar untuk mengetahui data apa yang disimpan, memerlukan akses berbasis peran, mengenkripsi saat transit dan saat diam, serta menjaga jejak audit, dan Anda akan mengurangi tingkat kesalahan di kedua sisi jalur manusia/AI.
Tujuannya bukan untuk membuktikan siapa yang lebih pintar; itu untuk desain sebuah proses yang membuat setiap orang cenderung tidak melewatkan kasus-kasus rumit, salah membaca peraturan bisnis, atau mengirimkan artefak yang berisiko.
Konteks harus memimpin, bukan sekedar kemampuan mentah. Alat yang Anda pilih harus beradaptasi dengan aturan bisnis produk Anda, tumpukan teknologi, dan kewajiban kepatuhan, dan alat tersebut harus menghasilkan keluaran terstruktur yang diharapkan oleh alur kerja QA Anda.
Hal ini berarti memeriksa cara data ditangani, mengonfirmasi kontrol akses yang terperinci, dan memastikan model dapat mengikuti format langkah, BDD, dan teks bebas Anda.
Ekspresi yang jelas adalah penggandanya. Tim yang paling cepat mengadopsi AI cenderung adalah mereka yang mampu menerjemahkan maksud menjadi instruksi yang tepat.
Ketika orang mengartikulasikan tujuan, kendala, dan kasus-kasus penting dengan jelas, AI menghasilkan pekerjaan yang jauh lebih berguna. Tutup kesenjangan tersebut dengan pelatihan yang membangun kebiasaan mendorong dan mengajarkan penguji untuk “menunjukkan pemikiran mereka” dalam masukan.
Pasangkan kemampuan dengan tanggung jawab. Jadikan literasi data sebagai bagian dari orientasi sehingga semua orang mengetahui apa yang dianggap sebagai PII, kode kepemilikan, konten berhak cipta, atau materi sensitif lainnya, dan bagaimana aturan tersebut berlaku pada perintah dan keluaran.
Tetapkan hal-hal sederhana yang boleh dan tidak boleh dilakukan, catat penggunaan, dan simpan jejak audit. Dengan konteks yang kuat, komunikasi yang jelas, dan tata kelola yang mendasar, AI menjadi asisten yang dapat dipercaya dan bukan menjadi risiko kepatuhan.
Kepercayaan dan validasi tidak dapat dinegosiasikan. Bahkan model yang kuat pun memerlukan orang untuk menafsirkan hasil, mengonfirmasi cakupan, dan menegakkan standar. Cara tercepat untuk mendapatkan kepercayaan tersebut adalah transparansi.
Ketika AI dapat menunjukkan mengapa AI menyarankan pengujian atau urutan prioritas, sinyal apa yang digunakan, perubahan kode atau kesalahan apa yang memengaruhi pilihan, dan seberapa yakinnya, tim akan lebih mungkin meninjau, memvalidasi, dan mengadopsi hasilnya.
Carilah sistem yang:
• Jelaskan alasan di balik setiap saran dalam bahasa yang sederhana
• Tautan ke bukti yang digunakan, seperti perbedaan, kegagalan historis, atau kesenjangan cakupan
• Menampilkan skor kepercayaan diri atau risiko dengan petunjuk tentang apa yang akan meningkatkan atau menurunkannya
• Buatlah jejak audit yang jelas sehingga Anda dapat mereproduksi hasilnya dan melihat siapa yang menyetujuinya
Dengan tingkat visibilitas seperti itu, HITL menjadi human-on-top. Penguji menjaga akuntabilitas sementara AI memberikan rekomendasi yang dapat dilacak, lebih mudah divalidasi dan lebih aman untuk diukur.
Lihat platform tanpa kode terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



