
Dalam beberapa tahun terakhir, lanskap digital telah berubah secara dramatis. Apa yang dulu tampak seperti fiksi ilmiah, seperti pemalsuan video, kloning suara, dan pertukaran wajah secara real-time, kini menjadi bagian dari kehidupan sehari-hari.
Kepala Arsitek dan CISO di Tools for Humanity.
Jika kita tidak bisa lagi membedakan mana yang asli dan mana yang palsu, bagaimana kita memulihkan kepercayaan digital?
Skala ancamannya
Ancaman ini meluas ke seluruh aspek masyarakat. Penipu sekarang menggunakan dukungan selebriti yang dipalsukan untuk mencuri jutaan dolar melalui skema investasi media sosial.
Setelah bencana alam, penipu menyebarkan permintaan video yang dibuat oleh AI dengan menggunakan wajah pekerja bantuan. Kepalsuan politik menyebar dengan cepat, memperlihatkan para kandidat mengatakan hal-hal yang tidak pernah mereka katakan.
Lembaga keuangan menghadapi tantangan yang sangat berat. Penipuan terkait deepfake meningkat sebesar 3.000 persen pada tahun 2023, dan rata-rata kerugian per insiden mencapai sekitar 500.000 dolar.
Di balik statistik ini terdapat konsekuensi nyata terhadap kemanusiaan. Karyawan tertipu untuk mengotorisasi pembayaran ke akun palsu. Konsumen terpikat ke dalam penipuan melalui dukungan palsu atau suara kloning. Pengguna lanjut usia, yang seringkali kurang percaya diri secara digital, adalah kelompok yang paling terkena dampaknya.
Mengapa pertahanan tradisional gagal
Respons naluriahnya adalah memperluas deteksi, moderasi, dan pemeriksaan Kenali Pelanggan Anda (KYC). Namun langkah-langkah ini terbukti tidak memadai.
Alat deteksi terkunci dalam perlombaan senjata dengan AI generatif. Moderasi dalam skala besar memerlukan biaya yang besar dan kontroversial. Peningkatan KYC menambah gesekan bagi konsumen tanpa menyelesaikan kesulitan dalam menemukan produk palsu secara real-time.
KYC juga meningkatkan risiko konten yang dapat mengidentifikasi pengguna (seperti selfie dan dokumen gambar) mungkin bocor atau dicuri, sehingga mempercepat kemampuan AI untuk menyamar sebagai orang sungguhan.
Ketika konten buatan AI semakin sulit dibedakan, gagasan untuk menemukan konten palsu mulai runtuh – hanya 34 persen orang yang percaya bahwa mudah untuk membedakan konten AI dari materi buatan pengguna. Ini bukan hanya masalah penipuan. Ini tentang masa depan kepercayaan terhadap interaksi digital dan kredibilitas AI itu sendiri.
Bukti kemanusiaan sebagai perlindungan yang lebih cerdas
Jika pendeteksian yang palsu gagal, pendekatan yang lebih cerdas adalah membuktikan yang asli. Bukti kemanusiaan berarti memverifikasi bahwa orang asli berada di balik suatu interaksi, tanpa menyimpan atau membagikan biometrik sensitif data.
Kegunaannya jelas. Bank dapat menerapkan bukti cek manusia saat membuka rekening atau mengotorisasi transaksi. Platform video dapat menghalangi eksekutif deepfake untuk menipu rekan kerja.
Pelanggan tim layanan dapat memisahkan penelepon asli dari penipuan yang didorong oleh AI. Daripada menunggu peraturan, dunia usaha dapat memimpin dalam hal perlindungan konsumen.
Memasukkan asal dan bukti verifikasi manusia ke dalam sistem digital menunjukkan tanggung jawab, transparansi, dan kepedulian. Hal ini juga membangun kepercayaan masyarakat dengan menunjukkan bahwa teknologi dapat digunakan untuk melindungi, bukan mengeksploitasi, masyarakat yang dilayaninya.
Biaya dan keyakinan: mengapa sumbernya harus mengalahkan deepfakes
Argumen finansial juga sama kuatnya. Pencegahan lebih murah dibandingkan penggantian biaya dan tidak terlalu merusak kepercayaan konsumen. Lembaga keuangan menghabiskan miliaran dolar setiap tahunnya untuk mengganti biaya korban penipuan, sementara regulator menuntut kompensasi yang lebih besar. Membangun upaya perlindungan yang sistemik dapat mengurangi biaya-biaya tersebut pada sumbernya.
Pada saat yang sama, kepercayaan terhadap sistem digital semakin terkikis: 67% orang dewasa di Inggris mengatakan bahwa mereka semakin tidak mempercayai internet, dan hampir separuh (49%) memercayai kurang dari separuh apa yang mereka lihat secara online.
Penurunan ini melemahkan perdagangan digital, memperlambat adopsi layanan inovatif, dan memicu penolakan terhadap alat-alat yang didukung AI yang dapat memberikan manfaat nyata. produktivitas keuntungan.
Ketika aset digital dan mata uang kripto bergerak lebih jauh ke dalam keuangan arus utama, kebutuhan akan sumber yang kuat menjadi semakin tajam. Tanpa keyakinan pada siapa yang bertransaksi, atau apakah mereka manusia, stabilitas akan terancam.
Memilih jalan yang benar
Kita berada di persimpangan jalan. Satu jalan menimbulkan keraguan dan kecurigaan dalam setiap interaksi. Yang kedua mengarah pada kepercayaan yang diperbarui, yang dibangun atas dasar perlindungan yang membuktikan kemanusiaan pada saat-saat yang paling penting
Bukti kemanusiaan harus dilihat sebagai bagian digital yang hilang infrastrukturyayasan yang memungkinkan masyarakat, dunia usaha, dan pemerintah berinteraksi dengan percaya diri di era AI. Tantangannya bukanlah menemukan yang palsu, tapi membuktikan yang asli.
Memperluas visi ini memerlukan kesadaran bahwa kepercayaan tidak dapat diperbaiki setelah sistem gagal; itu harus tertanam berdasarkan desain. Organisasi yang bertindak sekarang tidak hanya akan mengurangi penipuan dan risiko operasional namun juga membedakan dirinya di pasar di mana kepercayaan digital dengan cepat menjadi keunggulan kompetitif.
Konsumen sudah menuntut jaminan yang lebih kuat bahwa orang dan layanan yang berinteraksi dengan mereka adalah asli.
Saat deepfake berkembang biak, asal muasalnya akan bergeser dari niche tertentu keamanan fitur untuk harapan universal. Dengan merangkul aspek kemanusiaan yang dapat diverifikasi sebagai bagian dari arsitektur digital inti, kita dapat menciptakan lingkungan di mana inovasi berkembang karena pengguna merasa terlindungi, bukan terekspos, oleh teknologi yang membentuk kehidupan mereka sehari-hari.
Kami telah menampilkan perangkat lunak enkripsi terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



