
- Peneliti dari Tiongkok dan Singapura mengusulkan AURA (Active Utility Reduction via Adulteration) untuk melindungi sistem GraphRAG
- AURA sengaja meracuni grafik pengetahuan kepemilikan sehingga data yang dicuri menghasilkan halusinasi dan jawaban yang salah
- Output yang benar memerlukan kunci rahasia; pengujian menunjukkan efektivitas ~94% dalam menurunkan utilitas KG yang dicuri
Peneliti dari universitas di China dan Singapura menemukan cara kreatif untuk mencegah pencurian data yang digunakan AI generatif.
Antara lain, ada dua elemen penting dalam Large Language Model (LLM) saat ini: data pelatihan, dan retrieval-augmented generation (RAG).
Data pelatihan mengajarkan LLM cara kerja bahasa dan memberinya pengetahuan luas hingga batas tertentu. Ini tidak memberikan model akses ke informasi baru, dokumen pribadi, atau fakta yang berubah dengan cepat. Setelah pelatihan selesai, pengetahuan itu dibekukan.
Mengganti peralatan yang sudah ketinggalan jaman
RAG, di sisi lain, ada karena banyak pertanyaan nyata bergantung pada data terkini, spesifik, atau kepemilikan (seperti kebijakan perusahaan, berita terkini, laporan internal, atau dokumen teknis khusus). Daripada melatih ulang model setiap kali data berubah, RAG membiarkan model mengambil informasi yang relevan sesuai permintaan dan kemudian menulis jawaban berdasarkan informasi tersebut.
Pada tahun 2024, Microsoft datang dengan GraphRAG – versi RAG yang mengatur informasi yang diambil sebagai grafik pengetahuan, bukan daftar dokumen datar. Hal ini membantu model memahami bagaimana entitas, fakta, dan hubungan terhubung satu sama lain. Hasilnya, AI dapat menjawab pertanyaan yang lebih kompleks, mengikuti hubungan antar konsep, dan mengurangi kontradiksi dengan memikirkan hubungan yang terstruktur, bukan teks yang terisolasi.
Karena grafik pengetahuan ini cukup mahal, grafik pengetahuan ini dapat menjadi sasaran penjahat dunia maya, negara-bangsa, dan entitas jahat lainnya.
Dalam makalah penelitian mereka yang berjudul Membuat Pencurian Tidak Berguna: Perlindungan Grafik Pengetahuan Kepemilikan Berbasis Pemalsuan dalam Sistem GraphRAG, penulis Weijie Wang, Peizhuo Lv, dkk. mengusulkan mekanisme pertahanan yang disebut Pengurangan Utilitas Aktif melalui Pemalsuan, atau AURA – yang meracuni KG, membuat LLM memberikan jawaban yang salah dan berhalusinasi.
Satu-satunya cara untuk mendapatkan jawaban yang benar adalah dengan memiliki kunci rahasia. Para peneliti mengatakan sistem ini bukannya tanpa kekurangan, namun berfungsi dengan baik dalam banyak kasus (94%).
“Dengan menurunkan utilitas KG yang dicuri, AURA menawarkan solusi praktis untuk melindungi kekayaan intelektual di GraphRAG,” kata penulisnya.
Melalui Daftar
Antivirus terbaik untuk semua anggaran
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.



