• Peneliti dari Tiongkok dan Singapura mengusulkan AURA (Active Utility Reduction via Adulteration) untuk melindungi sistem GraphRAG
  • AURA sengaja meracuni grafik pengetahuan kepemilikan sehingga data yang dicuri menghasilkan halusinasi dan jawaban yang salah
  • Output yang benar memerlukan kunci rahasia; pengujian menunjukkan efektivitas ~94% dalam menurunkan utilitas KG yang dicuri

Peneliti dari universitas di China dan Singapura menemukan cara kreatif untuk mencegah pencurian data yang digunakan AI generatif.

Antara lain, ada dua elemen penting dalam Large Language Model (LLM) saat ini: data pelatihan, dan retrieval-augmented generation (RAG).





Tautan sumber