• NCSC Inggris memperingatkan serangan injeksi yang cepat mungkin tidak akan pernah dapat sepenuhnya dimitigasi karena desain LLM
  • Tidak seperti injeksi SQL, LLM tidak memiliki pemisahan antara instruksi dan data, sehingga menjadikannya rentan
  • Para pengembang didesak untuk memperlakukan LLM sebagai “deputi yang membingungkan” dan merancang sistem yang membatasi keluaran yang dikompromikan

Serangan injeksi cepat, yang berarti upaya memanipulasi model bahasa besar (LLM) dengan menyematkan instruksi tersembunyi atau berbahaya di dalam konten yang disediakan pengguna, mungkin tidak akan pernah bisa dimitigasi dengan baik.

Hal ini menurut Direktur Teknis Riset Platform Pusat Keamanan Siber Nasional (NCSC) Inggris, David C, yang mempublikasikan penilaiannya di blog menilai tekniknya. Dalam artikel tersebut, ia berpendapat bahwa banyak orang membandingkan injeksi cepat dengan injeksi SQL, yang tidak akurat, karena injeksi cepat pada dasarnya berbeda dan bisa dibilang lebih berbahaya.





Tautan sumber