• Laporan menemukan malware yang dihasilkan LLM masih gagal dalam pengujian dasar di lingkungan dunia nyata
  • GPT-3.5 langsung menghasilkan skrip berbahaya, sehingga memperlihatkan inkonsistensi keamanan yang besar
  • Pagar pembatas yang ditingkatkan di GPT-5 mengubah keluaran menjadi alternatif yang lebih aman dan tidak berbahaya

Meski ketakutan semakin meningkat LLM yang dipersenjataieksperimen baru telah mengungkapkan bahwa potensi keluaran berbahaya jauh dari dapat diandalkan.

Peneliti dari Netskope diuji apakah model bahasa modern dapat mendukung gelombang serangan siber otonom berikutnya, yang bertujuan untuk menentukan apakah sistem ini dapat menghasilkan kode berbahaya yang berfungsi tanpa bergantung pada logika hardcode.





Tautan sumber