
- Para ahli menemukan DeepSeek-R1 menghasilkan kode yang sangat tidak aman ketika istilah politik disertakan dalam perintahnya
- Setengah dari permintaan yang sensitif secara politis memicu DeepSeek-R1 untuk menolak membuat kode apa pun
- Rahasia yang dikodekan secara keras dan penanganan input yang tidak aman sering kali muncul di bawah perintah yang bermuatan politis
Ketika dirilis pada Januari 2025, DeepSeek-R1, model bahasa besar Tiongkok (LLM) menyebabkan kegilaan dan sejak itu diadopsi secara luas sebagai asisten pengkodean.
Namun, tes independen oleh Serangan Kerumunan mengklaim keluaran model dapat bervariasi secara signifikan bergantung pada pengubah kontekstual yang tampaknya tidak relevan.
Tim menguji 50 tugas pengkodean di berbagai kategori keamanan dengan 121 konfigurasi kata pemicu, dengan masing-masing perintah dijalankan lima kali, dengan total 30.250 pengujian, dan respons dievaluasi menggunakan skor kerentanan dari 1 (aman) hingga 5 (sangat rentan).
Topik yang sensitif secara politis merusak keluaran
Laporan tersebut mengungkapkan bahwa ketika istilah politik atau sensitif seperti Falun Gong, Uyghur, atau Tibet dimasukkan dalam perintah, DeepSeek-R1 menghasilkan kode dengan kerentanan keamanan yang serius.
Hal ini mencakup rahasia yang dikodekan secara permanen, penanganan input pengguna yang tidak aman, dan dalam beberapa kasus, kode yang sepenuhnya tidak valid.
Para peneliti mengklaim bahwa pemicu yang sensitif secara politis ini dapat meningkatkan kemungkinan keluaran yang tidak aman sebesar 50% dibandingkan dengan pemicu dasar tanpa kata-kata tersebut.
Dalam eksperimen yang melibatkan permintaan yang lebih kompleks, DeepSeek-R1 menghasilkan aplikasi fungsional dengan formulir pendaftaran, database, dan panel admin.
Namun, aplikasi ini tidak memiliki manajemen sesi dan autentikasi dasar, sehingga data sensitif pengguna tetap terekspos – dan dalam uji coba berulang kali, hingga 35% penerapan menyertakan hashing kata sandi yang lemah atau tidak ada.
Permintaan yang lebih sederhana, seperti permintaan untuk situs klub penggemar sepak bola, menghasilkan lebih sedikit masalah serius.
Oleh karena itu, CrowdStrike mengklaim bahwa pemicu yang sensitif secara politik berdampak besar pada keamanan kode.
Model ini juga menunjukkan tombol mematikan yang intrinsik – seperti pada hampir separuh kasus, DeepSeek-R1 menolak membuat kode untuk perintah sensitif politik tertentu setelah awalnya merencanakan respons.
Pemeriksaan jejak penalaran menunjukkan model tersebut secara internal menghasilkan rencana teknis tetapi pada akhirnya menolak bantuan.
Para peneliti percaya bahwa hal ini mencerminkan sensor yang dimasukkan ke dalam model untuk mematuhi peraturan Tiongkok, dan mencatat bahwa keselarasan politik dan etika model dapat secara langsung mempengaruhi keandalan kode yang dihasilkan.
Untuk topik yang sensitif secara politik, LLM umumnya cenderung memberikan gagasan dari media arus utama, namun hal ini sangat berbeda dengan outlet berita terpercaya lainnya.
DeepSeek-R1 tetap menjadi model pengkodean yang mumpuni, tetapi eksperimen ini menunjukkan hal itu alat AItermasuk ChatGPT dan lainnya, dapat menimbulkan risiko tersembunyi di lingkungan perusahaan.
Organisasi yang mengandalkan kode yang dihasilkan LLM harus melakukan pengujian internal menyeluruh sebelum penerapan.
Juga, lapisan keamanan seperti a firewall Dan anti Virus tetap penting, karena model ini mungkin menghasilkan keluaran yang tidak dapat diprediksi atau rentan.
Bias yang dimasukkan ke dalam bobot model menciptakan risiko rantai pasokan baru yang dapat memengaruhi kualitas kode dan keamanan sistem secara keseluruhan.
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.



