
- Anthropic merilis Claude Opus 4.6, mengklaim peningkatan besar dalam mendeteksi kerentanan dengan tingkat keparahan tinggi
- Model menemukan 500+ kelemahan dengan memikirkan kode seperti peneliti manusia, mengungguli teknik fuzzing
- Berfokus pada pengamanan perangkat lunak sumber terbuka, dengan patch sudah tersedia; perusahaan mendesak tindakan cepat sementara AI masih dapat memberikan hasil dalam skala besar
Anthropic telah merilis Claude Opus 4.6, versi terbaru dari model bahasa besar yang paling kuat (LLM), dan mengklaim bahwa model ini “jauh lebih baik” dalam menemukan kerentanan dengan tingkat keparahan tinggi dibandingkan model sebelumnya. Faktanya, Opus 4.6 sejauh ini berhasil menemukan lebih dari 500 kelemahan tersebut.
Anthropic mengatakan Opus 4.6 menonjol karena caranya menemukan kerentanan “di luar kotak tanpa alat khusus tugas, perancah khusus, atau perintah khusus.”
Opus juga menambahkan bahwa tidak seperti fuzzing, yang merupakan teknik perburuan kerentanan standar, Opus bekerja dengan mempertimbangkan kode “seperti yang dilakukan peneliti manusia”, artinya Opus melihat perbaikan yang lalu untuk menemukan bug serupa yang belum diatasi, menemukan pola yang cenderung menyebabkan masalah, dan memahami logika “dengan cukup baik untuk mengetahui secara pasti masukan apa yang dapat merusaknya.”
Memperbaiki perangkat lunak sumber terbuka
Bahkan ketika menggunakannya pada beberapa basis kode yang paling teruji, proyek yang memiliki fuzzer yang berjalan melawannya selama bertahun-tahun, Opus masih berhasil menemukan kelemahan dengan tingkat keparahan tinggi yang tidak terdeteksi radar selama “dekade”.
Anthropic mengatakan mereka mulai menggunakan Claude untuk membantu memperbaiki kelemahan dalam perangkat lunak sumber terbuka, terutama karena perangkat lunak tersebut berjalan “di mana saja, dari sistem perusahaan hingga infrastruktur penting”, dan karena kerentanan dalam perangkat lunak ini dirasakan di internet. Selain itu, sebagian besar perangkat lunak sumber terbuka populer yang digunakan saat ini dikelola oleh tim kecil yang terdiri dari sukarelawan, yang berarti sumber dayanya sangat terbatas.
Hasilnya sangat luar biasa, kata perusahaan tersebut: “Sejauh ini, kami telah menemukan dan memvalidasi lebih dari 500 kerentanan dengan tingkat keparahan tinggi. Kami telah mulai melaporkannya dan melihat tambalan awal kami berhasil, dan kami terus bekerja sama dengan pengelola untuk menambal yang lainnya.”
Laporan tersebut menyimpulkan bahwa model AI kini dapat menemukan kerentanan dengan tingkat keparahan tinggi dalam skala besar, namun menekankan bahwa hal tersebut mungkin tidak akan terjadi dalam waktu dekat. “Ini adalah momen untuk bergerak cepat untuk memberdayakan para pembela HAM dan mengamankan sebanyak mungkin kode selama jendela masih ada.”
Antivirus terbaik untuk semua anggaran
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.



