
- OpenAI memperingatkan bahwa LLM di masa depan dapat membantu pengembangan zero-day atau spionase dunia maya tingkat lanjut
- Perusahaan berinvestasi pada peralatan defensif, kontrol akses, dan program keamanan siber berjenjang
- Dewan Risiko Frontier yang baru akan memandu upaya perlindungan dan kemampuan yang bertanggung jawab di seluruh model frontier
Model Bahasa Besar OpenAI (LLM) di masa depan dapat menimbulkan risiko keamanan siber yang lebih tinggi karena, secara teori, model tersebut dapat mengembangkan eksploitasi jarak jauh zero-day terhadap sistem yang terlindungi dengan baik, atau membantu kampanye spionase siber yang rumit dan tersembunyi.
Hal ini menurut OpenAI sendiri yang dalam blognya baru-baru ini mengatakan bahwa kemampuan cyber ada di dalamnya model AI sedang “maju pesat”.
Meskipun hal ini mungkin terdengar mengerikan, OpenAI sebenarnya melihat hal ini dari sudut pandang positif, dengan mengatakan bahwa kemajuan tersebut juga membawa “manfaat yang berarti bagi pertahanan siber”.
Merusak browser
Untuk bersiap menghadapi model masa depan yang mungkin disalahgunakan dengan cara ini, OpenAI mengatakan pihaknya “berinvestasi dalam memperkuat model untuk tugas-tugas keamanan siber defensif dan menciptakan alat yang memungkinkan para pembela HAM untuk lebih mudah melakukan alur kerja seperti mengaudit kode dan menambal kerentanan”.
Cara terbaik untuk melakukannya, menurut blog tersebut, adalah kombinasi kontrol akses, penguatan infrastruktur, kontrol jalan keluar, dan pemantauan.
Lebih lanjut, OpenAI mengumumkan bahwa mereka akan segera memperkenalkan program yang akan memberikan pengguna dan pelanggan yang mengerjakan tugas keamanan siber akses terhadap peningkatan kemampuan, secara berjenjang.
Akhirnya, MicrosoftRaksasa AI yang didukung oleh AI mengatakan pihaknya berencana membentuk kelompok penasihat yang disebut Frontier Risk Council. Kelompok ini harus terdiri dari para pakar dan praktisi keamanan siber berpengalaman dan, setelah fokus awal pada keamanan siber, harus memperluas jangkauannya ke tempat lain.
“Para anggota akan memberikan masukan mengenai batasan antara kemampuan yang berguna dan bertanggung jawab serta potensi penyalahgunaan, dan pembelajaran ini akan secara langsung memberi masukan bagi evaluasi dan upaya perlindungan kami. Kami akan segera menyampaikan informasi lebih lanjut kepada dewan,” tulis blog tersebut.
OpenAI juga mengatakan bahwa penyalahgunaan dunia maya dapat terjadi “dari model frontier mana pun di industri”, itulah sebabnya OpenAI menjadi bagian dari Frontier Model Forum, di mana OpenAI berbagi pengetahuan dan praktik terbaik dengan mitra industri.
“Dalam konteks ini, pemodelan ancaman membantu memitigasi risiko dengan mengidentifikasi bagaimana kemampuan AI dapat digunakan, di mana terdapat hambatan kritis bagi berbagai pelaku ancaman, dan bagaimana model frontier dapat memberikan peningkatan yang berarti.”
Melalui Reuters
Antivirus terbaik untuk semua anggaran
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.



