• Anthropic telah membatalkan janjinya untuk tidak melatih atau merilis model AI tanpa jaminan mitigasi keamanan terlebih dahulu
  • Perusahaan kini akan mengandalkan laporan transparansi dan peta jalan keselamatan dibandingkan prasyarat yang ketat
  • Kritikus berpendapat bahwa perubahan ini menunjukkan batas-batas komitmen sukarela terhadap keselamatan AI tanpa adanya peraturan yang mengikat

Antropis telah secara resmi mengabaikan janji utama untuk tidak melatih atau merilis sistem AI terdepan kecuali sistem tersebut dapat menjamin keamanan yang memadai terlebih dahulu. Perusahaan di belakang Claude mengkonfirmasi keputusan itu dalam sebuah wawancara dengan Waktumenandai berakhirnya kebijakan yang pernah membedakannya di kalangan pengembang AI. Kebijakan Penskalaan Bertanggung Jawab yang baru direvisi lebih berfokus pada memastikan perusahaan tetap kompetitif seiring memanasnya pasar AI.

Selama bertahun-tahun, Anthropic membingkai janji tersebut sebagai bukti bahwa mereka akan menolak tekanan komersial yang mendorong pesaing untuk mengirimkan sistem yang lebih kuat. Kebijakan ini secara efektif menghalangi mereka untuk melampaui tingkat tertentu kecuali jika langkah-langkah keselamatan yang telah ditentukan sudah ada. Kini, Anthropic menggunakan kerangka kerja yang lebih fleksibel daripada jeda kategoris.





Tautan sumber