
- Anthropic telah membatalkan janjinya untuk tidak melatih atau merilis model AI tanpa jaminan mitigasi keamanan terlebih dahulu
- Perusahaan kini akan mengandalkan laporan transparansi dan peta jalan keselamatan dibandingkan prasyarat yang ketat
- Kritikus berpendapat bahwa perubahan ini menunjukkan batas-batas komitmen sukarela terhadap keselamatan AI tanpa adanya peraturan yang mengikat
Antropis telah secara resmi mengabaikan janji utama untuk tidak melatih atau merilis sistem AI terdepan kecuali sistem tersebut dapat menjamin keamanan yang memadai terlebih dahulu. Perusahaan di belakang Claude mengkonfirmasi keputusan itu dalam sebuah wawancara dengan Waktumenandai berakhirnya kebijakan yang pernah membedakannya di kalangan pengembang AI. Kebijakan Penskalaan Bertanggung Jawab yang baru direvisi lebih berfokus pada memastikan perusahaan tetap kompetitif seiring memanasnya pasar AI.
Selama bertahun-tahun, Anthropic membingkai janji tersebut sebagai bukti bahwa mereka akan menolak tekanan komersial yang mendorong pesaing untuk mengirimkan sistem yang lebih kuat. Kebijakan ini secara efektif menghalangi mereka untuk melampaui tingkat tertentu kecuali jika langkah-langkah keselamatan yang telah ditentukan sudah ada. Kini, Anthropic menggunakan kerangka kerja yang lebih fleksibel daripada jeda kategoris.
Perusahaan menegaskan perubahan tersebut bersifat pragmatis dan bukan ideologis. Para eksekutif berpendapat bahwa pembatasan sepihak tidak lagi masuk akal di pasar yang ditentukan oleh pengulangan yang cepat dan urgensi geopolitik. Namun perubahan ini terasa seperti titik balik dalam cara pandang industri AI mengenai pengaturan mandiri.
Di bawah Kebijakan Penskalaan Bertanggung Jawab (Responsible Scaling Policy) yang baru, Anthropic berjanji untuk menerbitkan “Frontier Safety Roadmaps” (Peta Jalan Keselamatan Perbatasan) secara terperinci yang menguraikan tonggak sejarah keselamatan yang direncanakan, bersama dengan “Laporan Risiko” reguler yang menilai kemampuan model dan potensi ancaman. Perusahaan juga mengatakan bahwa mereka akan menyamai atau melampaui upaya keselamatan pesaing dan menunda pengembangan jika mereka yakin bahwa merekalah yang terdepan dan mengidentifikasi risiko bencana yang signifikan. Apa yang tidak lagi mereka lakukan adalah berjanji untuk menghentikan pelatihan sampai semua mitigasi dijamin sebelumnya.
Pengguna sehari-hari mungkin tidak melihat perubahan apa pun saat mereka berinteraksi dengan Claude atau alat AI lainnya. Namun batasan yang mengatur bagaimana sistem tersebut dilatih memengaruhi segalanya mulai dari keakuratan hingga penyalahgunaan yang bersifat curang. Ketika perusahaan, setelah ditentukan oleh prasyarat ketatnya, memutuskan bahwa kondisi tersebut tidak lagi dapat diterapkan, hal ini menandakan adanya kalibrasi ulang yang lebih luas dalam industri.
Kontrol Claude
Ketika Anthropic memperkenalkan kebijakan aslinya pada tahun 2023, beberapa eksekutif berharap kebijakan tersebut dapat menginspirasi pesaing atau bahkan menginformasikan peraturan pada akhirnya. Momentum regulasi tersebut tidak pernah terwujud sepenuhnya. Perundang-undangan AI federal masih terhenti, dan iklim politik yang lebih luas tidak lagi mendukung pengembangan kerangka kerja apa pun. Perusahaan dibiarkan memilih antara pengendalian diri secara sukarela atau kelangsungan hidup kompetitif.
Anthropic berkembang pesat, dengan pendapatan dan portofolionya melampaui pesaingnya seperti OpenAI dan Google, bahkan mengolok-olok di ChatGPT mendapatkan iklan di iklan Super Bowl. Namun perusahaan jelas melihat batasan keselamatan sebagai hambatan terhadap pertumbuhan tersebut.
Anthropic berpendapat bahwa kerangka kerja yang direvisi mempertahankan perlindungan yang berarti. Peta Jalan yang baru ini dimaksudkan untuk menciptakan tekanan internal agar memprioritaskan penelitian mitigasi. Laporan Risiko yang akan datang bertujuan untuk memberikan penjelasan publik yang lebih jelas tentang bagaimana kemampuan model dapat menyebabkan penyalahgunaan.
“Kebijakan baru ini masih mencakup beberapa batasan, namun janji intinya, bahwa Anthropic tidak akan merilis model kecuali mereka dapat menjamin mitigasi keselamatan yang memadai sebelumnya, sudah tidak ada lagi,” kata Nik Kairinos, CEO dan salah satu pendiri RAIDS AI, sebuah organisasi yang berfokus pada pemantauan independen dan deteksi risiko dalam AI. “Inilah mengapa pemantauan sistem AI secara terus-menerus dan independen menjadi penting. Komitmen sukarela dapat diubah. Regulasi yang didukung oleh pengawasan real-time tidak bisa dilakukan.”
Kairinos juga mencatat ironi dalam pemberian dana sebesar $20 juta dari Anthropic beberapa minggu lalu kepada Public First Action, sebuah kelompok yang mendukung kandidat kongres yang berjanji untuk mendorong peraturan keselamatan AI. Kontribusi tersebut, menurutnya, menggarisbawahi kompleksitas saat ini. Perusahaan dapat menganjurkan peraturan yang lebih kuat sekaligus mengkalibrasi ulang kendala internal mereka.
Pertanyaan lebih luas yang dihadapi industri ini adalah apakah norma-norma sukarela dapat membentuk arah teknologi transformatif. Anthropic pernah mencoba untuk menjadikan dirinya sebagai model pengekangan. Kebijakan yang direvisi mengharuskannya untuk memberikan kompensasi terhadap persaingan. Hal ini tidak berarti keselamatan telah diabaikan, namun hal ini berarti tatanan operasional telah berubah.
Rata-rata orang mungkin tidak membaca Kebijakan Penskalaan yang Bertanggung Jawab atau Laporan Risiko, namun mereka hidup dengan dampak hilir dari keputusan tersebut. Anthropic berpendapat bahwa penelitian keselamatan yang bermakna memerlukan upaya untuk tetap berada di garis depan, bukan mundur darinya. Apakah filosofi tersebut terbukti meyakinkan atau meresahkan sangat bergantung pada pandangan seseorang tentang seberapa cepat AI harus bergerak dan seberapa besar risiko yang dapat ditoleransi oleh masyarakat sebagai imbalan atas kemajuan.
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.



