
Seorang peneliti yang dihormati untuk AI raksasa Anthropic telah berhenti dari pekerjaannya, meninggalkan peringatan mengerikan bahwa dunia berada dalam bahaya akibat penyalahgunaan komputer canggih.
Mrinank Sharma, peneliti keamanan AI di Anthropic, mengunggah surat pengunduran dirinya di media sosial pada hari Senin, mengklaim ‘dunia berada dalam bahaya’ karena kemajuan AI dan risiko terkait seperti bioterorisme.
Anthropic membangun sistem AI canggih seperti chatbots dan alat yang dapat menghasilkan teks atau ide, termasuk program populer Claude.
Namun, Sharma mengklaim dalam suratnya bahwa dia dan perusahaan AI telah ditekan untuk mengesampingkan nilai-nilai mereka demi memprioritaskan pertumbuhan kecerdasan buatan.
Pekerjaannya di Anthropic, yang diperkirakan memiliki gaji lebih dari $200.000, adalah memimpin tim yang berfokus pada ‘keamanan AI’, yang berarti mencari cara untuk memastikan AI tidak menyebabkan masalah. merugikan manusia yang menggunakannya.
Misalnya, Sharma mencatat bahwa dia telah membantu menciptakan pertahanan sehingga AI tidak dapat digunakan oleh pelaku kejahatan untuk membuat zat berbahaya seperti senjata biologis.
Dia juga mempelajari masalah seperti ‘penjilatan AI’, di mana chatbot AI mungkin terlalu menyanjung atau menyetujui pengguna dengan cara yang dapat memanipulasi mereka dan mendistorsi pemahaman orang terhadap realitas.
“Kita tampaknya mendekati ambang batas di mana kebijaksanaan kita harus tumbuh sesuai dengan kapasitas kita untuk mempengaruhi dunia, jika tidak kita akan menghadapi konsekuensinya,” tulis Sharma dalam suratnya.
Mrinank Sharma (Foto) mengundurkan diri dari perannya sebagai ilmuwan keselamatan AI di Anthropic, memperingatkan bahwa penelitian AI yang tidak terkendali akan membahayakan dunia
Anthropic telah menciptakan asisten AI yang dikenal sebagai Claude (Stock Image)
Pengunduran diri Sharma terjadi segera, menjauh dari perannya yang penting di Anthropic setelah hampir tiga tahun.
Warga California ini pernah belajar di Universitas Oxford dan Universitas Cambridge, dan memperoleh gelar Master di bidang teknik dan pembelajaran mesin.
Namun, pakar keamanan AI tersebut mengatakan bahwa berbagai permasalahan global yang saling terkait, termasuk perang, pandemi, perubahan iklim, dan pertumbuhan AI yang tidak terkendali, semuanya memengaruhi keputusannya untuk berhenti.
Sharma mengungkapkan kekhawatirannya bahwa program AI yang kuat akan memudahkan para ilmuwan untuk merumuskan senjata biologis yang dapat menyebarkan penyakit ke seluruh dunia.
Tanpa peraturan yang tepat mengenai penggunaan AI, alat-alat canggih ini dapat dengan cepat menjawab pertanyaan-pertanyaan sulit tentang biologi dan bahkan menyarankan perubahan genetik untuk membuat virus lebih menular atau mematikan.
Berkat model bahasa besar, seperti ChatGPT, yang dilatih pada jutaan makalah ilmiah, AI berpotensi memberikan petunjuk langkah demi langkah untuk membuat senjata biologis baru atau membantu melewati pemeriksaan keamanan pada layanan pembuatan DNA.
Sharma juga menyebutkan kemampuan AI untuk mengacaukan pikiran orang-orang, memberikan jawaban kepada masyarakat yang sangat disesuaikan dengan pandangan pribadi setiap orang sehingga hal itu menyesatkan keputusan mereka dan melemahkan pemikiran independen.
‘Saya terus-menerus menyadari diri saya memperhitungkan situasi kami. Dunia sedang dalam bahaya. Dan bukan hanya dari AI,’ mantan ilmuwan Antropik dinyatakan dalam suratnya yang dibagikan pada X.
Anthropic didirikan oleh mantan karyawan OpenAI, yang menciptakan ChatGPT, yang tidak puas dengan komitmen OpenAI terhadap keselamatan publik
Postingan Sharma di X telah dilihat lebih dari 14 juta kali pada hari Kamis. Penyair yang menggambarkan dirinya sendiri mengatakan bahwa langkah karier berikutnya akan melibatkan sesuatu di mana dia dapat berkontribusi sedemikian rupa sehingga dia ‘merasa sepenuhnya dalam integritas saya.’
Anthropic adalah perusahaan AI yang didirikan pada tahun 2021 oleh tujuh mantan karyawan OpenAI, perusahaan yang menciptakan ChatGPT.
Kelompok tersebut termasuk CEO bersaudara Dario Amodei dan Presiden Anthropic Daniela Amodei, yang mengatakan mereka keluar karena kekhawatiran atas kurangnya fokus OpenAI pada keselamatan dan ingin menciptakan sistem AI yang andal dan dapat ditafsirkan serta memprioritaskan kesejahteraan manusia.
Produk utama perusahaan adalah model AI keluarga Claude, yang mencakup asisten chatbot untuk pengkodean dan tugas pribadi dan profesional lainnya.
Anthropic dilaporkan menguasai sekitar 40 persen pasar AI dalam hal asisten AI, dengan pendapatan tahunan mereka diperkirakan mencapai $9 miliar.
Namun, Dario Amodei secara terbuka menganjurkan penerapan peraturan yang lebih ketat pada semua sistem AI, dengan memberikan kesaksian di hadapan Senat AS pada tahun 2023 tentang prinsip-prinsip AI. pengawasan terhadap teknologi baru ini.
Amodei baru-baru ini mendorong standar federal yang bijaksana untuk menggantikan undang-undang negara bagian yang mengatur penggunaan AI di AS.



