Lebih dari setengah tanggapan chatgpt mungkin memiliki konten berbahaya. Sekarang Openai telah mengumumkan perubahan pada asisten intelijen buatan (AI) untuk mengidentifikasi situasi krisis mental.

Hari yang sama dengan Chatgpt adalah berita untuk mendorong bunuh diri Dari 16 tahun -yang, Openai telah mengumumkan perubahan dalam model AI -nya sehingga mereka mengidentifikasi situasi krisis mental selama percakapan dengan chatgpt, dengan Perlindungan baru dan penyumbatan konten.

ChatGPT sudah memiliki sejumlah langkah yang diaktifkan ketika mendeteksi dalam percakapan yang oleh pengguna mencoba untuk mengancam sendiri atau mengekspresikan niat bunuh diri, menawarkan sumber daya untuk mencari para ahli, memblokir konten yang sensitif atau ofensif, tidak menanggapi perintah mereka dan mencoba untuk menghalangi mereka.

Juga diaktifkan ketika pengguna berbagi niat mereka untuk menyebabkan kerusakan pada orang lain, yang dapat menyiratkan kecacatan akun dan pengaduan Kepada pihak berwenang, jika pengulas manusia menganggap bahwa ada risiko.

Pengukuran adalah diperkuat jika pengguna lebih kecil dari usia itu, memajukan openai, setelah, pada hari Selasa, orang tua dari seorang remaja Amerika yang berkomitmen untuk memiliki maju dengan gugatan terhadap perusahaan, menuduh chatgpt membantu putranya mengambil nyawanya sendiri.

Matt dan Maria Raine, orang tua dari Adam Raine 16 -Year -told yang melakukan bunuh diri pada bulan April, mereka memproses perusahaan karena peran yang dimainkan chatgpt. Orang tua menuduh chatbot untuk memprioritaskan interaksi dengan model daripada keamanan minor.

Openai dipaksa untuk bertindak

Perusahaan akan Tingkatkan deteksi dalam percakapan panjangkarena, “Sebagai percakapan [entre o utilizador e o chatbot] Peningkatan, bagian dari pelatihan keselamatan model dapat memburuk, ”menurut Openai.

Perubahan juga bertujuan memperkuat blokade kontensebagai gambar mutilasi diri.

Selain itu, Openai sedang mengeksplorasi cara Tempatkan pengguna dalam kontak dengan anggota keluarga Dan bukan hanya dengan layanan darurat.

“Ini bisa termasuk Pesan dengan satu klik atau panggilan Untuk kontak darurat, teman atau keluarga, dengan saran bahasa untuk memulai percakapannya kurang menakutkan, ”jelas pemilik perusahaan ChatGPT.

Chatgpt bisa menjadi musuh yang hebat

Pada awal Agustus, sebuah studi oleh Associated Press (AP) Digital Hatred Center menyimpulkan bahwa ChatGPT dapat memberikan informasi dan Instruksi tentang perilaku yang berbahaya bagi kaum muda, seperti penggunaan narkoba atau gangguan makan.

Studi ini menganalisis lebih dari tiga jam interaksi antara chatbot dan penyelidik yang telah melewati remaja yang rentan, dan meskipun model IA mengeluarkan peringatan terhadap kegiatan yang berisiko, terus memberikan rencana terperinci tentang perilaku berbahaya.

Peneliti dari Digital Hate Fighting Center (Pusat melawan kebencian digital) mengulangi pertanyaan mereka dalam skala besar, mengklasifikasikan lebih dari setengah dari 1.200 jawaban chatgpt sebagai berbahaya.



Tautan sumber

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini