Lebih dari setengah JUTA pengguna ChatGPT menunjukkan tanda-tanda mania, psikosis, atau pikiran untuk bunuh diri setiap minggunya, OpenAI memperingatkan

Lebih dari setengah juta ObrolanGPT pengguna menunjukkan tanda-tanda mania, psikosis, atau pikiran untuk bunuh diri setiap minggu, menurut OpenAI.

Baru-baru ini postingan blogitu AI Giant memperingatkan bahwa 0,07 persen pengguna mingguannya menunjukkan tanda-tanda darurat kesehatan mental yang serius.

Meskipun angka ini mungkin terdengar kecil, dengan lebih dari 800 juta pengguna mingguan menurut CEO Sam Altmanyang menambahkan hingga 560.000 pengguna.

Sementara itu, 1,2 juta pengguna – 0,15 persen – mengirim pesan yang berisi ‘indikator eksplisit potensi perencanaan atau niat bunuh diri’ setiap minggunya.

OpenAI juga memperingatkan bahwa lebih dari satu juta pengguna setiap minggunya menunjukkan tanda-tanda ‘keterikatan eksklusif pada model’.

Perusahaan memperingatkan bahwa keterikatan emosional ini sering kali muncul ‘dengan mengorbankan hubungan di dunia nyata, kesejahteraan, atau kewajiban mereka’.

Menghadapi peningkatan pengawasan, perusahaan tersebut mengatakan telah membentuk panel yang terdiri lebih dari 170 pakar kesehatan mental untuk membantu AI merespons tanda-tanda masalah kesehatan mental dengan lebih tepat.

Namun, Dr Hamilton Morrin, seorang psikiater dari King’s College London, mengatakan kepada Daily Mail: ‘Sangat menggembirakan melihat perusahaan seperti OpenAI bekerja sama dengan dokter dan peneliti untuk mencoba meningkatkan keamanan model mereka, namun masalahnya mungkin masih jauh dari terselesaikan.’

Lebih dari setengah juta pengguna ChatGPT menunjukkan tanda-tanda mania, psikosis, atau pikiran untuk bunuh diri setiap minggunya, menurut OpenAI. Sebanyak 1,2 juta pengguna lainnya mengirim pesan yang berisi ‘indikator eksplisit potensi perencanaan atau niat bunuh diri’ setiap minggunya (gambar stok)

Hal ini terjadi ketika OpenAI menghadapi tuntutan hukum dari keluarga Adam Raine (foto), seorang remaja laki-laki yang meninggal karena bunuh diri setelah berbulan-bulan melakukan percakapan dengan chatbot.

Pembaruan ini muncul di tengah meningkatnya kekhawatiran bahwa chatbot AI dapat membahayakan kesehatan mental penggunanya.

Terutama, OpenAI saat ini sedang digugat oleh keluarga Adam Raineseorang remaja laki-laki yang meninggal karena bunuh diri setelah berbulan-bulan melakukan percakapan dengan chatbot.

Demikian pula, jaksa penuntut dalam pembunuhan-bunuh diri yang terjadi di Greenwich, Connecticut, menyatakan bahwa ChatGPT telah memicu delusi tersangka pelaku.

OpenAI mengatakan bahwa mereka kini telah melatih modelnya untuk memberikan respons yang lebih baik terhadap percakapan yang menunjukkan tanda-tanda masalah kesehatan mental atau delusi.

Dalam postingan blognya, perusahaan tersebut menulis: ‘Evaluasi otomatis kami yang baru memberi skor pada model GPT‑5 baru sebesar 91% sesuai dengan perilaku yang kami inginkan, dibandingkan dengan 77% untuk model GPT‑5 sebelumnya.’

Seorang juru bicara OpenAI juga mengatakan kepada DailyMail bahwa percakapan sensitif sulit dideteksi dan diukur, dan menambahkan bahwa jumlahnya dapat berubah secara signifikan seiring dengan dilakukannya lebih banyak penelitian.

Namun, para ahli berpendapat bahwa banyaknya pengguna yang menunjukkan tanda-tanda krisis kesehatan mental sangatlah memprihatinkan.

Dr Thomas Pollak, konsultan neuropsikiater dari South London dan Maudsley NHS Foundation Trust, mengatakan kepada Daily Mail: ‘Laporan OpenAI bahwa 0,07% pengguna menunjukkan kemungkinan tanda-tanda mania, psikosis, atau pemikiran untuk bunuh diri harus ditanggapi dengan serius, meskipun penting untuk menafsirkannya dengan hati-hati.

OpenAI mengatakan kini telah meningkatkan kemampuan chatbot untuk merespons ‘pesan sensitif’, termasuk pesan yang menunjukkan tanda-tanda mania atau psikosis.

‘Dengan 800 juta pengguna mingguan, bahkan persentase kecil pun mewakili jumlah orang yang sangat besar.’

Yang masih belum jelas adalah apakah hal ini hanya mewakili tren kesehatan mental pada populasi umum, atau apakah ChatGPT menyebabkan krisis pada penggunanya.

Para ilmuwan mengatakan saat ini tidak ada cukup data untuk membuktikan secara meyakinkan apakah chatbots menyebabkan kesehatan mental yang buruk.

Namun, Dr Pollak mengatakan semakin banyak bukti bahwa chatbots dapat memperkuat kecenderungan tertentu.

Misalnya, bot AI telah terbukti memperkuat ide-ide delusi atau muluk-muluk melalui respons yang terlalu dipersonalisasi atau mendukung.

Dr Pollak mengatakan: ‘Ini mungkin tidak berarti bahwa teknologi menyebabkan penyakit, namun dalam beberapa kasus teknologi dapat bertindak sebagai katalis atau penguat bagi individu yang rentan, seperti yang dapat dilakukan media sosial atau ganja dalam konteks lain.’

Di sisi lain, OpenAI menegaskan bahwa tidak ada hubungan sebab akibat antara kesehatan mental yang buruk dan penggunaan layanannya.

Postingan blog tersebut menyatakan: ‘Gejala kesehatan mental dan tekanan emosional umum terjadi pada masyarakat, dan meningkatnya basis pengguna berarti bahwa sebagian percakapan ChatGPT mencakup situasi ini.’

Hal ini terjadi setelah CEO OpenAI Sam Altman (foto) mengatakan perusahaan akan mulai melonggarkan pembatasan pada pelanggan yang menggunakan ChatGPT untuk dukungan kesehatan mental.

Selain itu, perusahaan juga percaya bahwa alatnya kini dapat membantu pengguna yang mungkin mengalami kesulitan dengan kesehatan mentalnya.

OpenAI mengatakan kini telah membangun serangkaian respons di ChatGPT yang mendorong pengguna untuk mencari bantuan di dunia nyata.

Pada saat yang sama, Sam Altman akan ‘melonggarkan’ pembatasan pengguna yang menggunakan chatbot untuk mendapatkan dukungan kesehatan mental.

Dalam postingan di X awal bulan ini, Altman menulis: ‘Kami membuat ChatGPT cukup ketat untuk memastikan kami berhati-hati dengan masalah kesehatan mental.

‘Kami menyadari hal ini membuatnya kurang berguna/menyenangkan bagi banyak pengguna yang tidak memiliki masalah kesehatan mental, namun mengingat keseriusan masalah ini, kami ingin memperbaikinya.’

Altman menambahkan bahwa perusahaannya kini memiliki ‘alat baru’ yang memungkinkan pengguna mulai menggunakan ChatGPT untuk tujuan kesehatan mental.

Di postingan yang sama, Mr Altman juga mengumumkan bahwa pengguna ChatGPT dewasa sekarang akan mampu menciptakan erotika yang dihasilkan AI.

SETENGAH PEKERJAAN SAAT INI AKAN HILANG BAGI AI DALAM WAKTU 15 TAHUN

Kai-Fu Lee, penulis AI Superpowers: China, Silicon Valley, dan New World Order, mengatakan kepada Dailymail.com bahwa dunia ketenagakerjaan sedang menghadapi krisis ‘mirip dengan yang dihadapi para petani selama revolusi industri.’

Setengah dari pekerjaan saat ini akan diambil alih oleh AI dalam waktu 15 tahun, salah satunya CinaPakar AI terkemuka telah memperingatkan.

Kai-Fu Lee, penulis buku terlaris AI Superpowers: China, Silicon Valley, dan New World Order, mengatakan kepada Dailymail.com bahwa dunia ketenagakerjaan sedang menghadapi krisis ‘mirip dengan yang dihadapi para petani selama revolusi industri.’

“Orang-orang belum sepenuhnya menyadari dampak AI terhadap pekerjaan mereka,” katanya.

Lee, yang merupakan seorang VC di Tiongkok dan pernah memimpin Google di wilayah tersebut, memiliki pengalaman lebih dari 30 tahun di bidang AI.

Ia percaya bahwa sangat penting untuk ‘memperingatkan masyarakat akan adanya pengungsian, dan memberi tahu mereka bagaimana mereka dapat mulai melakukan pelatihan ulang.’

Beruntungnya, katanya, tidak semuanya hilang demi kemanusiaan.

‘AI itu kuat dan mudah beradaptasi, tapi ia tidak bisa melakukan semua hal seperti yang dilakukan manusia.’

Lee percaya AI tidak dapat membuat, membuat konsep, atau melakukan perencanaan strategis yang kompleks, atau melakukan pekerjaan kompleks yang memerlukan koordinasi tangan-mata yang tepat.

Dia juga mengatakan bahwa mereka buruk dalam menangani ruang yang tidak diketahui dan tidak terstruktur.

Yang terpenting, ia mengatakan AI tidak bisa berinteraksi dengan manusia ‘persis seperti manusia’, dengan empati, hubungan antarmanusia, dan kasih sayang.



Tautan sumber