
AI tidak merasa aman saat ini. Hampir setiap minggu selalu ada terbitan baru. Dari model AI berhalusinasi dan mengarang informasi penting untuk menjadi pusat kasus hukum yang dituduh menyebabkan kerugian serius.
Karena semakin banyak perusahaan AI yang memposisikan alat mereka sebagai sumber informasi, pelatih, pendamping, dan bahkan terapis penggantipertanyaan tentang keterikatan, privasi, tanggung jawab, dan kerugian tidak lagi bersifat teoretis. Tuntutan hukum bermunculan dan regulator masih tertinggal. Namun yang terpenting, banyak pengguna yang tidak sepenuhnya memahami risikonya.
Memperlambat AI
“Kami menganggap diri kami sebagai mitra penasihat bagi para pendiri, pengembang, dan investor,” jelas Bartuski. Hal ini berarti membantu tim merancang alat kesehatan, kebugaran, dan terapi secara bertanggung jawab, dan membantu investor mengajukan pertanyaan yang lebih baik sebelum mendukung suatu platform.
“Kami banyak berbicara tentang risiko,” katanya. “Banyak pengembang melakukan hal ini dengan niat baik tanpa sepenuhnya memahami risiko rumit dan beragam yang timbul dari kesehatan mental.”
Bartuski bekerja bersama Anne Fredriksson, yang berfokus pada sistem perawatan kesehatan. “Dia sangat pandai dalam memahami apakah platform baru ini benar-benar cocok dengan sistem yang ada,” kata Bartuski kepada saya. Karena meskipun secara teori suatu produk terdengar bermanfaat, produk tersebut tetap harus sesuai dengan realitas infrastruktur layanan kesehatan.
Dan di ruang ini, kecepatan bisa berbahaya. “Pepatah ‘bergerak cepat dan menghancurkan sesuatu’ tidak berhasil,” kata Bartuski kepada saya. “Saat Anda berurusan dengan kesehatan mental, kebugaran, dan kesehatan, terdapat risiko kerugian yang sangat nyata bagi pengguna jika uji tuntas tidak dilakukan pada tingkat dasar.”
Keterikatan emosional dan “keintiman palsu”
Keterikatan emosional pada AI telah menjadi titik nyala budaya. Saya sudah berbicara dengan orang-orang yang sedang membentuk ikatan yang kuat dengan ChatGPTdan kepada pengguna yang merasakannya kesusahan nyata ketika model diperbarui atau dihapus. Jadi apakah ini sesuatu yang dikhawatirkan oleh Bartuski?
“Ya, menurut saya orang-orang meremehkan betapa mudahnya membentuk keterikatan emosional,” katanya kepada saya. “Sebagai manusia, kita mempunyai kecenderungan untuk memberikan ciri-ciri manusia pada benda mati. Dengan AI, kita melihat sesuatu yang baru.”
Para ahli sering meminjam istilah hubungan parasosial (awalnya digunakan untuk menggambarkan hubungan emosional sepihak dengan selebriti) untuk menjelaskan dinamika tersebut. Namun AI menambahkan lapisan lain.
“Sekarang, AI berinteraksi dengan pengguna,” kata Bartuski. “Jadi ada individu yang mengembangkan hubungan emosional yang signifikan dengan rekan AI. Ini adalah keintiman palsu yang terasa nyata.”
Dia sangat prihatin dengan hal tersebut Risiko AI pada anak-anak. “Ada keterampilan seperti resolusi konflik yang tidak akan dikembangkan dengan bantuan AI,” katanya. “Tetapi hubungan nyata itu berantakan. Ada perbedaan pendapat, kompromi, dan penolakan.”
Gesekan itu adalah bagian dari pembangunan. Sistem AI dirancang untuk membuat pengguna tetap terlibat, sering kali dengan bersikap menyenangkan dan tegas. “Anak-anak perlu ditantang oleh teman-temannya dan belajar mengatasi konflik dan situasi sosial,” katanya.
Haruskah AI melengkapi terapi?
Orang-orang sudah menggunakan AI sebagai bentuk terapi dan kini semakin meluas.
Genevieve Bartuski
Kami tahu orang-orang sudah menggunakannya ChatGPT untuk terapinamun seiring dengan semakin populernya aplikasi terapi AI dan alat kesehatan mental berbasis chat, pertanyaan lainnya adalah apakah aplikasi tersebut harus melengkapi atau bahkan menggantikan terapi?
“Orang-orang sudah menggunakan AI sebagai bentuk terapi dan hal ini semakin meluas,” katanya. Namun dia tidak khawatir tentang AI yang akan menggantikan terapis. Penelitian secara konsisten menunjukkan bahwa salah satu prediktor terkuat keberhasilan terapi adalah hubungan antara terapis dan klien.
“Sebanyak ilmu pengetahuan dan keterampilan yang digunakan seorang terapis dalam sesi, ada juga seni yang berasal dari manusia,” katanya. “AI dapat meniru perilaku manusia, namun tidak memiliki pengalaman yang sama seperti manusia. Hal ini tidak dapat digantikan.”
Dia melihat peran AI dalam bidang ini, namun ada batasnya. “Ada cara yang bisa dilakukan AI untuk meningkatkan terapi, namun kita selalu membutuhkan pengawasan manusia,” katanya. “Saya tidak percaya bahwa AI harus melakukan terapi. Namun, AI dapat meningkatkannya melalui pengembangan keterampilan, pendidikan, dan hubungan sosial.”
Di bidang yang aksesnya terbatas, seperti kesehatan mental geriatri, ia melihat potensi yang perlu diwaspadai. “Saya melihat AI digunakan untuk mengisi kesenjangan tersebut, khususnya sebagai solusi sementara,” katanya kepada saya.
Kekhawatirannya yang lebih besar adalah bagaimana banyak platform kesehatan yang berhubungan dengan terapi diposisikan. “Platform kesehatan membawa risiko yang sangat besar,” kata Bartuski. “Bagian dari pelatihan kesehatan mental adalah mengetahui bahwa nasihat dan pengobatan tidak bisa diterapkan untuk semua orang. Manusia itu kompleks dan situasinya berbeda-beda.”
Nasihat yang tampaknya mudah bagi seseorang bisa jadi berbahaya bagi orang lain. Dan implikasi kesalahan yang dilakukan AI juga bersifat legal.
Apa yang perlu diketahui pengguna?
AI tidaklah sempurna atau mahatahu.
Genevieve Bartuski
Dia bekerja sama dengan para pendiri dan pengembang, namun dia juga melihat di mana pengguna salah memahami alat ini. Titik awalnya, katanya, adalah memahami apa sebenarnya AI itu dan apa yang bukan AI.
“AI tidaklah sempurna atau mahatahu. AI pada dasarnya mengakses sejumlah besar informasi dan menyajikannya kepada pengguna,” kata Bartuski kepada saya.
Sebagian besar dari hal ini adalah pemahaman bahwa AI dapat berhalusinasi dan mengada-ada. “Ini akan mengisi kekosongan ketika tidak memiliki semua informasi yang diperlukan untuk merespons suatu permintaan,” katanya.
Selain itu, pengguna perlu mengingat bahwa AI masih merupakan produk yang dirancang oleh perusahaan yang menginginkan keterlibatan. “AI diprogram untuk membuat Anda menyukainya. AI mencari cara untuk membuat Anda bahagia. Jika Anda menyukainya dan itu membuat Anda bahagia, Anda akan lebih sering berinteraksi dengannya,” katanya. “Ini akan memberi Anda masukan positif dan dalam beberapa kasus, bahkan memvalidasi pemikiran aneh dan delusi.”
Hal ini dapat berkontribusi pada keterikatan emosional terhadap AI yang dilaporkan banyak orang. Namun bahkan di luar penggunaan gaya pendamping, interaksi reguler dengan AI mungkin sudah membentuk perilaku. “Salah satu studi pertama adalah tentang pemikiran kritis dan penggunaan AI. Studi ini menemukan bahwa pemikiran kritis semakin berkurang seiring dengan meningkatnya penggunaan dan ketergantungan AI,” katanya.
Pergeseran itu mungkin tidak kentara. “Jika Anda beralih ke AI sebelum mencoba memecahkan masalah sendiri, pada dasarnya Anda mengalihkan keterampilan berpikir kritis Anda,” katanya.
Dia juga menunjukkan tanda-tanda peringatan emosional: meningkatnya isolasi, menarik diri dari hubungan manusia, ketergantungan emosional pada platform AI, kesusahan ketika tidak dapat mengaksesnya, peningkatan keyakinan delusi atau aneh, paranoia, kebesaran, atau meningkatnya perasaan tidak berharga dan tidak berdaya.
Bartuski optimis tentang apa yang dapat dibantu oleh AI. Namun fokusnya adalah mengurangi dampak buruk, terutama bagi orang-orang yang belum memahami betapa hebatnya alat ini.
Bagi pengembang, hal ini berarti memperlambat dan membangun secara bertanggung jawab. Bagi pengguna, ini berarti memperlambat juga dan tidak mengalihkan pemikiran, koneksi, atau perhatian pada teknologi yang dirancang untuk membuat Anda tetap terlibat.



