
Orang-orang semakin beralih ke ObrolanGPT dan alat AI lainnya untuk saran kesehatan. Mereka menggunakannya untuk memahami gejala, memecahkan kode surat medis, memahami diagnosis, mencari kepastian sebelum janji temu, dan menyiapkan pertanyaan untuk dokter.
Pergeseran itu tidak mengejutkan. Orang-orang selalu mencari informasi kesehatan secara online, tetapi alat AI berbeda. Mereka komunikatif, personal, selalu siap sedia, dan sering kali terdengar percaya diri dengan jawaban mereka. Banyak faktor yang sama yang mendorong minat AI untuk terapi sekarang membentuk cara orang menggunakannya untuk kesehatan.
Bagaimana orang menggunakan AI untuk kesehatan?
Penyedia layanan kesehatan sekarang harus berasumsi bahwa setiap pasien yang mereka temui mungkin sudah menanyakan ChatGPT sebelum datang.
Jennifer Hinkel, konsultan kesehatan dan presiden Signa Sciences
“Penggunaan AI ada di mana-mana,” kata Jennifer Hinkel, konsultan kesehatan dan presiden Signa Sciences. “Penyedia layanan kesehatan sekarang harus berasumsi bahwa setiap pasien yang mereka temui mungkin sudah menanyakan ChatGPT sebelum datang – dan mereka akan menanyakannya lagi setelah mereka pulang.”
Saya telah melihat banyak klaim bahwa ChatGPT kini menjadi tempat pertama untuk menjawab pertanyaan kesehatan, namun apa sebenarnya yang ditanyakan orang-orang? “Kami melihat pasien menggunakannya terutama untuk bertanya tentang pengobatan, gejala, dan membaca diagnosis mereka,” kata Ranya Habash, MD dan kepala petugas medis di Helfie AI.
Tentu saja, orang selalu menggunakan internet untuk mendapatkan nasihat kesehatan dan mencari gejala di Google. Namun dengan AI, segalanya terasa berbeda. Sebagian besar pasien menggunakan ChatGPT sebagai versi percakapan Google. “ChatGPT terasa lebih personal karena merespons dalam pola bahasa alami,” kata Habash. “Kedengarannya seperti temanmu, dan terdengar percaya diri.”
Sangat mudah untuk melihat mengapa alat seperti ChatGPT begitu menarik. Kedengarannya bersahabat, memanfaatkan banyak sekali informasi, dan sangat mudah diakses. Banyak orang sudah menggunakan aplikasi ini untuk urusan pekerjaan, perencanaan, dan nasihat pribadi, jadi menanyakan beberapa pertanyaan terkait kesehatan bisa terasa seperti perpanjangan alami dari cara mereka menggunakannya sehari-hari, bukan keputusan yang disengaja untuk mengadopsi aplikasi atau platform kesehatan baru.
Dimana AI benar-benar dapat membantu
“Ada manfaat nyata bagi pasien untuk dapat melakukan percakapan pribadi mengenai masalah kesehatan dengan mesin yang telah diprogram untuk ‘membantu’ dan menunjukkan ‘kepedulian’,” kata Hinkel.
Dia juga yakin ada sesuatu yang melegakan dengan memiliki akses terus-menerus terhadap informasi. “Entah itu jam 02.00 atau antara jam 09.00 dan 17.00, orang bisa mendapatkan jawabannya,” katanya kepada saya. “Kami tahu bahwa hasil kesehatan akan lebih baik ketika pasien mendapat informasi dan terlibat dengan kesehatan mereka, jadi jika ChatGPT membantu mereka mencapai tujuan tersebut, saya melihatnya sebagai dampak positif.”
Kedua ahli sepakat bahwa, jika digunakan dengan hati-hati, alat seperti ChatGPT dapat membantu masyarakat merasa lebih mendapat informasi dan terlibat dalam kesehatan mereka sendiri. “Dalam kebanyakan kasus, pasien yang memiliki lebih banyak informasi akan berguna dan sejalan dengan peningkatan hasil kesehatan,” kata Hinkel. “Ketika pasien lebih memahami kesehatannya, mereka akan lebih mampu menerapkan perilaku yang membantu mereka tetap sehat.”
Saya berbicara dengan beberapa orang yang secara teratur menggunakan alat AI untuk nasihat kesehatan dan mereka menganut pandangan ini. Sophie (yang namanya telah diubah di sini) memberi tahu saya bahwa dia mengandalkan ChatGPT selama awal kehamilan, terutama setelah pemindaian penuh tekanan yang dia lakukan sendirian.
“Mengunggah catatan saya dan menjelaskan semuanya sangat membantu dan meyakinkan,” katanya. “Saya tidak benar-benar memahami apa yang dikatakan dokter pada saat itu. Pembingkaian emosional setelahnyalah yang sangat membantu.” Dia juga mengatakan bahwa dia mengandalkan ChatGPT untuk janji temu lanjutan, yang memberinya panduan tentang apa yang diharapkan dan informasi penting apa yang harus dikomunikasikan.
Habash setuju bahwa peran “penerjemah” inilah yang membuat AI bersinar. “Hal ini dapat mengubah jargon medis menjadi bahasa yang sederhana,” katanya. “Hal ini membantu pasien dan juga membantu dokter. Kami ingin memastikan bahwa pasien kami memiliki pemahaman yang baik tentang kondisi mereka.”
Bahaya yang dikhawatirkan oleh para ahli
Kita tidak akan mendemokratisasi informasi jika hanya orang yang tahu cara bertanya yang mendapatkan jawaban lengkap.”
Jennifer Hinkel, konsultan kesehatan dan presiden Signa Sciences
Ciri-ciri yang membuat alat AI menarik, seperti kepercayaan diri, kelancaran, dan kepastian, juga merupakan beberapa bahaya yang mungkin terjadi.
“Saya melihat ada beberapa risiko besar,” kata Hinkel kepada saya. Yang pertama adalah kualitas informasi sangat bergantung pada cara pertanyaan diajukan. “Komprehensifnya informasi berkorelasi dengan kecanggihan prompt,” jelasnya. “Kami tidak akan mendemokratisasi informasi jika hanya orang yang tahu cara bertanya yang mendapatkan jawaban lengkap.”
Gagasan bahwa Anda memerlukan jawaban yang tepat untuk mendapatkan jawaban yang berguna muncul berulang kali dengan AI. Saya pernah melihat pakar AI menyalahkan pengguna atas hasil yang buruk, dengan alasan bahwa strategi yang mereka gunakan tidak cukup baik – sering kali ketika mereka mencoba menjual kursus atau kerangka kerja untuk memperbaikinya. Namun hal tersebut tidak sesuai dengan permasalahan yang sebenarnya. Saya tidak melihatnya sebagai kegagalan pengguna, melainkan ketidaksesuaian antara cara AI dijual kepada kami dan cara kerjanya sebenarnya. Alat AI dijual sebagai sistem “tanyakan apa saja”, tanpa menyebutkan petunjuk praktik terbaik saat mendaftar, jadi tidak masuk akal untuk menyalahkan orang karena tidak mengetahui aturan yang tidak pernah diberitahukan kepada mereka.
Risiko kedua lebih jelas. Kami tahu alat AI dapat melakukan kesalahan. Kadang-kadang sangat salah. Hal ini dapat disebabkan oleh sumber yang salah atribusi, informasi yang ketinggalan jaman, atau halusinasi, yaitu ketika sistem dengan percaya diri menyajikan informasi yang tidak benar.
Hal ini dapat terjadi dalam berbagai konteks. Namun yang spesifik dalam bidang kesehatan adalah meskipun AI dapat mengumpulkan sejumlah besar informasi, AI bukanlah seorang dokter dan tidak dapat mendiagnosis secara bermakna.
Claire (yang namanya telah diubah) memberi tahu saya bahwa dia melihat ada benjolan di hidungnya dan, sambil menunggu untuk menemui dokter kulit, dia mengunggah foto ke ChatGPT untuk menanyakan apa itu. “Dikatakan itu mungkin kanker kulit atau sesuatu yang tidak berbahaya,” katanya. “Itu tidak terlalu membantu.”
“Saat saya berkata, ‘apakah menurut Anda itu hanya kutil?’ lalu ia berkata ‘ya, itu mungkin kutil.’ Jadi ChatGPT tidak mendapatkan poin dokter apa pun di sana,” katanya kepada saya.
Kami tahu bahwa ChatGPT menyetujui semua yang dikatakan pengguna adalah sebuah masalah. Namun dampaknya bisa lebih luas jika menyangkut kesehatan mental dan fisik.
“Saran AI terdengar bersahabat dan meyakinkan. Itu merupakan berkah sekaligus kutukan,” kata Habash. “Jawaban yang penuh percaya diri tidak sama dengan jawaban yang benar, dan hal ini dapat menunda perawatan.”
Dalam hal diagnosis, konteks sangatlah penting, dan hal ini sering kali tidak dimiliki oleh AI. Hal ini sebagian disebabkan karena pengguna tidak dapat secara realistis memberikan setiap detail yang akan dipertimbangkan oleh dokter, dan sebagian lagi karena AI tidak memiliki proses diagnostik atau pengalaman klinis langsung untuk mengetahui sinyal mana yang paling penting.
“Gejala yang sama dapat memiliki arti yang sangat berbeda tergantung pada usia, jenis kelamin, dan faktor risiko,” jelas Hinkel. “Tetapi AI tidak mengetahui risiko yang mendasarinya kecuali ia mengetahui siapa yang menanyakannya.”
Habash menambahkan bahwa dokter mengintegrasikan nuansa secara naluriah. “Nyeri dada, tanda-tanda stroke, nyeri terkait kehamilan, semuanya bergantung pada konteks, pemeriksaan, dan pengukuran. Percakapan saja tidak bisa menangkap hal itu.”
Kedua pakar tersebut menyuarakan kekhawatirannya mengenai literasi dan kesetaraan kesehatan. “Melek kesehatan yang lebih rendah cenderung memberi Anda jawaban yang lebih dangkal,” kata Hinkel. “Mereka yang sudah memahami kondisinya dan tahu apa yang harus ditanyakan bisa mendapatkan manfaat. Mereka yang benar-benar bingung mungkin akan tertinggal.” Hal ini menciptakan kesenjangan yang meresahkan jika alat AI diposisikan sebagai jalan pintas menuju akses layanan kesehatan yang lebih baik.
Habash juga menandai kecemasan dan penyakit kronis sebagai faktor risiko. “Orang-orang dengan kondisi yang tumpang tindih dan banyak pengobatan menghadapi risiko lebih besar dari saran umum. Jawaban yang meyakinkan bisa terasa lebih pasti daripada yang sebenarnya.”
Hal yang perlu diingat jika Anda menggunakan AI untuk kesehatan
Para ahli menyarankan untuk memperlakukan AI sebagai alat pendukung, bukan pengganti – dan berhati-hatilah dalam menggunakannya.
Pahami cara kerjanya
Anda tidak perlu tahu banyak. Hanya saja AI sering kali terdengar benar (walaupun sebenarnya tidak benar) dan memanfaatkan banyak sekali informasi. Hinkel mengatakan penting untuk menyadari bahwa alat seperti ChatGPT sering kali menyajikan informasi berdasarkan frekuensi. “Jika sesuatu sering muncul dalam data pelatihan, hal itu mungkin akan muncul di urutan teratas,” dia memperingatkan, “meskipun itu salah.”
Periksa saran yang sudah ketinggalan zaman
Demikian pula, perlu diingat bahwa alat AI belajar dari informasi yang mungkin sudah sangat tua. Seringkali juga ada data pelatihan yang terputus, yang berarti bahkan beberapa informasi terbaru yang dimiliki mungkin berasal dari beberapa bulan yang lalu dan mungkin tidak lagi mencerminkan standar perawatan saat ini. “Ketepatan waktu penting dalam kesehatan,” kata Hinkel.
Ajukan pertanyaan yang lebih baik, tetapi tetap waspada
Detail lebih lanjut dalam petunjuk awal Anda dapat membantu, tetapi bahkan trik yang mendorong bukanlah jaring pengaman. “Verifikasi semuanya,” kata Hinkel.
Perhatikan privasi
Kami tidak mengetahui dengan pasti bagaimana perusahaan AI saat ini menggunakan data Anda atau mungkin menggunakannya di masa mendatang. Namun ada baiknya Anda berhenti memikirkan apakah Anda nyaman berbagi informasi yang sangat sensitif tentang kesehatan Anda.
Gunakan AI untuk tugas-tugas berisiko rendah
Habash merekomendasikan penggunaan alat AI untuk memberikan saran tentang diet, olahraga, menghilangkan stres, dan memahami tes atau pengobatan, tetapi tidak untuk diagnosis atau perubahan pengobatan.
Perhatikan tubuh Anda
Yang terpenting, jangan menganggap saran ChatGPT melebihi naluri Anda sendiri. “Jika suatu gejala tiba-tiba, parah, atau memburuk, itu berarti tubuh Anda meminta Anda untuk mencari pertolongan,” kata Habash.



