
Halusinasi adalah cacat intrinsik di chatbot AI. Ketika ChatGPT, Gemini, Copilot, atau model AI lainnya menyampaikan informasi yang salah, tidak peduli seberapa percaya diri mereka, itu hanyalah halusinasi. AI mungkin berhalusinasi sedikit penyimpangan, kesalahan yang tampaknya tidak berbahaya, atau melakukan tuduhan yang benar-benar memfitnah dan dibuat-buat. Bagaimanapun juga, memang demikian pasti akan muncul jika Anda terlibat dengan ChatGPT atau pesaingnya dalam waktu yang cukup lama.
Memahami bagaimana dan mengapa ChatGPT dapat mengatasi perbedaan antara hal yang masuk akal dan benar sangatlah penting bagi siapa pun yang ingin berbicara dengan AI. Karena sistem ini menghasilkan respons dengan memprediksi teks apa yang akan muncul selanjutnya berdasarkan pola dalam data pelatihan, bukan memverifikasi kebenaran dasar, sistem ini dapat terdengar sangat nyata meskipun dibuat-buat. Caranya adalah dengan menyadari bahwa halusinasi bisa muncul kapan saja, dan mencari petunjuk bahwa ada halusinasi yang bersembunyi di depan Anda. Berikut adalah beberapa indikator terbaik bahwa ChatGPT sedang berhalusinasi.
Kekhususan yang aneh tanpa sumber yang dapat diverifikasi
Salah satu hal yang paling menjengkelkan tentang halusinasi AI adalah halusinasi tersebut sering kali menyertakan detail yang tampaknya spesifik. Tanggapan yang dibuat-buat dapat menyebutkan tanggal, nama, dan hal-hal khusus lainnya yang membuatnya terasa kredibel. Karena ChatGPT menghasilkan teks yang terlihat seperti pola yang dipelajari selama pelatihan, ChatGPT dapat membuat detail yang sesuai dengan struktur jawaban yang valid tanpa pernah menunjuk ke sumber sebenarnya.
Anda mungkin mengajukan pertanyaan tentang seseorang dan melihat informasi pribadi nyata tentang individu tersebut bercampur dengan narasi yang sepenuhnya dibuat-buat. Kekhususan seperti ini membuat halusinasi lebih sulit ditangkap karena manusia terprogram untuk memercayai pernyataan terperinci.
Meskipun demikian, penting untuk memverifikasi detail apa pun yang mungkin menimbulkan masalah bagi Anda jika Anda salah. Jika tanggal, artikel, atau orang yang disebutkan tidak muncul di tempat lain, itu tandanya Anda mungkin mengalami halusinasi. Perlu diingat bahwa AI generatif tidak memiliki mekanisme pemeriksaan fakta bawaan; itu hanya memprediksi apa yang mungkin masuk akal, bukan apa yang benar.
Keyakinan yang tidak dapat diterima
Terkait dengan jebakan kekhususan adalah nada terlalu percaya diri dari banyak halusinasi AI. ChatGPT dan model serupa dirancang untuk menyajikan tanggapan dengan nada yang lancar dan berwibawa. Keyakinan tersebut dapat membuat informasi yang salah terasa dapat dipercaya meskipun klaim yang mendasarinya tidak berdasar.
Model AI dioptimalkan untuk memprediksi kemungkinan rangkaian kata. Bahkan ketika AI harus berhati-hati dengan apa yang ditulisnya, AI akan menyajikan informasi dengan kepastian yang sama seperti data yang benar. Berbeda dengan pakar manusia yang mungkin melakukan lindung nilai atau mengatakan “Saya tidak yakin”, namun masih jarang terjadi, meskipun akhir-akhir ini lebih umum, jika model AI mengatakan “Saya tidak tahu. Hal ini karena jawaban yang menyeluruh menghargai penampilan yang lengkap dibandingkan kejujuran mengenai ketidakpastian.
Dalam bidang apa pun yang para ahlinya sendiri menyatakan ketidakpastian, Anda harus mengharapkan sistem yang dapat dipercaya untuk mencerminkan hal tersebut. Misalnya, sains dan kedokteran sering kali mengandung perdebatan atau teori yang terus berkembang dan sulit mendapatkan jawaban pasti. Jika ChatGPT merespons dengan pernyataan kategoris mengenai topik-topik tersebut, menyatakan penyebab tunggal atau fakta yang diterima secara universal, keyakinan ini mungkin sebenarnya menandakan halusinasi karena model tersebut mengisi kesenjangan pengetahuan dengan narasi yang dibuat-buat, bukan menunjukkan area perdebatan.
Kutipan yang tidak dapat dilacak
Kutipan dan referensi adalah cara terbaik untuk mengonfirmasi apakah sesuatu yang dikatakan ChatGPT benar. Namun terkadang ia memberikan referensi yang tampak sah, namun sumber tersebut sebenarnya tidak ada.
Halusinasi semacam ini khususnya bermasalah dalam konteks akademis atau profesional. Seorang siswa mungkin membuat tinjauan pustaka berdasarkan kutipan palsu yang formatnya terlihat sempurna, lengkap dengan nama jurnal yang masuk akal. Kemudian ternyata karya tersebut bertumpu pada landasan referensi yang tidak dapat ditelusuri kembali ke publikasi yang dapat diverifikasi.
Selalu periksa apakah makalah, penulis, atau jurnal yang dikutip dapat ditemukan di database akademis yang bereputasi baik atau melalui pencarian web langsung. Jika nama tersebut tampak sangat spesifik namun tidak menghasilkan hasil penelusuran, mungkin nama tersebut merupakan “kutipan hantu” yang dibuat oleh model untuk membuat jawabannya terdengar berwibawa.
Tindak lanjut yang kontradiktif
Pernyataan yang ditegaskan dengan percaya diri dengan referensi nyata memang bagus, tetapi jika ChatGPT bertentangan, mungkin masih ada yang salah. Itu sebabnya pertanyaan lanjutan berguna. Karena AI generatif tidak memiliki database fakta bawaan yang digunakan untuk mencari konsistensi, AI generatif dapat menimbulkan kontradiksi ketika diselidiki lebih lanjut. Hal ini sering kali terwujud ketika Anda mengajukan pertanyaan lanjutan yang mengarah pada pernyataan sebelumnya. Jika jawaban baru berbeda dari jawaban pertama sehingga tidak dapat diselaraskan, salah satu atau kedua tanggapan kemungkinan besar merupakan halusinasi.
Untungnya, Anda tidak perlu melihat lebih jauh dari percakapan untuk menemukan indikator ini. Jika model tidak dapat mempertahankan jawaban yang konsisten terhadap pertanyaan-pertanyaan yang terkait secara logis dalam alur percakapan yang sama, kemungkinan besar jawaban aslinya tidak memiliki dasar faktual.
Logika yang tidak masuk akal
Meskipun logika internalnya tidak bertentangan, logika ChatGPT mungkin terlihat salah. Jika jawabannya tidak sesuai dengan batasan dunia nyata, perhatikanlah. ChatGPT menulis teks dengan memprediksi urutan kata, bukan dengan menerapkan logika sebenarnya, sehingga apa yang tampak rasional dalam sebuah kalimat mungkin akan runtuh jika dipertimbangkan di dunia nyata.
Biasanya dimulai dengan premis yang salah. Misalnya, AI mungkin menyarankan penambahan langkah-langkah yang tidak ada pada protokol ilmiah yang sudah mapan, atau akal sehat dasar. Seperti yang terjadi pada Gemini, model AI menyarankan penggunaan lem dalam saus pizza agar keju menempel lebih baik. Tentu, ini mungkin lebih enak, tetapi seiring dengan petunjuk kuliner, ini bukanlah masakan mewah.
Halusinasi di ChatGPT dan model bahasa serupa adalah produk sampingan dari cara sistem ini dilatih. Oleh karena itu, halusinasi kemungkinan besar akan tetap ada selama AI dibangun berdasarkan kata-kata prediksi.
Triknya bagi pengguna adalah mempelajari kapan harus memercayai keluaran dan kapan harus memverifikasinya. Menemukan halusinasi semakin menjadi keterampilan inti literasi digital. Ketika AI semakin banyak digunakan, logika dan akal sehat akan menjadi sangat penting. Pertahanan terbaik bukanlah kepercayaan buta, melainkan pengawasan yang cermat.
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.
Laptop bisnis terbaik untuk semua anggaran



