
Halusinasi AI bisa membuat frustasi. Jika Anda telah menggunakan LLMAnda hampir pasti pernah melihatnya memberikan jawaban yang salah atau benar-benar salah.
Salah satu pendiri, Ketua Eksekutif dan Chief Innovation Officer Zappi.
Tapi ketika saya meminta model untuk menilai kami pelanggan ulasan, dengan yakin disimpulkan bahwa kinerja kami buruk karena kegagalan dalam “sistem struktur kelistrikan” kami. Sekilas – “ya?!” Namun menjadi jelas bahwa model tersebut telah menyamakan kami dengan perusahaan tidak terkait yang memiliki nama yang sama dengan kami dan membuat pengisi daya kendaraan listrik.
Kebanyakan orang memandang halusinasi hanya sebagai kesalahan yang menjengkelkan – namun kenyataannya, halusinasi adalah produk sampingan dari cara model LLM dilatih dan fungsi optimalnya. Jika kamu mengharapkannya alat AI untuk menjadi sempurna, Anda mengharapkan hal yang salah.
Saya memberikan konteks yang lebih jelas, model memberikan hasil yang akurat, dan saya dapat memperolehnya intel saya ingin.
Mengapa halusinasi terjadi
Jadi mengapa halusinasi bisa terjadi? Sebuah makalah baru-baru ini dari OpenAI menunjukkan bahwa halusinasi terjadi karena model diberi penghargaan karena memberikan jawaban—bukan karena mengatakan “Saya tidak tahu.”
LLM tidak pernah bersifat deterministik; itu selalu bersifat probabilistik.
OpenAI telah menjelaskan bahwa selama fase pra-pelatihan, model AI belajar dengan menyerap sejumlah besar data data dari internet. Pada tahap awal ini, model-model ini berfungsi dengan baik dalam menunjukkan seberapa yakin mereka terhadap jawaban yang mereka berikan. Mereka juga dapat menandakan ketidakpastian dengan cukup baik, dengan mengatakan, “Ini adalah jawaban yang mungkin, tapi saya tidak yakin.”
Namun, pada pasca-pelatihan, model disempurnakan dengan pembelajaran penguatan yang menghargai akurasi… tanpa menghukum ketidakakuratan. Sama seperti ujian pilihan ganda, LLM dilatih untuk memberikan jawaban meskipun hanya berupa tebakan. Seperti halnya manusia, sistem sering kali lebih baik mengisi sesuatu, daripada membiarkan pertanyaan kosong.
LLM: Benar-benar salah dalam desainnya
Sebelum AI muncul, kita hidup di dunia yang sebagian besar bersifat deterministik. Kami menggunakan alat yang memberikan jawaban tunggal dan pasti, dengan sedikit ruang untuk interpretasi. Misalnya, jika kita memasukkan soal matematika ke dalam kalkulator, kita akan mendapatkan jawabannya.
Jika kita bertanya a basis data untuk a dokumen, itu akan menyediakannya. Kami dapat mempercayai alat ini untuk memberikan hasil yang dapat diprediksi.
LLM tidak sama. AI dirancang untuk meniru cara kerja otak manusia, dan manusia tidak sempurna; mereka selalu melakukan kesalahan. Jadi, jika kita berharap bahwa LLM akan memperbaiki keadaan 100% setiap saat, kita salah memahami cara kerja LLM.
LLM adalah sistem probabilistik yang menghasilkan jawaban yang paling mungkin, bukan kebenaran yang terjamin – yang berarti LLM bisa saja salah seperti halnya manusia (atau setidaknya banyak rekan saya yang menuduh saya salah!). Intinya: LLM yang tidak pernah berhalusinasi sama sekali tidak mungkin.
Menuntut kesempurnaan dan keakuratan dari suatu sistem adalah kelemahan manusia.
Cara mengurangi halusinasi
Dalam hal membatasi halusinasi AI, mengetahui bahwa itu adalah sebuah fitur dan bukan bug adalah setengah dari perjuangan. Hal ini dimulai dengan mengatur ulang ekspektasi – menyadari bahwa kesalahan adalah sesuatu yang melekat dan bukan merupakan cacat fatal. Kabar baiknya adalah, pengembang model seperti OpenAI juga berupaya mengurangi tingkat terjadinya halusinasi.
Sementara itu, apa yang bisa bisnis dan tim lakukan terhadapnya? Berikut tiga tip praktis yang perlu diingat:
1. Anda tidak bisa hanya mengandalkan model untuk mengetahui fakta. Seperti yang saya sebutkan, LLM tidak deterministik. Perusahaan perlu merencanakan kesalahan dengan meninjau secara cermat informasi yang dikembalikan dan memeriksa ulang sumber yang diambil oleh LLM.
Bahkan jika Anda meminta LLM untuk hanya menjawab jika ia 100% yakin, sering kali LLM tidak akan mengatakan, “Saya tidak tahu jawabannya.” Jadi, sama seperti Anda meninjau pekerjaan rekan kerja dengan cermat, Anda juga perlu memantau keakuratan LLM.
2. Memberikan informasi yang tepercaya dan terhubung kepada model. Apa yang Anda berikan pada sistem AI sama pentingnya dengan apa yang Anda minta. Semakin Anda mendasarkan suatu model pada sumber yang tepercaya dan terhubung—penelitian yang tervalidasi, laporan internal, keputusan yang terdokumentasi, dan pengetahuan institusional yang dibagikan—semakin bermanfaat dan dapat diandalkan keluarannya. Ketika data terfragmentasi atau tidak jelas, model akan mengisi kesenjangan. Namun dengan masukan yang jelas, terkini, dan terhubung, AI dapat berpikir sesuai batasan nyata, bukan hanya menebak-nebak.
3. Gunakan petunjuk yang dikurasi dengan cermat. Semakin umum permintaannya, semakin umum tanggapannya. Anda dapat mengontrol hasilnya dengan lebih baik dengan memberikan konteks dan materi sumber yang relevan, lalu mengajukan pertanyaan spesifik. Perintahnya kemudian menjadi, “Jawab pertanyaan ini hanya dengan menggunakan data yang saya berikan, lalu kutip dari mana informasi tersebut berasal.”
Hal ini dapat mengurangi halusinasi secara signifikan. Anda bahkan dapat meminta model untuk lebih bernuansa dengan mengatakan “Jika Anda tidak 100% yakin dengan jawabannya, katakan saja Anda tidak tahu. Akurasi sangat penting di sini.”
AI sebagai sebuah sistem, bukan kotak ajaib
AI adalah alat canggih yang akan terus kami terapkan dalam kehidupan kerja sehari-hari dan seterusnya. Namun kita harus menyadari bahwa AI bukanlah kotak ajaib. Ini adalah sistem yang tidak sempurna yang mencerminkan pelatihan dan wawasan yang telah diberikan.
Hanya ketika kita berhenti mengharapkan kesempurnaan dari AI, kita dapat menggunakannya dengan cara terbaik – bersama kita – untuk memberikan hasil yang nyata bisnis nilai.
Kami telah menampilkan chatbot AI terbaik untuk bisnis.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



