Pernah mendengar tentang “Journal of International Relief” atau “International Humanitarian Digital Repository”? Alasannya sederhana: mereka tidak ada. Chatbot AI membuat berita utama palsu dan mengutip buku dan artikel palsu — yang menurut sebagian orang adalah nyata.

Semua orang tahu bahwa chatbot AI seperti ChatGPT, Grok, dan Gemini sering kali “berhalusinasi” sumbernya. Namun bagi mereka yang bertugas membantu masyarakat menemukan buku dan artikel ilmiah, omong kosong yang dibuat oleh AI ini menjadi beban yang berat.

Menurut Amerika Ilmiahpustakawan sejujurnya kelelahan dengan permintaan judul yang tidak ada.

Majalah itu berbicara kepada Sarah Jatuhbertanggung jawab atas penghubung dan dukungan bagi para peneliti di Perpustakaan Virginia, di AS, yang memperkirakan hal tersebut sekitar 15% dari semua pesanan referensi yang diterima melalui email adalah tentang judul yang dihasilkan oleh chatbot AI seperti ObrolanGPT.

Dan seringkali, permintaan ini mencakup pertanyaan tentang kutipan palsu.

Lebih lanjut, Falls menyarankan hal itu orang sepertinya tidak percaya pada pustakawan ketika mereka menjelaskan bahwa catatan tertentu tidak ada, tren juga dilaporkan oleh 404 Media. Banyak yang berakhir lebih mempercayai chatbot daripada seorang profesional yang tugasnya, setiap hari, adalah mencari informasi yang dapat dipercaya.

Satu publikasi laporan terbaru dari Komite Palang Merah Internasional (ICRC), berjudul “Pemberitahuan penting: Referensi arsip yang dihasilkan AI”, menambahkan bukti lebih lanjut bahwa pustakawan sudah muak dengan hal ini.

“Jika referensi tidak dapat ditemukan, hal ini tidak berarti bahwa ICRC menyembunyikan informasi. Berbagai situasi dapat menjelaskan hal ini, termasuk kutipan yang tidak lengkap, dokumen yang disimpan di lembaga lain atau, semakin banyak, Halusinasi yang dihasilkan AI”, kata organisasi tersebut.

“Dalam kasus seperti ini, mungkin perlu untuk memeriksa riwayat administratif referensi tersebut untuk menentukan apakah referensi tersebut sesuai dengan a sumber arsip asli”, tambah catatan ICRC.

Tahun ini sepertinya ditandai dengan contoh buku dan artikel ilmiah palsu dibuat menggunakan AI. Baru-baru ini, seorang pekerja lepas Chicago Sun-Times mengirimkan surat kabar tersebut daftar bacaan musim panas dengan 15 rekomendasi. Tapi, hitung saja Gizmodo, 10 dari buku ini tidak ada.

Pada bulan Mei, Menteri Kesehatan meluncurkan komisi “Membuat Amerika Sehat Kembali”. Robert F.Kennedy Jr.merilis laporan pertamanya. Seminggu kemudian, diketahui memeriksa kesimpulan laporan komisi dengan teliti – setidaknya yang dikutip 7 penelitian yang tidak ada. Kami ingin percaya bahwa itu hanya ketidakmampuan seseorang sehingga mereka tidak meninjau halusinasi AI yang mereka gunakan.

Tapi mengapa beberapa pengguna mempercayai AI lebih dari manusia?

Di satu sisi, bagian dari “trik” AI adalah berbicara dengan nada berwibawa. Siapa yang akan Anda percayai: chatbot yang Anda gunakan sepanjang hari atau pustakawan acak di telepon? Masalah lainnya mungkin terkait dengan fakta bahwa orang-orang berpikir demikian menemukan trik untuk membuat AI lebih andal.

Misalnya, ada orang yang dengan polosnya berpikir bahwa menambahkan instruksi seperti “jangan berhalusinasi” dan “tulis kode yang bersih” sendiri menjamin bahwa AI hanya akan memberi kita hasil dengan kualitas terbaik. Jika ini benar-benar berhasil, Anda dapat membayangkan Google dan OpenAI akan secara otomatis menambahkannya ke semua permintaan dari chatbot mereka.

Tapi, tentu saja, ini benar tanya pembohong kompulsif itu, sebagai bantuan khusus, sekali ini saja, jangan berbohong kepada kami.



Tautan sumber