
ZAP // Lovart
Asisten AI berisiko menyesatkan publik dengan memutarbalikkan jurnalisme – BBC melakukan penelitian mengenai hal ini.
Kecerdasan Buatan (IA) datang untuk mengubah ritme – di antara sektor-sektor lainnya – jurnalistik.
Ada yang memperingatkan bahwa ringkasan AI yang sekarang terkenal mengurangi jumlah akses dan kunjungan ke situs web. Semakin banyak orang yang meminta ringkasan berita – atau bahkan jika mereka tidak memintanya, mereka tetap menerimanya, demikian kesimpulan studi OberCom yang diterbitkan awal tahun ini.
Ada pihak-pihak yang memanfaatkan AI untuk “menghasilkan jurnalisme dengan dampak yang lebih besar”, misalnya aksio. AI sudah menjadi bagian mendasar dari fungsi sehari-hari portal ini.
Namun ada juga, bahkan di kalangan jurnalis, yang melakukan hal tersebut ragu informasi yang dihasilkan AI.
A BBC sudah menggunakan AI dalam konteks berbeda: membuat subtitle, menulis email, menganalisis data, merangkum informasi…
Namun penyiar televisi dan radio Inggris ingin lebih memahami konten jurnalistik yang dihasilkan oleh asisten AI.
Untuk itu dilakukan a belajar. Satu pertanyaan hingga empat asisten AI terkenal yang tersedia untuk umum: ChatGPT, Copilot, Gemini dan Kebingungan.
Dia ditanya apakah mereka memberikan jawaban yang akurat atas pertanyaan tentang berita tersebut dan apakah jawaban mereka secara akurat mewakili berita BBC yang digunakan sebagai sumber.
Sepanjang penelitian ini, mereka yang bertanggung jawab memberikan asisten AI akses ke situs BBC selama penelitian; telah melakukan 100 pertanyaan tentang beritamendorong mereka untuk menggunakan artikel BBC News sebagai sumber jika memungkinkan.
Setelah itu, tanggapan AI ditinjau oleh jurnalis BBC – semuanya ahli dalam topik yang dipermasalahkan. Kriteria: akurasi, ketidakberpihakan, dan cara mereka merepresentasikan konten BBC.
Kesimpulannya: tanggapan yang dihasilkan oleh asisten AI “ketidakakuratan yang signifikan dan konten yang terdistorsi dan BBC”.
Dengan angka: 51% dari semua tanggapan AI masalah serius dalam isinya: 19% kata mereka berbohong – pernyataan palsu, nomor dan tanggal salah; Dan 13% kutipan yang diambil dari artikel BBC adalah berubah dalam kaitannya dengan sumber aslinya – atau bahkan tidak ada dalam artikel yang dikutip.
Masalah yang paling umum adalah ketidakakuratan faktual, sumber yang salah, dan kurangnya konteks.
HAI Gemini adalah asisten dengan hasil terburuk (34% tanggapan memiliki setidaknya satu masalah). Diikuti oleh Copilot (27%), Perplexity (17%) dan ChatGPT yang, dengan persentase 15%, merupakan yang paling sedikit gagal.
Contoh kebohongan
Gemini mengindikasikan bahwa Layanan Kesehatan Nasional Inggris menyarankan masyarakat untuk tidak mulai menggunakan rokok elektronik dan merekomendasikan agar perokok yang ingin berhenti merokok menggunakan cara lain – dan justru sebaliknya, karena rekomendasi resmi adalah dengan menggunakan rokok elektronik sebagai metode berhenti merokok.
Kopilot mengklaim hal itu Gisele Pelicot menemukan kejahatan pemerkosaan terhadapnya ketika dia mulai pingsan dan kehilangan ingatan – dan Pelicot menemukan kejahatan tersebut ketika polisi menunjukkan video yang mereka temukan saat menyita alat elektronik suaminya, Dominique Pelicot.
Kebingungan “melakukan kesalahan” dalam menyebutkan tanggal kematian presenter Michael Mosley dan salah mengutip pernyataan keluarganya Liam Payne setelah kematiannya.
“Penelitian kami hanya membahas permukaan dari masalah ini. skala dan itu jangkauan kesalahan dan distorsi konten yang dapat diandalkan tidak diketahui”, BBC memperingatkan.
“Ada kemungkinan perusahaan AI sendiri juga tidak mengetahui” cakupan kelemahan tersebut.
Atau, sebagai titik potongRingkasan AI mengubah berita nyata menjadi omong kosong.



