Deloitte Australia akan mengganti sebagian dari 250.000 euro yang dibayarkan oleh pemerintah negara tersebut untuk laporan yang dibuat oleh AI – yang, tidak mengherankan, penuh dengan kesalahan, ketidakakuratan, dan informasi yang hanya dibuat-buat.

Pengembalian dana Deloitte ke Australia karena a laporan penuh kesalahan saya terkenal wawancara yang ‘dibuat-buat’ oleh Michael Schumacher, dalam kedua kasus yang melibatkan AI, adalah contoh tren yang meningkat seiring kemajuan teknologi.

Baru-baru ini, di Portugal, Google harus memperbaiki konten palsu tentang siapa Anabela Natáriosetelah jurnalis dan penulis tersebut mengadu kepada perusahaan teknologi tersebut, namun kesalahannya mengenai hal tersebut informasi yang salah atau palsu yang dihasilkan dari kecerdasan buatan sudah mempunyai sejarah di beberapa belahan dunia.

Yang terbaru, dari awal Oktober, menunjukkan bahwa Deloitte Australia akan mengganti sebagian dari 440.000 dolar Australia, kira-kira 250 ribu eurodibayar oleh Pemerintah Australia untuk a laporan penuh kesalahanyang tampaknya memang demikian dihasilkan oleh AI.

Di antara kesalahan-kesalahan yang disebutkan adalah a kutipan palsu dari putusan pengadilan federal dan referensi ke artikel penelitian akademis yang tidak adaberita ke Pers Terkait.

Tren sistem AI generatif informasi pembuatan disebut halusinasi.

Setelah melaporkan kesalahan, konsultan menerbitkan a versi revisidari laporan, di mana informasi yang merupakan sistem bahasa AI generatifo Azure OpenAItelah digunakan dalam penyusunan laporan – meskipun, menurut mereka yang bertanggung jawab, “substansi” laporan tersebut tetap ada.

Salah satu kasus yang paling terkenal adalah kasus wawancara AI palsu dengan Schumacherditerbitkan oleh majalah Jerman Saat ini pada tahun 2023.

Majalah tersebut menerbitkan di sampulnya, pada bulan April 2023, kalimat: “Michael Schumacher, wawancara pertama!”, Selanjutnya ditulis: “Ini terlihat nyata“, dengan dugaan pernyataan Schumacher yang dihasilkan oleh AI.

Lebih dari setahun kemudian, pada tanggal 23 Mei 2024, keluarga pilot mengumumkan bahwa dia telah melakukannya memenangkan kasus melawan penerbit majalah tersebut. Juru bicara keluarga Sabine Kehm mengonfirmasi kepada AP bahwa tindakan hukum telah berhasil.

Kompensasinya dikatakan sebesar 200 ribu euro dan penerbit Jerman Funke Magazines, selain meminta maaf kepada keluarga, memecat manajer majalah.

Salah satu kasus pertama yang menjadi berita terjadi pada bulan April 2023, ketika seorang walikota Australia mengumumkan bahwa ia akan mengajukan tuntutan pencemaran nama baik karena informasi palsu yang dibagikan oleh ChatGPTyang pada saat itu diklasifikasikan oleh Reuters sebagai salah satu kasus pengadilan pertama dari jenisnya dengan konten dari model OpenAI AI.

Menurut BBC, Brian Hoodpresiden Hepburn Shire, di Victoria, Australia, menyatakan bahwa IA secara keliru menyatakan bahwa dia ditahan karena suap saat bekerja di anak perusahaan National Bank Australia, padahal kenyataannya adalah pelapor dan tidak pernah dituduh melakukan kejahatan apa pun.

Kasus ini menarik perhatian masalah halusinasi pada AI generatifdimana sistem menghasilkan iinformasi yang kredibel namun pada kenyataannya tidak benardan mengajukan pertanyaan hukum tentang tanggung jawab perusahaan pemilik model AI ini dan atas kontennya.

Baru-baru ini, pada bulan April tahun ini, aktivis konservatif Robby Starbucks sela a gugatan pencemaran nama baik terhadap Metamengklaim bahwa raksasa media sosial Facebook dan Instagram menyebarkan kecerdasan buatan ‘chatbot’ pernyataan palsu tentang diri Andatermasuk ikut serta dalam kerusuhan di Capitol Amerika Serikat pada 6 Januari 2021.

Pada tanggal 22 Oktober, Starbucks juga mengajukan gugatan pencemaran nama baik melawan alat AI Google yang mengaitkannya dengan tuduhan pelecehan seksual dan kebohongan lainnya, menurut The Wall Street Journal.

Kasus wawancara Schumacher Namun, ini berbeda dari yang lain dalam aspek mendasar. Yang terakhir, informasi palsu muncul akibat halusinasi AI, tanpa ada rencana manusia sebelumnya dalam penyebaran kesalahan.

Yang pertama, penerbit memahami bahwa menggunakan AI untuk menghasilkan wawancara palsu adalah tindakan yang cerdas. Apakah mungkin untuk mengatakan bahwa AI tampaknya telah melakukan tugasnya dengan baik saat ini — dan itu penerbit berhalusinasi.



Tautan sumber