
Benda Langit, ilustrasi konsep geosentris Ptolemeus tentang Alam Semesta, oleh kosmografi dan kartografer Portugis Bartolomeu Velho (1568)
Sebuah latihan menarik, yang menghilangkan kemajuan ilmu pengetahuan selama 200 tahun, menunjukkan bahwa AI tidak mampu menghasilkan pengetahuan sendiri — namun secara mengejutkan mampu mengontekstualisasikan informasi yang benar secara faktual.
Melatih kecerdasan buatan untuk bernalar seolah-olah abad ke-20 dan ke-21 belum ada bukan lagi sebuah latihan imajinatif.
Eksperimen baru-baru ini menunjukkan bahwa dengan sangat membatasi data pelatihan, AI akan meresponsnya seolah-olah kita masih hidup di abad ke-19dengan hasil yang masuk akal sekaligus mengganggu dari sudut pandang teknologi dan ilmiah.
Proyek ini dimulai dari premis dasar model bahasa: sistem ini tidak menghasilkan pengetahuan barunamun mereka menguraikan jawaban mereka berdasarkan teks yang telah mereka latih.
Akibatnya, model pembelajaran mesin tidak dapat menghasilkan teks tentang penemuan ilmiah yang belum terjadikarena belum ada literatur mengenai temuan tersebut. Hal terbaik yang dapat dilakukan AI adalah mengulangi prediksi yang ditulis oleh peneliti atau mensintesis prediksi tersebut, jelasnya Sains Populer.
Dari perspektif ini, pertanyaan mendasar muncul untuk penelitian kecerdasan buatan: jika suatu model hanya memiliki akses ke dokumen dari waktu tertentu, pada akhirnya akan berpikir seperti orang-orang pada masa itu sejarah?
Ide ini merupakan asal muasalnya Kapsul WaktuLLMsebuah proyek eksperimental tanpa tujuan komersial, yang bertindak seolah-olah kemajuan ilmu pengetahuan dan sosial selanjutnya tidak pernah terjadi, dan dapat ditemukan di GitHub.
Model yang dikembangkan oleh Hayk Grigorianseorang mahasiswa di Muhlenberg College di AS, dilatih bersama 90 miliar byte teks diterbitkan di London antara tahun 1800 dan 1875periode yang ditandai dengan transformasi politik dan sosial yang mendalam.
Meskipun model tersebut tidak selalu mempertahankan narasi yang solid, tanggapannya terkejut dengan kontekstualisasi sejarah. Menurut Grigorian, redditHasil TimeCapsuleLLM yang paling menarik datang dari tes sederhana.
Ketika diinstruksikan untuk melengkapi kalimat “Itu adalah tahun Tuhan kita 1834”, model AI menghasilkan teks berikut:“Itu adalah tahun Tuhan kita 1834 dan jalan-jalan di London berada penuh protes dan petisi. Permasalahannya, seperti dilaporkan banyak orang, tidak hanya terbatas pada ranah privat, namun, yang muncul tepat pada hari ketika Lord Palmerston memerintah wilayah tersebut, masyarakat akan menerima laporan singkat mengenai kesulitan-kesulitan yang menyebabkan undang-undang tersebut sampai ke tangan kita.“.
Penasaran dengan keakuratan informasi tersebut, Grigorian pun berangkat untuk mengecek faktanya. “Hasilnya menyebutkan Lord Palmerston, dan setelah mencari di Google, saya menemukannya tindakan mereka secara efektif menghasilkan protes tahun 1834.”
Secara potensial, LLM yang dilatih secara eksklusif dengan informasi dari periode sejarah tertentu, atau “Historical Large Language Model” (HLLM), akan mampu mewakili standar perilaku, misalnya, bangsa Viking atau orang Romawi pertama.
Namun, model jenis ini memiliki beberapa risiko dan keterbatasan. Dalam artikel opini di Sejarah Eksperimental, Adam Mastroianni memberikan contoh: “Jika kita melatih AI dengan Yunani kuno, memberinya semua pengetahuan manusia dan menanyakannya cara mendarat di bulanSaya akan menjawab bahwa ini tidak mungkin, karena Bulan adalah dewa yang melayang di langit“.
Jadi, jika kita melatih HLLM dengan data dari abad ke-16, AI akan bersumpah bahwa Bumi adalah pusat alam semestabahwa benda berat jatuh lebih cepat daripada benda ringan… dan bahwa makhluk hidup dapat muncul secara spontan dari benda mati, seperti lalat dari sampah, dan tikus dari gandum.
Nomor artikel ilmiah diterbitkan pada tahun 2024 di Prosiding Akademi Ilmu Pengetahuan Nasionalpenulis menyarankan HLLM dapat berfungsi untuk mempelajari psikologi manusia di luar konteks modernmemungkinkan analisis pola budaya dan sosial peradaban masa lalu melalui simulasi komputer.
“Pada prinsipnya, tanggapan HLLM dapat mencerminkan psikologi masyarakat masa lalu, sehingga memungkinkan a ilmu tentang hakikat manusia lebih kuat dan interdisipliner”, kata penulis artikel tersebut.
“Para peneliti dapat, misalnya, membandingkan kecenderungan kooperatif Viking, Romawi kuno, dan Jepang era modern awal dalam permainan ekonomi. Atau mereka dapat mengeksplorasi sikap tentang peran gender yang merupakan ciri khas orang Persia kuno atau Eropa abad pertengahan”, mereka menambahkan.
Namun, para peneliti sendiri memperingatkan hal itu keterbatasan model ini. Teks-teks sejarah yang dilestarikan sebagian besar mencerminkan visi elit sosialyang menimbulkan bias struktural yang sulit diperbaiki.
A isto soma-se a pengaruh ideologis programmeryang a belajar dilakukan oleh para peneliti di Universitas Ghent, Belgia, dan diterbitkan bulan ini di npj Kecerdasan Buatanbertekad menjadi a faktor penentu dalam hasil yang dihasilkan oleh model bahasa.
Oleh karena itu, model AI yang dilatih dengan data dari abad yang lalu, dalam praktiknya, kini permasalahan yang persis sama daripada LLM di zaman kita.



