
Sekali lagi, AI adalah salah satu agenda terbesar dalam Forum Ekonomi Dunia 2026.
Hanya saja tahun ini, nadanya terasa lebih tegang – bisnis dan para jurnalis dengan cemas bertanya kepada para pemimpin teknologi dalam tentang keamanan AI, tata kelola, keterbatasan infrastruktur, apakah ‘gelembung AI’ yang ditakuti benar-benar sebuah gelembung, dan kapan investasi akan mulai memberikan keuntungan ekonomi. Dengan kata lain, taruhannya tidak pernah setinggi ini.
Wakil Presiden Teknik di UnsibleAI.
Dari sekian banyak pemimpin AI yang berbicara di Davos, Microsoft CEO Satya Nadella nyaris tepat sasaran. Ia memperingatkan bahwa AI hanya akan terhindar dari gelembung jika menghasilkan hasil yang nyata dan terdistribusi secara luas, dibandingkan memusatkan nilai pada segelintir perusahaan dan perekonomian.
AI yang tidak dapat diandalkan (khususnya masalah halusinasi) terus memperdalam a bisnis defisit kepercayaan yang menghambat dampak ekonomi positif.
Mengapa perdebatan tentang AI saat ini dimulai dari tempat yang salah
Sebagian besar pembicaraan di Davos mencerminkan kenyataan bahwa sistem AI yang dominan saat ini – model bahasa besar (LLM) – adalah tempat dimana kemampuan, perhatian, dan investasi saat ini terkonsentrasi.
Regulasi, perencanaan infrastruktur, dan pemodelan ekonomi dibangun berdasarkan realitas tersebut. Akibatnya, halusinasi diperlakukan sebagai risiko yang disayangkan namun tidak dapat dihindari untuk diungkapkan atau dikurangi.
LLM adalah sistem probabilistik, artinya mereka menghasilkan keluaran dengan memprediksi apa yang akan terjadi selanjutnya berdasarkan pola statistik yang dipelajari dari kumpulan data yang sangat besar. Hal inilah yang membuat mereka fasih dan fleksibel dalam berbahasa, namun juga menjadi alasan mengapa mereka berhalusinasi.
Ketika sebuah LLM menghasilkan jawaban yang meyakinkan tetapi salah, itu bukan bug – ini adalah konsekuensi dari cara rekayasanya.
Di Davos, halusinasi sering kali dibahas sebagai masalah tata kelola atau keselamatan, namun halusinasi melekat pada pendekatan probabilistik itu sendiri.
Perbedaan ini penting karena menentukan apakah halusinasi diperlakukan sebagai sesuatu yang perlu diatasi, atau sebagai sinyal bahwa desain sistem yang berbeda mungkin diperlukan untuk kasus penggunaan tertentu.
Jika halusinasi dianggap sebagai hal yang tidak bisa dihindari, satu-satunya respons yang ada hanyalah peringatan, penyangkalan, pengawasan manusia, dan pagar pembatas yang semakin rumit.
Itulah sebabnya sebagian besar perbincangan di Davos berfokus pada keterbukaan informasi, transfer risiko, dan regulasi – semua hal tersebut diperlukan, namun tidak ada satupun yang mampu mengubah sistem yang tidak dapat diandalkan menjadi infrastruktur yang dapat diandalkan.
Menggabungkan fleksibilitas dengan keandalan
Jadi apa alternatifnya? Fakta bahwa model probabilistik bukanlah satu-satunya cara untuk membangun sistem AI. Jauh sebelum AI generatif menarik perhatian publik, sistem penalaran simbolik digunakan untuk mengkodekan pengetahuan sebagai aturan, fakta, dan batasan yang eksplisit.
Sistem ini tidak menebak. Dengan masukan yang sama, mereka selalu menghasilkan keluaran yang sama.
Kebanyakan orang berinteraksi dengan sistem simbolik setiap hari tanpa memikirkannya – spreadsheet hanyalah salah satu contohnya. Ketika sebuah lembar kerja menghitung hasilnya, pengguna tidak khawatir akan berhalusinasi jawaban alternatif yang “kedengarannya benar”. Bisnis menginginkan dan membutuhkan determinisme yang sama dari AI.
Sebagian besar perangkat lunak yang digunakan saat ini adalah sistem simbolik – mereka tidak dapat menangani pemrosesan bahasa alami dengan baik, yang merupakan keunggulan LLM. Namun pilihan antara neural dan simbolik bukanlah pilihan biner.
Saat ini, semakin banyak sistem hybrid yang dikenal sebagai neurosymbolic AI yang sengaja menggabungkan kekuatan kedua pendekatan tersebut.
Jaringan saraf digunakan ketika fleksibilitas diperlukan, seperti ketika menafsirkan bahasa atau mengekstraksi informasi dokumensedangkan lapisan penalaran simbolik menerapkan aturan, batasan, dan logika eksplisit untuk menentukan hasil.
Yang terpenting, hal ini berarti keluaran tidak hanya ditentukan oleh kemungkinan statistik saja. Sistem neurosimbolik dapat melacak bagaimana suatu kesimpulan dicapai, menghasilkan hasil yang sama untuk masukan yang sama, dan memberi sinyal dengan jelas ketika sebuah pertanyaan tidak dapat dijawab dengan percaya diri.
Dalam lingkungan di mana keputusan harus dijelaskan, diaudit, dan dipertahankan, sifat-sifat tersebut sangatlah penting.
Biaya kehilangan alternatif
Fokus sempit ini mempunyai konsekuensi nyata. Sebagian besar kekhawatiran yang diungkapkan di Davos berasal dari perjuangan menghadapi keterbatasan LLM – sistem yang menawarkan kemampuan luar biasa namun tantangan keandalan yang tidak dapat dihindari.
Ketika keterbatasan ini menjadi jelas, kepercayaan terkikis, pengawasan manusia menjadi suatu keharusan, dan sebagainya produktivitas keuntungan menjadi lebih sulit untuk diwujudkan.
Banyak organisasi mendapati bahwa proyek percontohan sulit untuk dikembangkan, terutama ketika tim hukum dan kepatuhan menyampaikan kekhawatiran tentang keluaran yang tidak dapat dipertahankan atau diaudit dengan andal.
Meskipun hasil ROI berbeda-beda di seluruh industri, tantangan yang berulang adalah bahwa sistem yang menawarkan kemampuan paling mengesankan tidak pernah dirancang untuk membenarkan keputusan mereka sendiri.
Para pelaku bisnis di Davos berhak bertanya bagaimana AI harus diatur, diatur, dan diintegrasikan ke dalam perekonomian global. Sistem neurosimbolik menawarkan solusi alami terhadap kekhawatiran bisnis mengenai adopsi, di mana sistem khusus LLM menghadirkan risiko baru melalui keandalan dan kemampuan menjelaskan.
Namun pertanyaan-pertanyaan tersebut tidak dapat dijawab secara bermakna tanpa terlebih dahulu memperluas pembahasan tentang apa sebenarnya AI itu.
Kebanyakan praktisi memahami keterbatasan LLM dan sudah memperdebatkan strategi mitigasi. Namun ada perbedaan antara mengurangi keterbatasan bawaan dan memilih arsitektur yang menghindarinya untuk kasus penggunaan tertentu.
Pertanyaannya bukan apakah akan meninggalkan LLM, tapi apakah kita terlalu mudah default terhadapnya bahkan ketika persyaratan keandalan menyarankan pendekatan yang berbeda.
Jika AI ingin mendukung perekonomian dan bukan sekadar mengesankan dalam bentuk demo, maka keandalan tidak bisa diabaikan. Ini harus menjadi standar agar desain dapat diaudit, patuh, dan dapat dipercaya sejak awal.
Davos 2026 mengangkat beberapa pertanyaan mendesak, dan jawabannya sudah ada dalam pendekatan yang menggabungkan fleksibilitas LLM dengan penalaran deterministik.
Terlalu banyak perdebatan yang masih menganggap halusinasi sebagai hal yang tidak dapat dihindari, daripada mengakui bahwa halusinasi melekat pada sistem probabilistik dan bahwa ada alternatif untuk kasus penggunaan yang mengutamakan keandalan.
AI yang andal bukanlah sesuatu yang kita tunggu untuk diciptakan. Itu sudah ada dalam bentuk AI neurosimbolik. Sampai kenyataan tersebut tercermin dalam penerapan arus utama, kesenjangan antara ambisi Davos dan apa yang dapat diandalkan oleh organisasi akan terus melebar.
Kami telah menampilkan pembuat situs web AI terbaik.
Artikel ini dibuat sebagai bagian dari saluran Expert Insights TechRadarPro tempat kami menampilkan para pemikir terbaik dan tercemerlang di industri teknologi saat ini. Pandangan yang diungkapkan di sini adalah milik penulis dan belum tentu milik TechRadarPro atau Future plc. Jika Anda tertarik untuk berkontribusi, cari tahu lebih lanjut di sini: https://www.techradar.com/news/submit-your-story-to-techradar-pro



