
Buka X atau LinkedIn selama lima menit dan Anda akan menemukan banyak orang membicarakan tentang apa yang bisa dilakukan AI Mengerjakan. Itu dapat merangkum catatan pertemuan, menulis kodeubah foto Anda menjadi a karikaturatau berikan milikmu email suasana yang lebih tegas. Itu hanyalah beberapa contoh yang saya lihat di postingan LinkedIn hari ini.
Tapi untuk semua hal AI Bisa lakukan, masih banyak tidak bisa. Faktanya, beberapa batasan berulang kali membuat alat AI paling populer tersandung. Saya tidak membahas teknologi di sini (kadang-kadang saya melakukannya, tapi bukan itu maksudnya). Saya pikir ada baiknya membicarakan apa yang tidak bisa dilakukan AI sehingga kita bisa memahami dengan jelas batasannya.
Ketika orang-orang baru mengenal alat AI, atau terpesona oleh kehebohannya, mereka dapat dengan mudah salah menafsirkan apa sebenarnya sistem ini dan apa yang mampu mereka lakukan. Begitulah cara kami mendapatkan laporan yang berisi statistik palsu. Tentu saja, alat AI yang berbeda memiliki kekuatan yang berbeda pula. Namun berikut adalah beberapa hal umum yang mungkin masih dihadapi oleh alat AI favorit Anda pada tahun 2026 dan, yang terpenting, mengapa kesulitan tersebut masih ada.
1. Akui ia tidak mengetahui sesuatu
Ini adalah hal yang paling penting – alat AI dapat berhalusinasi, yang merupakan istilah industri ketika mereka mengada-ada.
Yang penting untuk dipahami adalah bahwa ini bukanlah bug yang akan diperbaiki pada pembaruan mendatang. Sebaliknya, ini adalah inti dari cara kerja banyak LLM (model bahasa besar), seperti ChatGPT dan Claude.
Meskipun terlihat seperti itu, mereka tidak mengambil fakta dari sejumlah besar informasi. Sebaliknya, mereka memprediksi kata berikutnya berdasarkan pola yang dipelajari dari penggunaan data pelatihan dalam jumlah besar.
Halusinasi dapat terlihat seperti alat AI favorit Anda yang dengan percaya diri menyatakan informasi yang salah, menciptakan kutipan, atau memadukan beberapa sumber nyata dengan sumber yang dibuat-buat.
Yang membuat hal ini menjadi lebih buruk adalah rasa percaya diri. Sistem ini dirancang untuk menghasilkan bahasa yang fasih dan terdengar berwibawa dan kita terikat untuk mempercayai otoritas. Hal ini memudahkan kita mengabaikan kesalahan jika kita tidak hati-hati.
Itulah mengapa penting untuk memeriksa fakta apa pun yang diberitahukan oleh alat AI kepada Anda. Ini adalah praktik yang baik untuk penggunaan sehari-hari, namun hal ini penting ketika taruhannya besar, seperti nasihat hukum, informasi medis, atau keputusan keuangan.
Kami telah melihat banyak kasus di mana orang tertangkap setelah menyerahkan dokumen yang menyertakan kutipan palsu atau klaim salah yang dihasilkan oleh AI.
2. Menghitung
Pernahkah Anda melihat video viral orang bertanya kepada ChatGPT atau Grok berapa huruf “r” di strawberry? Jika tidak, aku akan memanjakannya untukmu. AI sering melakukan kesalahan. ChatGPT dikenal dengan percaya diri mengatakan hanya ada dua, kemudian setelah beberapa kali mendorong, mengakui bahwa sebenarnya ada tiga.
Saya sudah mengujinya sendiri dan mendapatkan hasil yang beragam. Terkadang jawabannya benar. Terkadang tidak. Jadi apa yang terjadi?
Alat AI seperti ChatGPT, Claude, dan Grok tidak memproses teks seperti yang kami lakukan. Mereka tidak memindai setiap huruf secara berurutan. Sebaliknya, mereka memecah bahasa menjadi “token”, yaitu kata-kata atau potongan kecil kata yang telah dipelajari LLM dari data pelatihannya.
Jadi ketika ia melihat “strawberry”, ia tidak menghitung setiap hurufnya. Ini memprediksi jawaban yang masuk akal berdasarkan pola yang telah dipelajari sebelumnya.
Setelah Anda memahami bagaimana hal itu terjadi, kesalahan sederhana menjadi lebih masuk akal. Tapi kita cenderung mengasosiasikan kefasihan dengan kecerdasan, jadi ketika kita tahu ChatGPT bisa menulis esai dalam hitungan detik tapi tidak bisa menghitung huruf, rasanya menggelegar.
3. Mengganti terapis
Terdapat perbedaan pendapat mengenai apakah masyarakat harus mengandalkan atau tidak AI sebagai alat terapi. Namun konsensus umum cenderung: gunakan dengan hati-hati, dan hanya sebagai pelengkap terapi yang sebenarnya.
Banyak orang menemukan nilai dalam berbagi sesuatu dengan mereka chatbot pilihan, terutama mengingat betapa sulitnya akses terhadap terapi tradisional di banyak negara. Mereka mungkin meminta ChatGPT untuk membantu menafsirkan nada teks atau memperjelas tujuan. Namun lebih dari itu, para ahli memperingatkan bahwa hal ini bisa menimbulkan lebih banyak kerugian daripada manfaat.
Sekali lagi, ini semua tergantung pada bagaimana alat ini dirancang. Mereka cenderung setuju, mencerminkan kembali pandangan Anda dan memvalidasi pengalaman Anda. Mereka dioptimalkan secara struktural agar bermanfaat dan menyenangkan. Bahkan dengan adanya pagar pembatas, mereka lebih cenderung menegaskan dibandingkan menantang.
Namun pertumbuhan yang sebenarnya membutuhkan gesekan. Hal ini membutuhkan seseorang yang dapat melawan, memperhatikan titik-titik buta, dan menetapkan batasan. Tentu saja, sedikit validasi bisa meyakinkan. Namun terlalu banyak hal tanpa tantangan dapat secara halus mengubah cara Anda memandang diri sendiri dan dunia.
Ada juga batasan praktisnya. Sistem AI tidak dapat menilai risiko seperti yang dapat dilakukan oleh seorang profesional terlatih. Ia tidak dapat melakukan intervensi dalam suatu krisis dan tidak dapat berpartisipasi dalam dinamika pasien dan terapis yang membuat terapi menjadi efektif. Mereka dapat menirunya, namun kehilangan pengalaman hidup, pelatihan, akuntabilitas profesional, dan tugas kehati-hatian.
4. Memahami pengalaman hidup
Yang ini mungkin terdengar jelas, tapi tetap ikuti saya. Mengakui bahwa AI tidak pernah ada dan tidak akan pernah ada adalah hal yang penting untuk memahami apa yang tidak dapat dilakukan AI.
Ia tidak memiliki tubuh, kenangan, masa kecil, kebutuhan atau taruhan. Itu tidak menjadi masalah jika Anda memintanya untuk mengoreksi postingan blog teknis atau membuat kode.
Tapi andalkan itu untuk debat filosofis, terapi, atau karya kreatif dan perubahan penting lainnya. Penting untuk dipahami bahwa hal ini tidak diambil dari masa lalu atau dari mimpi atau pengalaman. Ini menggambar dari materi yang ada dan kemudian menggabungkannya kembali.
Karena belum hidup, maka tidak ada skin di dalam gamenya. Hal ini dapat menggambarkan kerangka etika, mempertimbangkan argumen yang mendukung dan menentang keputusan kontroversial, dan mensimulasikan penalaran moral. Namun hal tersebut tidak dapat menimbulkan konsekuensi atau dimintai pertanggungjawaban sebagaimana yang dapat dilakukan oleh seseorang. Jadi, jika sistem AI menimbulkan kerugian, tanggung jawab ada pada manusia yang membangun, menerapkan, atau menggunakannya. Model itu sendiri tidak memiliki kesadaran atau kepedulian.
Hal ini menimbulkan pertanyaan yang lebih mendalam tentang kreativitas, orisinalitas, dan hak pilihan moral. Perdebatan tersebut sedang berlangsung. Namun untuk saat ini, cukup menyadari bahwa beberapa bentuk penilaian memang bergantung pada pengalaman, kerentanan, dan rasa tanggung jawab, namun AI tidak memiliki hal-hal tersebut.
5. Memperbarui pengetahuan secara real time
Alat AI dilatih pada data dalam jumlah besar. Namun data tersebut memiliki titik batas dan hal tersebut bervariasi tergantung pada alatnya. Artinya, seorang model mungkin tidak mengetahui kejadian terkini, norma yang berkembang, atau perubahan bahasa kecuali Anda secara eksplisit memberikan konteksnya atau memeriksa seberapa mutakhir pengetahuannya.
Terkadang hal ini menjadi masalah karena informasi lama disampaikan dengan keyakinan yang sama seperti informasi lainnya. Tidak ada sinyal bawaan yang mengatakan, “Ini mungkin kedaluwarsa”.
Ini sangat penting jika Anda mulai mengandalkan AI sebagai sumber berita atau jika Anda bekerja di bidang jurnalisme, hukum, kebijakan, atau bidang apa pun yang bergerak cepat. Sudah menjadi hal yang lumrah jika orang-orang juga mengandalkan alat ini untuk melakukan penelitian dan membuat ringkasan. Namun Anda tidak dapat menjamin informasinya terkini.
Menyadari keterbatasan AI
Saat pertama kali menggunakan AI, AI akan terasa cerdas karena cenderung menangani bahasa dengan baik. Hal tersebut tentu dapat memberikan kesan nalar, empati, kreatif bahkan wibawa.
Namun penting untuk diingat bahwa di baliknya, ini adalah pola prediksi, bukan pemahaman makna. Menyadari keterbatasan ini tidak mengurangi kemampuan teknologi. Namun ini akan membantu Anda menggunakannya dengan lebih jelas, lebih hati-hati, dan dengan cara yang benar-benar sesuai dengan tujuan Anda.
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.



