
Ada banyak sekali proklamasi selama beberapa tahun terakhir tentang zaman keemasan AI. Pengembang mengumumkan revolusi industri baru dan para eksekutif menjanjikan produktivitas tanpa hambatan dan terobosan luar biasa yang dipercepat oleh kecerdasan mesin. Setiap produk baru tampaknya membanggakan kemampuan AI-nya, betapapun tidak diperlukannya.
Namun kilau emas itu memiliki sisi yang lebih gelap. Terdapat lebih banyak indikasi bahwa masalah seputar teknologi AI bukanlah masalah kecil yang harus diperbaiki pada pembaruan berikutnya, namun merupakan elemen yang terus-menerus dan tidak dapat dihindari dalam teknologi dan penerapannya. Beberapa kekhawatiran muncul darinya mitos tentang AItapi bukan berarti tidak ada yang perlu dikhawatirkan. Meskipun teknologinya tidak menakutkan, cara orang menggunakannya bisa jadi menakutkan sangat menakutkan. Dan solusi-solusi yang ditawarkan oleh para pendukung terbesar solusi AI seringkali tampak seperti itu memperburuk keadaan.
1. Pakar keamanan AI melarikan diri
Bulan ini, kepala penelitian keamanan AI di Anthropic mengundurkan diri dan melakukannya dengan keras. Dalam pernyataan publiknya, dia memperingatkan bahwa “dunia sedang dalam bahaya” dan mempertanyakan apakah nilai-nilai inti masih mengarahkan keputusan perusahaan. Seorang tokoh senior yang tugasnya memikirkan jangka panjang dan bagaimana sistem yang semakin mumpuni bisa mengalami kegagalan memutuskan bahwa tidak mungkin untuk terus berjalan. Kepergiannya mengikuti serangkaian keluarnya industri lainnya, termasuk pendiri dan staf senior di xAI dan laboratorium terkenal lainnya. Pola ini sulit untuk diabaikan.
Pengunduran diri tentu saja terjadi di bidang teknologi, tetapi pengunduran diri ini terjadi karena alasan moral. Mereka disertai dengan esai dan wawancara yang menggambarkan perdebatan internal tentang standar keselamatan, tekanan persaingan, dan apakah perlombaan untuk membangun model yang lebih kuat melampaui kemampuan untuk mengendalikannya. Ketika orang yang bertugas memasang rem mulai menjauh dari kendaraan, hal ini menunjukkan bahwa mobil tersebut mungkin sedang melaju dengan cara yang bahkan dianggap mengganggu oleh orang dalam.
Perusahaan AI sedang membangun sistem yang akan membentuk perekonomian, pendidikan, media, dan mungkin peperangan. Jika para pemimpin keselamatan di negara mereka merasa terdorong untuk memperingatkan bahwa dunia sedang menuju ke wilayah yang berbahaya, maka peringatan tersebut tidak perlu diabaikan.
2. Bahaya pemalsuan mendalam
Sulit untuk membantah bahwa ada masalah dalam keamanan AI ketika regulator di Inggris dan negara lain menemukan bukti kredibel mengenai penyalahgunaan AI yang mengerikan, seperti laporan bahwa Grok di X telah menghasilkan gambar yang eksplisit secara seksual dan kasartermasuk konten deepfake yang melibatkan anak di bawah umur.
Deepfake bukanlah hal baru, namun sekarang, dengan petunjuk yang tepat dan kesabaran beberapa menit, pengguna dapat menghasilkan gambar palsu yang memerlukan keahlian teknis yang signifikan beberapa tahun yang lalu. Para korban hanya mempunyai sedikit jalan keluar setelah gambar-gambar yang dimanipulasi tersebar di memori internet.
Dari sudut pandang apokaliptik, ini bukan tentang satu skandal saja. Ini tentang erosi. Kepercayaan terhadap bukti visual sudah rapuh. Sekarang sudah retak. Jika ada gambar yang secara masuk akal dapat diabaikan sebagai gambar sintetik dan seseorang dapat ditempatkan secara digital ke dalam situasi yang membahayakan, landasan faktual bersama di bawah wacana publik akan mulai hilang. Harapannya adalah regulator menaruh perhatian dan operator platform terpaksa menghadapi penyalahgunaan. Perlindungan yang lebih kuat, alat deteksi yang lebih baik, dan standar hukum yang lebih jelas dapat mengurangi dampak terburuk, namun hal tersebut tidak akan memperbaiki kerusakan yang telah terjadi.
3. Halusinasi dunia nyata
Selama bertahun-tahun, sebagian besar kegagalan AI terjadi di layar, tetapi batasan tersebut semakin memudar seiring dengan mulai membantu mengarahkan mobil, mengoordinasikan robot gudang, dan memandu drone. Mereka menafsirkan data sensor dan membuat keputusan dalam hitungan detik di dunia fisik. Dan para peneliti keamanan telah memperingatkan bahwa sistem ini memang demikian sangat mudah untuk menipu.
Penelitian telah menunjukkan bahwa perubahan lingkungan yang tidak kentara, perubahan rambu jalan, penempatan stiker secara strategis, atau teks yang menyesatkan dapat menyebabkan sistem penglihatan AI salah mengklasifikasikan objek. Di laboratorium, itu mungkin berarti rambu berhenti yang diartikan sebagai rambu batas kecepatan. Di jalan yang sibuk, hal ini bisa berarti sesuatu yang jauh lebih buruk. Aktor jahat bisa menjadi ancaman baru. Semakin banyak infrastruktur yang bergantung pada pengambilan keputusan AI, maka semakin menarik pula infrastruktur tersebut untuk dijadikan target.
Imajinasi apokaliptik melonjak dengan cepat dari sana. Idealnya, kesadaran akan kelemahan-kelemahan ini akan mendorong investasi dalam praktik keamanan yang kuat sebelum sistem otonom ada di mana-mana. Namun, jika penerapannya lebih cepat dari keselamatan, kita semua bisa mendapatkan pelajaran yang menyakitkan secara real-time
4. Chatbots mendapatkan tim penjualan
OpenAI mulai meluncurkan iklan di ChatGPT baru-baru ini, dan tanggapannya beragam. Seorang peneliti senior OpenAI mengundurkan diri secara publik dan berpendapat bahwa produk AI yang didorong oleh iklan berisiko mengarah pada manipulasi pengguna mungkin tidak membantu menenangkan keadaan. Ketika sistem yang mengetahui ketakutan, ambisi, dan kebiasaan Anda juga memberikan insentif komersial, batas antara bantuan dan persuasi menjadi kabur.
Platform media sosial pernah menjanjikan koneksi sederhana dan berbagi informasi, namun model bisnis berbasis iklan mereka menentukan pilihan desain yang memaksimalkan keterlibatan, terkadang dengan mengorbankan kesejahteraan pengguna. Asisten AI yang dilengkapi dengan iklan mungkin menghadapi tekanan serupa. Prioritas halus atas jawaban tertentu. Dorongan yang selaras dengan kepentingan sponsor. Rekomendasi dikalibrasi tidak hanya untuk relevansi tetapi juga untuk pendapatan.
Agar adil, iklan tidak secara otomatis merusak suatu produk. Pelabelan yang jelas, firewall yang ketat antara monetisasi dan perilaku model inti, serta pengawasan peraturan dapat mencegah skenario terburuk. Namun, pengunduran diri tersebut berarti ada ketegangan yang nyata dan belum terselesaikan terkait hal tersebut.
5. Katalog kecelakaan yang terus bertambah
Ada akumulasi sederhana bukti adanya masalah dengan AI. Antara November 2025 dan Januari 2026, Basis Data Insiden AI mencatat 108 insiden baru insiden. Setiap entri mendokumentasikan kegagalan, penyalahgunaan, atau konsekuensi yang tidak diinginkan terkait dengan sistem AI. Banyak kasus yang mungkin kecil, namun setiap laporan tentang AI yang menggunakan penipuan atau memberikan nasihat berbahaya akan menambah dampak buruknya.
Akselerasi adalah yang terpenting di sini. Alat AI bermunculan di mana-mana, sehingga jumlah masalahnya pun berlipat ganda. Mungkin peningkatan dalam insiden yang dilaporkan hanya merupakan tanda pelacakan yang lebih baik daripada memburuknya kinerja, namun diragukan bahwa hal tersebut menyebabkan segalanya. Teknologi yang masih tergolong baru memiliki banyak dampak buruk terhadap namanya.
Kiamat adalah kata sarat yang membangkitkan gambaran keruntuhan dan finalitas. AI mungkin belum mencapai titik tersebut dan mungkin tidak akan pernah mencapainya, namun tidak dapat disangkal bahwa AI menyebabkan banyak turbulensi. Bencana tidak bisa dihindari, namun rasa berpuas diri adalah sebuah kesalahan. Ini mungkin bukan akhir dunia, tapi AI pasti bisa mewujudkannya.
Ikuti TechRadar di Google Berita Dan tambahkan kami sebagai sumber pilihan untuk mendapatkan berita, ulasan, dan opini pakar kami di feed Anda. Pastikan untuk mengklik tombol Ikuti!
Dan tentu saja Anda juga bisa Ikuti TechRadar di TikTok untuk berita, review, unboxing dalam bentuk video, dan dapatkan update rutin dari kami Ada apa juga.
Laptop bisnis terbaik untuk semua anggaran



