Sekelompok pemenang Hadiah Nobel berkumpul pada akhir bulan lalu untuk membahas kecerdasan buatan dan akhir dunia. Tampaknya awal dari plot film fiksi ilmiah yang buruk, tetapi sayangnya ini bukan masalahnya.
Penilaian manusia terus menjadi mendasar ketika senjata nuklir diputuskan.
Tetapi menurut sekelompok ilmuwan dan ahli dalam energi nuklir, yang baru -baru ini berkumpul untuk merefleksikan dampak AI pada pengambilan keputusan manusia, itu adalah masalah Kapan, dan tidakkecerdasan buatan pada akhirnya akan didapat Akses ke kode nuklir.
“Ini seperti listrik,” katanya BOB LATIFFMayor Jenderal Reformed dari Angkatan Udara AS dan anggota Buletin Dewan Ilmu Pengetahuan Ilmu Pengetahuan dan Keamanan Atom, Kabel. “Itu akan menyusup ke segalanya.”
Tahun lalu, Jenderal Angkatan Udara Kapas AnthonyBertanggung jawab atas gudang rudal nuklir Amerika, membual dalam konferensi pertahanan bahwa Pentagon bertaruh semuanya pada AI, dengan alasan bahwa ia akan “Meningkatkan kemampuan kami pengambilan keputusan. “
Jenderal tidak mencapai titik menyatakan bahwa kita harus membiarkan AI mengambil kendali penuh terhadap persenjataan nuklir. “Kita tidak boleh membiarkan kecerdasan buatan untuk membuat keputusan ini untuk kita,” katanya saat itu.
Salah satu kepribadian publik yang paling diperhatikan oleh kebangkitan AI James Cameron. Tahun lalu, misalnya, Direktur Inggris memperkirakan “Kedatangan pembasmi“.
Dalam wawancara baru -baru ini Rolling StoneCameron memperingatkan bahwa penggunaan kecerdasan buatan dalam a Perlombaan Senjata Global Ini dapat menyebabkan jenis distopia yang telah dinubuatkan sejak 1984 dalam kisah “Terminator” -nya.
Menurut Cameron, wajah manusia Tiga ancaman eksistensial: Superintelligence, senjata nuklir dan krisis iklim.
“Menurut saya Masih ada bahaya kiamat dalam gaya akhir, dimana Kumpulkan AI dengan sistem persenjataanbahkan di tingkat sistem senjata nuklir, pertahanan nuklir, serangan balik, semua ini, ”kata Cameron.
“Teater operasi sangat cepat, jendela keputusannya sangat cepat, akan dibutuhkan Superintelligence untuk dapat memprosesnya“Tapi kita mungkin pintar dan menjaga manusia di sirkuit,” kata direktur.
“Tetapi Manusia bisa kelirudan ada banyak kesalahan yang membuat itu menempatkan kami di ambang insiden internasional Itu bisa menyebabkan perang nuklir. Itu sebabnya saya tidak tahu, ”tambah Cameron.
“Iklim dan degradasi umum dunia alami, senjata nuklir, pengawasan … mereka semua dengan cara untuk mewujudkan dan mencapai puncak pada saat yang sama. Mungkin Superintelligence adalah jawabannya“.
Mungkin.