Chatbot kecerdasan buatan dikenal sebagai energi dalam jumlah besar. Tetapi mengapa mereka menghabiskan begitu banyak listrik? Jawabannya terletak pada skala besar sistem ini.
Dalam beberapa tahun terakhir, ChatGPT telah memecat popularitas, dengan hampir 200 juta pengguna mengirim lebih dari 1.000 juta permintaan ke aplikasi setiap hari, seperti, di antara aplikasi lainnya, Google Gemini, Grok atau percepuitas.ia.
Tampaknya jawaban atas permintaan ini “muncul entah dari mana.” Namun, diriChatbots kecerdasan buatan mengkonsumsi energi yang sangat besar, yang setiap tahun akan memberi makan seluruh kota.
Pada tahun 2023, pusat data yang digunakan untuk melatih dan memproses bertanggung jawab 4,4% dari konsumsi Listrik di Amerika Serikat. Global, pusat -pusat ini mewakili sekitar 1,5% dari konsumsi energi dunia.
Angka -angka ini diharapkan untuk menembak, setidaknya duplikat pada tahun 2030, saat pencarian AI bertambah.
“Hanya tiga tahun yang lalukami bahkan tidak memiliki chatgpt, ”katanya Ilmu langsung Alex de Vries-GaoPeneliti dalam Keberlanjutan Teknologi yang muncul di Vrije Universiteit Amsterdam dan pendiri Digiconomist, sebuah platform yang didedikasikan untuk mengungkap konsekuensi yang tidak disengaja dari tren digital.
“Dan sekarang kita berbicara tentang teknologi yang akan bertanggung jawab atas hampir Setengah dari konsumsi listrik Pusat Data Global ”, menekankan Vries-GAO.
Tapi apa yang membuat IA chatbots begitu intensif dalam energi? Jawabannya ada skala besar sistem ini. Secara khusus, ada dua fase AI yang mengkonsumsi energi terbanyak: pelatihan dan inferensi, jelaskanMosharaf Chowdhuryilmuwan komputer di University of Michigan.
Untuk melatih AI Chatbots, Model Bahasa Besar (LLM) menerima set data besarmemungkinkan Anda untuk belajar, mengenali standar dan membuat prediksi.
Secara umum, ada keyakinan bahwa “Semakin besar semakin baik”Dalam pelatihan AI, di mana model yang lebih besar, yang menyerap lebih banyak data, cenderung menghasilkan prediksi yang lebih akurat.
“Jadi, apa yang terjadi ketika mencoba melatih adalah bahwa model saat ini begitu besar Jangan muat dalam satu unit pemrosesan grafik tunggal; Jangan muat dalam satu server, ”kata Chowdhury.
Untuk mendapatkan gambaran tentang skala, a belajar Vries-Gao, diterbitkan pada tahun 2023 di Joule, memperkirakan itu Server NVIDIA DGX A100 tunggal membutuhkan hingga 6,5 kW kekuatan. Pelatihan LLM secara normal Membutuhkan banyak servermasing -masing dengan rata -rata Delapan GPU, beroperasi selama berminggu -minggu atau berbulan -bulan.
Tidak total, ISTO mengkonsumsi gunung energi: Diperkirakan pelatihan OpenAI GPT-4 digunakan 50 gigawatts-jam energisetara dengan memberi makan kota San Francisco selama tiga hari.
A kesimpulan Ini juga mengkonsumsi banyak energi. Pada tahap inilah AI Chatbot menarik kesimpulan dari apa yang telah ia pelajari dan menghasilkan tanggapan terhadap permintaan.
Meskipun eksekusi LLM setelah dilatih membutuhkan sumber daya komputasi yang jauh lebih sedikit, Inferensi intensif di EnergiKarena tingginya jumlah pesanan yang dikirim ke chatbots.
Menurut Openai, pada bulan Juli 2025, pengguna chatgpt mengirim lebih dari 2,5 miliar permintaan setiap hariyang berarti bahwa banyak server digunakan untuk menghasilkan respons langsung. Belum lagi chatbots yang banyak digunakan, termasuk Gemini da Googleyang, menurut perwakilan perusahaan, akan segera menjadi Opsi default pada akses ke pencarian Google.
“Bahkan dalam kesimpulan, tidak mungkin untuk menghemat energi“Kata Chowdhury.” Ini bukan data besar. Model data sudah besar, tetapi kami memiliki a jumlah orang yang sangat besar untuk menggunakannya“.
Kesimpulan: Rasa bersalah (juga) adalah milik Anda.