Mengapa AI Chatbots menggunakan begitu banyak energi?

Dalam beberapa tahun terakhir, chatgpt telah meledak dalam popularitas Hampir 200 juta pengguna Memompa total lebih dari satu miliar petunjuk ke dalam aplikasi setiap hari. Prompt ini mungkin tampaknya menyelesaikan permintaan dari udara tipis.
Tapi di balik layar, kecerdasan buatan (AI) Chatbots menggunakan sejumlah besar energi. Pada tahun 2023, pusat data, yang digunakan untuk melatih dan memproses AI, bertanggung jawab 4,4% penggunaan listrik di Amerika Serikat. Di seluruh dunia, pusat -pusat ini membentuk Sekitar 1,5% konsumsi energi global. Angka -angka ini diharapkan untuk meroket, setidaknya Doubling pada tahun 2030 Seiring permintaan AI tumbuh.
“Hanya tiga tahun yang lalu, kami bahkan belum memiliki chatgpt,” kata Alex de Vries-GaoPeneliti keberlanjutan teknologi yang muncul di VU University Amsterdam dan pendiri DigikonomisSebuah platform yang didedikasikan untuk mengekspos konsekuensi tren digital yang tidak diinginkan. “Dan sekarang kita berbicara tentang teknologi yang akan bertanggung jawab atas hampir setengah dari konsumsi listrik oleh pusat data secara global.”
Tapi apa yang membuat ai chatbots sangat intensif energi? Jawabannya terletak pada skala besar chatbots AI. Secara khusus, ada dua bagian AI yang menggunakan energi terbanyak: pelatihan dan inferensi, kata Mosharaf Chowdhuryseorang ilmuwan komputer di University of Michigan.
Terkait: Mengapa listrik membuat suara bersenandung?
Untuk melatih chatbots AI, model bahasa besar (LLM) diberikan set data besar sehingga AI dapat belajar, mengenali pola dan membuat prediksi. Secara umum, ada “keyakinan yang lebih besar lebih baik” dengan pelatihan AI, kata De Vries-Gao, di mana model yang lebih besar yang mengambil lebih banyak data dianggap membuat prediksi yang lebih baik.
“Jadi apa yang terjadi ketika Anda mencoba melakukan pelatihan adalah bahwa model saat ini telah menjadi begitu besar, mereka tidak muat dalam satu GPU tunggal [graphics processing unit]; Mereka tidak muat di satu server, “kata Chowdhury kepada Live Science.
Untuk memberikan skala, 2023 Penelitian Oleh de vries-gao memperkirakan bahwa server NVIDIA DGX A100 tunggal menuntut daya hingga 6,5 kilowatt. Melatih dan LLM biasanya membutuhkan banyak server, yang masing -masing memiliki rata -rata delapan GPU, yang kemudian berjalan selama berminggu -minggu atau berbulan -bulan. Secara keseluruhan, ini mengkonsumsi pegunungan energi: Diperkirakan bahwa melatih GPT-4 Openai menggunakan 50 gigawatt-jam energi, setara dengan menyalakan San Francisco selama tiga hari.
Inferensi juga mengkonsumsi banyak energi. Di sinilah AI Chatbot menarik kesimpulan dari apa yang telah dipelajari dan menghasilkan output dari permintaan. Meskipun dibutuhkan sumber daya komputasi yang jauh lebih sedikit untuk menjalankan LLM setelah dilatih, inferensi adalah energi yang intensif karena banyaknya permintaan yang dibuat untuk AI Chatbots.
Pada Juli 2025, openai negara bagian Bahwa pengguna chatgpt mengirim lebih dari 2,5 miliar permintaan setiap hari, yang berarti bahwa banyak server digunakan untuk menghasilkan respons instan untuk permintaan tersebut. Itu bahkan bukan untuk mempertimbangkan chatbots lain yang banyak digunakan, termasuk Google Gemini, yang menurut perwakilan akan segera menjadi opsi default Saat pengguna mengakses pencarian Google.
“Jadi bahkan dalam inferensi, Anda tidak dapat benar -benar menghemat energi,” kata Chowdhury. “Ini bukan data yang sangat besar. Maksudku, modelnya sudah besar, tapi kami memiliki sejumlah besar orang yang menggunakannya.”
Para peneliti seperti Chowdhury dan De Vries-GAO sekarang bekerja untuk mengukur lebih baik tuntutan energi ini untuk memahami cara menguranginya. Misalnya, Chowdhury menyimpan Papan peringkat energi ML Itu melacak konsumsi energi inferensi dari model sumber terbuka.
Namun, tuntutan energi spesifik dari platform AI generatif lainnya sebagian besar tidak diketahui; Perusahaan besar seperti Google, Microsoft, dan Meta menjaga angka-angka ini tetap pribadi, atau memberikan statistik yang memberikan sedikit wawasan tentang dampak lingkungan aktual dari aplikasi ini, kata De Vries-Gao. Ini membuat sulit untuk menentukan berapa banyak energi yang benar -benar digunakan AI, seperti apa permintaan energi di tahun -tahun mendatang, dan apakah dunia dapat mengikuti.
Namun, orang yang menggunakan chatbot ini dapat mendorong transparansi yang lebih baik. Ini tidak hanya dapat membantu pengguna membuat lebih banyak pilihan bertanggung jawab energi dengan penggunaan AI mereka sendiri tetapi juga mendorong kebijakan yang lebih kuat yang meminta pertanggungjawaban perusahaan.
“Salah satu masalah yang sangat mendasar dengan aplikasi digital adalah bahwa dampaknya tidak pernah transparan,” kata De Vries-Gao. “Bola dengan para pembuat kebijakan untuk mendorong pengungkapan sehingga pengguna dapat mulai melakukan sesuatu.”