Sigurado akong narinig mo na ang lahat mula sa "umiinom ang AI ng isang bote ng tubig kada ilang tanong" hanggang sa "ilang patak lang talaga." Ang totoo ay mas detalyado. Ang water footprint ng AI ay malawak na nagbabago batay sa kung saan ito tumatakbo, gaano katagal ang iyong prompt, at kung paano pinapalamig ng isang data center ang mga server nito. Kaya oo, umiiral ang pangunahing numero, ngunit nananatili ito sa loob ng maraming babala.
Sa ibaba ay ibubunyag ko ang malinaw at handa nang magdesisyong mga numero, ipapaliwanag kung bakit hindi magkatugma ang mga pagtatantya, at ipapakita kung paano maaaring paliitin ng mga tagapagtayo at pang-araw-araw na gumagamit ang water tab nang hindi nagiging mga monghe sa sustainability.
Mga artikulong maaaring gusto mong basahin pagkatapos nito:
🔗 Ano ang isang AI dataset
Ipinapaliwanag kung paano binibigyang-daan ng mga dataset ang pagsasanay sa machine learning at pagbuo ng modelo.
🔗 Paano hinuhulaan ng AI ang mga uso
Ipinapakita kung paano sinusuri ng AI ang mga pattern upang mahulaan ang mga pagbabago at mga resulta sa hinaharap.
🔗 Paano sukatin ang pagganap ng AI
Pinaghihiwa-hiwalay ang mga mahahalagang sukatan para sa pagtatasa ng katumpakan, bilis, at pagiging maaasahan.
🔗 Paano makipag-usap sa AI
Gumagabay sa epektibong mga estratehiya sa pag-uudyok upang mapabuti ang kalinawan, mga resulta, at pagkakapare-pareho.
Gaano karaming tubig ang ginagamit ng AI? Mabilisang mga numero na maaari mo talagang gamitin 📏
-
Bawat prompt, karaniwang saklaw ngayon: mula sub-milliliter para sa isang median text prompt sa isang mainstream system, hanggang sampu-sampung milliliter para sa mas mahaba at mas mataas na compute na tugon sa isa pa. Halimbawa, ang production accounting ng Google ay nag-uulat ng median text prompt na ~0.26 mL (kasama ang buong serving overhead) [1]. Ang lifecycle assessment ng Mistral ay nagtatala ng 400-token assistant reply sa ~45 mL (marginal inference) [2]. Malaki ang kahalagahan ng konteksto at modelo.
-
Pagsasanay sa isang frontier-scale na modelo: maaaring umabot sa milyun-milyong litro , karamihan ay mula sa pagpapalamig at tubig na nakalagay sa pagbuo ng kuryente. Tinatayang humigit-kumulang 5.4 milyong litro ang sanayin sa isang modelong GPT-class, kabilang ang humigit-kumulang 700,000 litro na nakonsumo on-site para sa pagpapalamig - at nangatwiran para sa smart scheduling upang mapababa ang intensity ng tubig [3].
-
Mga data center sa pangkalahatan: ang mga malalaking site ay sumasaklaw sa daan-daang libong galon bawat araw sa karaniwan sa mga pangunahing operator, na may mas mataas na peak sa ilang mga kampus depende sa klima at disenyo [5].
Maging tapat tayo: ang mga bilang na iyon ay parang hindi pare-pareho sa una. Oo nga. At may mabubuting dahilan.

Mga sukatan ng paggamit ng tubig gamit ang AI ✅
Ang isang magandang sagot sa Gaano karaming tubig ang ginagamit ng AI? ay dapat mag-tsek ng ilang kahon:
-
Kalinawan sa Hangganan
Kasama ba rito ang on-site cooling water lamang, o pati na rin ang off-site water na ginagamit ng mga planta ng kuryente upang makabuo ng kuryente? Ang pinakamahusay na kasanayan ay nagpapaiba sa water withdrawal vs water consumption at mga saklaw 1-2-3, katulad ng carbon accounting [3]. -
Sensitibo sa Lokasyon
Ang tubig kada kWh ay nag-iiba depende sa rehiyon at pinaghalong grid, kaya ang parehong prompt ay maaaring magdala ng iba't ibang epekto sa tubig depende sa kung saan ito pinaglilingkuran - isang pangunahing dahilan kung bakit inirerekomenda ng literatura ang pag-iiskedyul na may kamalayan sa oras at lugar [3]. -
Realismo ng workload.
Ang numero ba ay sumasalamin sa mga median na prompt ng produksyon , kabilang ang kapasidad ng idle at overhead ng data center, o ang accelerator lamang sa peak? Binibigyang-diin ng Google ang full-system accounting (idle, CPUs/DRAM, at data-center overhead) para sa hinuha, hindi lamang ang TPU math [1]. -
Teknolohiya ng pagpapalamig
Ang evaporative cooling, closed-loop liquid cooling, air cooling, at mga umuusbong na direct-to-chip na pamamaraan ay lubhang nagpapabago sa intensity ng tubig. Naglulunsad ang Microsoft ng mga disenyo na nilayon upang alisin ang paggamit ng cooling water para sa ilang mga next-gen site [4]. -
Oras ng araw at panahon
Ang init, halumigmig, at mga kondisyon ng grid ay nagbabago sa bisa ng paggamit ng tubig sa totoong buhay; isang maimpluwensyang pag-aaral ang nagmumungkahi ng pag-iiskedyul ng mga pangunahing trabaho kapag at kung saan mas mababa ang intensity ng tubig [3].
Pag-inom ng tubig kumpara sa pagkonsumo ng tubig, ipinaliwanag 💡
-
Pag-alis = tubig na kinuha mula sa mga ilog, lawa, o aquifer (ang ilan ay ibinalik).
-
Konsumo = tubig na hindi ibinabalik dahil ito ay sumingaw o isinama sa mga proseso/produkto.
Pangunahing kumukonsumo ng tubig ang mga cooling tower sa pamamagitan ng ebaporasyon. Ang paglikha ng kuryente ay maaaring kumuha ng malalaking volume (minsan ay kumukonsumo ng bahagi nito), depende sa planta at paraan ng pagpapalamig. Isang kapani-paniwalang AI-water number label na iniuulat nito [3].
Kung saan napupunta ang tubig sa AI: ang tatlong balde 🪣
-
Saklaw 1 - pagpapalamig sa mismong lugar
Ang nakikitang bahagi: ang tubig ay sumingaw sa mismong data center. Ang mga pagpipilian sa disenyo tulad ng pagsingaw kumpara sa hangin o closed-loop na likido ang nagtakda ng baseline [5]. -
Saklaw 2 - pagbuo ng kuryente
Ang bawat kWh ay maaaring magdala ng nakatagong water tag; ang timpla at lokasyon ang nagtatakda ng liters-per-kWh signal na minana ng iyong workload [3]. -
Saklaw 3 - supply chain
Ang paggawa ng chip ay umaasa sa ultra-pure na tubig sa paggawa. Hindi mo ito makikita sa isang sukatan na "per prompt" maliban kung ang hangganan ay tahasang kasama ang mga naka-embodied na epekto (hal., isang buong LCA) [2][3].
Mga provider ayon sa bilang, may kakaibang mga detalye 🧮
-
Mga prompt ng Google Gemini
na Full-stack serving method (kabilang ang idle at facility overhead). Ang median text prompt ay ~0.26 mL ng tubig kasama ang ~0.24 Wh energy; ang mga numero ay sumasalamin sa trapiko ng produksyon at komprehensibong mga hangganan [1]. -
Siklo ng buhay ng Mistral Large 2.
Ang isang bihirang independiyenteng LCA (na may ADEME/Carbone 4) ay nagpapakita ng ~281,000 m³ para sa pagsasanay + maagang paggamit at isang inference marginal na ~45 mL para sa isang 400-token assistant reply [2]. -
Ambisyon ng Microsoft na walang tubig sa pagpapalamig.
Ang mga next-gen data center ay dinisenyo para sa walang tubig na kumokonsumo para sa pagpapalamig , na umaasa sa mga pamamaraang direktang inilalagay sa chip; ang mga gamit ng admin ay nangangailangan pa rin ng kaunting tubig [4]. -
Pangkalahatang sukat ng data-center.
Ang mga pangunahing operator ay pampublikong nag-uulat ng daan-daang libong galon bawat araw sa karaniwan sa mga indibidwal na lokasyon; ang klima at disenyo ay nagpapataas o nagpababa ng mga numero [5]. -
Ang naunang akademikong baseline.
Tinataya ng mahalagang pagsusuri ng "thirsty AI" ang milyun-milyong litro upang sanayin ang mga modelong GPT-class, at ang 10-50 medium na sagot ay maaaring halos katumbas ng isang 500 mL na bote - lubos na nakadepende sa kung kailan/saan ito tumatakbo [3].
Bakit ba ang daming hindi magkatugmang mga pagtatantya 🤷
-
Iba't ibang hangganan
Ang ilang mga numero ay binibilang lamang ang pagpapalamig sa lugar ; ang iba ay nagdaragdag ng tubig ng kuryente ; ang mga LCA ay maaaring magdagdag ng paggawa ng chips . Mga mansanas, dalandan, at fruit salad [2][3]. -
Iba't ibang workload
Ang isang maikling text prompt ay hindi isang mahabang multimodal/code run; ang batching, concurrency, at latency targets ay nagbabago sa paggamit [1][2]. -
Iba't ibang klima at grid.
Paglamig na dulot ng singaw sa mainit at tigang na rehiyon ≠ paglamig ng hangin/likido sa malamig at mamasa-masang rehiyon. Ang intensidad ng tubig sa grid ay lubhang nag-iiba [3]. -
Mga metodolohiya ng vendor
Naglathala ang Google ng isang paraan ng paghahatid sa buong sistema; naglathala ang Mistral ng isang pormal na LCA. Ang iba ay nag-aalok ng mga pagtatantya ng punto na may mga pamamaraang kalat-kalat. Isang kilalang pahayag na "ikalabinlima ng isang kutsarita" kada prompt ang naging laman ng mga balita - ngunit kung walang detalye ng hangganan, hindi ito maihahambing [1][3]. -
sa isang umuusbong na target
. Sinusubukan ng Microsoft ang water-free cooling sa ilang partikular na lugar; ang paglulunsad ng mga ito ay makakabawas sa tubig sa lugar kahit na may signal pa rin ng tubig ang upstream electricity [4].
Ang magagawa mo ngayon para mabawasan ang water footprint ng AI 🌱
-
I-right size ang modelo.
Ang mas maliliit at task-tuned na mga modelo ay kadalasang tumutugma sa katumpakan habang mas kaunting compute ang kinokonsumo. Binibigyang-diin ng pagtatasa ng Mistral ang malakas na size-to-footprint correlation - at naglalathala ng marginal inference numbers upang makapagpaliwanag ka tungkol sa mga tradeoff [2]. -
Pumili ng mga rehiyon na may kinalaman sa tubig.
Mas gusto ang mga rehiyon na may mas malamig na klima, mahusay na pagpapalamig, at mga grid na may mas mababang intensity ng tubig kada kWh; ipinapakita ng pag-aaral na may kinalaman sa "thirsty AI" batay sa oras at lugar [3]. -
Mag-shift ng workload sa tamang oras.
Mag-iskedyul ng training/mabigat na batch inference para sa mga oras na matipid sa tubig (mas malamig na gabi, kanais-nais na kondisyon ng grid) [3]. -
Humingi ng mga transparent na sukatan sa iyong vendor.
Humingi ng tubig kada oras , mga kahulugan ng hangganan, at kung kasama sa mga numero ang kapasidad ng idle at overhead ng pasilidad. Isinusulong ng mga grupo ng patakaran ang mandatoryong pagsisiwalat upang maging posible ang mga paghahambing na apples-to-apples [3]. -
Mahalaga ang teknolohiya sa pagpapalamig.
Kung gumagamit ka ng hardware, suriin ang closed-loop/direct-to-chip cooling ; kung gumagamit ka ng cloud, mas gusto mo ang mga rehiyon/provider na namumuhunan sa mga disenyo ng water-light [4][5]. -
Gumamit ng graywater at mga opsyon sa muling paggamit.
Maraming kampus ang maaaring palitan ang mga hindi maiinom na pinagkukunan o i-recycle sa loob ng mga loop; inilalarawan ng malalaking operator ang pagbabalanse ng mga pinagkukunan ng tubig at mga pagpipilian sa pagpapalamig upang mabawasan ang netong epekto [5].
Mabilisang halimbawa para maging makatotohanan ito (hindi isang pangkalahatang tuntunin): ang paglipat ng isang magdamag na pagsasanay mula sa isang mainit at tuyong rehiyon sa kalagitnaan ng tag-araw patungo sa isang mas malamig at mas mahalumigmig na rehiyon sa tagsibol - at ang pagpapatakbo nito sa mga oras na hindi peak at mas malamig - ay maaaring magbago kapwa sa lugar at sa labas ng lugar (grid). Iyan ang uri ng praktikal at madaling pag-iiskedyul ng tagumpay na maaaring mailabas [3].
Talahanayan ng paghahambing: mabilisang mga pagpipilian para mapababa ang singil sa tubig ng AI 🧰
| kagamitan | madla | presyo | bakit ito gumagana |
|---|---|---|---|
| Mas maliliit, mga modelong nakatutok sa gawain | Mga ML team, mga product lead | Mababa-katamtaman | Mas kaunting kalkulasyon bawat token = mas kaunting pagpapalamig + kuryente, tubig; napatunayan sa pag-uulat na istilo-LCA [2]. |
| Pagpili ng rehiyon ayon sa tubig/kWh | Mga arkitekto ng cloud, pagkuha | Katamtaman | Lumipat sa mas malamig na klima at mga grid na may mas mababang intensity ng tubig; ipares sa demand-aware routing [3]. |
| Mga oras ng pagsasanay sa araw | Mga MLOp, tagapag-iskedyul | Mababa | Ang mas malamig na gabi + mas maayos na kondisyon ng grid ay nakakabawas sa epektibong intensidad ng tubig [3]. |
| Direktang pagpapalamig sa chip/closed-loop | Mga operasyon sa data center | Katamtaman–mataas | Iniiwasan ang mga evaporative tower kung saan posible, na binabawasan ang on-site consumption [4]. |
| Mga kontrol sa haba at batch ng prompt | Mga developer ng app | Mababa | Takpan ang mga runaway token, batch nang matalino, mga resulta ng cache; mas kaunting millisecond, mas kaunting milliliter [1][2]. |
| Checklist ng transparency ng vendor | Mga CTO, mga lead sa pagpapanatili | Libre | Pinipilit ang kalinawan ng hangganan (on-site vs off-site) at pag-uulat nang sabay-sabay [3]. |
| Graywater o mga narekober na mapagkukunan | Mga pasilidad, munisipalidad | Katamtaman | Ang pagpapalit ng hindi maiinom na tubig ay nakakabawas ng stress sa mga suplay na maiinom [5]. |
| Mga pakikipagtulungan sa muling paggamit ng init | Mga operator, mga lokal na konseho | Katamtaman | Ang mas mahusay na thermal efficiency ay hindi direktang nakakabawas sa demand para sa pagpapalamig at nagpapatibay ng lokal na mabuting kalooban [5]. |
(Ang "Presyo" ay malambot ayon sa disenyo - iba-iba ang mga pag-deploy.)
Malalimang pagtalakay: lalong lumalakas ang tunog ng tambol ng mga patakaran 🥁
Nanawagan ang mga inhinyero ng mandatoryong pagsisiwalat ng enerhiya at tubig sa data-center upang mahusgahan ng mga mamimili at komunidad ang mga gastos at benepisyo. Kasama sa mga rekomendasyon ang mga kahulugan ng saklaw, pag-uulat sa antas ng site, at gabay sa paglalagay ng lugar - dahil kung walang maihahambing at may kamalayang mga sukatan sa lokasyon, tayo ay nagtatalo sa dilim [3].
Malalimang pagsisiyasat: hindi pare-pareho ang paraan ng paggamit ng mga data center 🚰
Mayroong patuloy na maling akala na "ang pagpapalamig ng hangin ay hindi gumagamit ng tubig." Hindi naman talaga. Ang mga sistemang mabibigat ang hangin ay kadalasang nangangailangan ng mas maraming kuryente , na sa maraming rehiyon ay nagdadala ng nakatagong tubig mula sa grid; sa kabaligtaran, ang pagpapalamig ng tubig ay maaaring makabawas sa kuryente at mga emisyon na kapalit ng tubig sa lugar. Malinaw na binabalanse ng malalaking operator ang mga trade-off na ito sa bawat lugar [1][5].
Malalimang pagsisiyasat: isang mabilis na pagsusuri sa katotohanan tungkol sa mga viral na pahayag 🧪
Maaaring nakakita ka na ng matatapang na pahayag na ang isang prompt ay katumbas ng "isang bote ng tubig," o, sa kabilang banda, "ilang patak lang." Mas magandang postura: pagpapakumbaba gamit ang matematika . Ang kapani-paniwalang mga bookend ngayon ay ~0.26 mL para sa isang median na prompt ng produksyon na may buong overhead ng serving [1] at ~45 mL para sa isang 400-token assistant reply (marginal inference) [2]. Ang madalas na pinagsasaluhang "isang-labinlimang bahagi ng isang kutsarita" ay walang pampublikong hangganan/pamamaraan; ituring ito na parang isang taya ng panahon nang walang lungsod [1][3].
Mini-FAQ: Gaano karaming tubig ang ginagamit ng AI? ulit, sa simpleng Ingles 🗣️
-
Kaya, ano ang dapat kong sabihin sa isang pulong?
"Bawat prompt, ito ay mula patak hanggang ilang higop , depende sa modelo, haba, at kung saan ito tumatakbo. Ang pagsasanay ay kumukuha ng mga pool , hindi mga puddle." Pagkatapos ay magbigay ng isa o dalawang halimbawa sa itaas. -
Natatangi ba ang kasamaan ng AI?
Ito ay may natatanging konsentrasyon : ang mga high-power chips na pinagsama-sama ay lumilikha ng malalaking cooling load. Ngunit ang mga data center din ang unang napupunta sa mga pinakamahusay na teknolohiya sa kahusayan [1][4]. -
Paano kung ilipat na lang natin ang lahat sa air cooling?
Maaaring bawasan mo sa lugar pero dagdagan sa labas ng lugar gamit ang kuryente. Tinitimbang ng mga sopistikadong operator ang pareho [1][5]. -
Kumusta naman ang mga teknolohiya sa hinaharap?
Ang mga disenyo na umiiwas sa pagpapalamig ng tubig sa malawakang antas ay magiging isang game-changer para sa Scope 1. Ang ilang operator ay gumagalaw sa ganitong paraan; ang upstream na kuryente ay nagdadala pa rin ng signal ng tubig hanggang sa magbago ang mga grid [4].
Pangwakas na Paalala - Masyadong Mahaba, Hindi Ko Nabasa 🌊
-
Bawat prompt: isipin ang sub-milliliter hanggang sampu-sampung milliliter , depende sa modelo, haba ng prompt, at kung saan ito tumatakbo. Ang median na prompt ay ~0.26 mL sa isang pangunahing stack; ~45 mL para sa isang 400-token na tugon sa isa pa [1][2].
-
Pagsasanay: milyun-milyong litro para sa mga modelong frontier, na ginagawang kritikal ang pag-iiskedyul, paglalagay ng lugar, at teknolohiya sa pagpapalamig [3].
-
Ano ang gagawin: mga modelong tama ang laki, pumili ng mga rehiyong may tubig, ilipat ang mabibigat na trabaho sa mas malamig na oras, piliin ang mga vendor na nagpapatunay ng mga disenyong may tubig, at humingi ng mga transparent na hangganan [1][3][4][5].
Medyo may kapintasang metapora bilang pagtatapos: Ang AI ay isang uhaw na orkestra - ang himig ay kinukuwenta, ngunit ang mga tambol ay lumalamig at nag-iimbak ng tubig. I-tune ang banda, at maririnig pa rin ng mga manonood ang musika nang hindi tumutunog ang mga sprinkler. 🎻💦
Mga Sanggunian
-
Google Cloud Blog - Gaano karaming enerhiya ang ginagamit ng AI ng Google? Ginawa namin ang kalkulasyon (metodolohiya + ~0.26 mL median prompt, full serving overhead). Link
(Teknikal na papel na PDF: Pagsukat sa epekto sa kapaligiran ng paghahatid ng AI sa Google scale .) Link -
Mistral AI - Ang aming kontribusyon sa isang pandaigdigang pamantayang pangkapaligiran para sa AI (LCA na may ADEME/Carbone 4; ~281,000 m³ na pagsasanay + maagang paggamit; ~45 mL bawat 400-token na tugon, marginal na hinuha). Link
-
Li et al. - Paggawa ng AI na Hindi Kaunting "Nauuhaw": Pagtuklas at Pagtugon sa Lihim na Bakas ng Tubig ng mga Modelo ng AI (pagsasanay ng milyun-milyong litro , na may kamalayan sa oras at lugar , pag-withdraw vs. pagkonsumo). Link
-
Microsoft - Ang mga susunod na henerasyon ng datacenter ay kumokonsumo ng walang tubig para sa pagpapalamig (mga disenyong direktang naka-chip na nagta-target sa pagpapalamig na walang tubig sa ilang partikular na lugar). Link
-
Mga Google Data Center - Pagpapatakbo nang napapanatili (mga kompromiso sa pagpapalamig sa bawat site; pag-uulat at muling paggamit, kabilang ang reclaimed/graywater; karaniwang pang-araw-araw na paggamit sa antas ng site). Link