Gaano karaming enerhiya ang ginagamit ng AI?

Gaano karaming enerhiya ang ginagamit ng AI?

Sagot: Kakaunti lang ng kuryente ang magagamit ng AI para sa isang simpleng gawain sa teksto, ngunit mas marami pa kapag mahaba ang mga prompt, multimodal ang mga output, o malawakang gumagana ang mga sistema. Ang pagsasanay ay karaniwang pangunahing natatamaan ng enerhiya, habang ang pang-araw-araw na hinuha ay nagiging makabuluhan habang naiipon ang mga kahilingan.

Mga pangunahing punto:

Konteksto : Tukuyin ang gawain, modelo, hardware, at sukat bago magbigay ng anumang pagtatantya ng enerhiya.

Pagsasanay : Ituring ang pagsasanay sa modelo bilang pangunahing paunang kaganapan sa enerhiya kapag nagpaplano ng mga badyet.

Hinuha : Bantayang mabuti ang paulit-ulit na hinuha, dahil mabilis na nadaragdagan ang maliliit na gastos sa bawat kahilingan.

Imprastraktura : Isama ang pagpapalamig, imbakan, mga network, at kapasidad ng paggamit nang walang ginagawa sa anumang makatotohanang pagtatantya.

Kahusayan : Gumamit ng mas maliliit na modelo, mas maiikling prompt, caching, at batching upang mabawasan ang paggamit ng enerhiya.

Gaano karaming enerhiya ang ginagamit ng AI? Infographic

Mga artikulong maaaring gusto mong basahin pagkatapos nito:

🔗 Paano nakakaapekto ang AI sa kapaligiran
Ipinaliliwanag ang carbon footprint, paggamit ng enerhiya, at mga kompromiso sa pagpapanatili ng AI.

🔗 Masama ba ang AI para sa kapaligiran?
Inaalis ang mga nakatagong gastos sa kapaligiran ng mga modelo ng AI at mga data center.

🔗 Mabuti ba o masama ang AI? Mga kalamangan at kahinaan
Balanseng pagtingin sa mga benepisyo, panganib, etika, at mga totoong epekto ng AI.

🔗 Ano ang AI? Isang simpleng gabay
Alamin ang mga pangunahing kaalaman sa AI, mga pangunahing termino, at mga halimbawa sa pang-araw-araw na buhay sa loob lamang ng ilang minuto.

Bakit mas mahalaga ang tanong na ito kaysa sa iniisip ng mga tao 🔍

Ang paggamit ng enerhiya ng AI ay hindi lamang isang paksang pangkapaligiran. May ilang totoong bagay itong naaapektuhan:

  • Gastos sa kuryente - lalo na para sa mga negosyong nagpapatakbo ng maraming kahilingan sa AI

  • Epekto ng carbon - depende sa pinagmumulan ng kuryente sa likod ng mga server

  • Piga ng hardware - ang malalakas na chips ay may malaking wattage

  • Mga desisyon sa pagpapalawak - ang isang murang prompt ay maaaring mauwi sa milyun-milyong magastos

  • Disenyo ng produkto - ang kahusayan ay kadalasang isang mas mahusay na tampok kaysa sa napagtatanto ng mga tao ( Google Cloud , Green AI )

Maraming tao ang nagtatanong ng "Gaano karaming enerhiya ang ginagamit ng AI?" dahil gusto nila ng napakalaking numero. Isang bagay na madaling ma-headline. Ngunit ang mas magandang tanong ay ito: Anong uri ng paggamit ng AI ang pinag-uusapan natin? Dahil binabago nito ang lahat. ( IEA )

Isang mungkahi lang ba para sa autocomplete? Medyo maliit lang.
Pagsasanay ng frontier model sa malalaking cluster? Mas malaki, mas malaki.
Isang laging naka-on na enterprise AI workflow na nakakaapekto sa milyun-milyong user? Oo, mabilis itong madagdag... parang mga sentimo na nagiging bayad sa upa. ( DOE , Google Cloud )

Gaano karaming enerhiya ang ginagamit ng AI? Ang maikling sagot ⚡

Narito ang praktikal na bersyon.

Maaaring gamitin ng AI ang kahit saan mula sa isang maliit na bahagi ng watt-hour para sa isang magaan na gawain hanggang sa napakalaking dami ng kuryente para sa malawakang pagsasanay at pag-deploy. Mukhang katawa-tawang malawak ang saklaw na iyan dahil malawak ito. ( Google Cloud , Strubell et al. )

Sa madaling salita:

  • Mga simpleng gawain sa paghihinuha - kadalasang medyo simple batay sa bawat paggamit

  • Mahahabang pag-uusap, malalaking output, pagbuo ng imahe, pagbuo ng video - kapansin-pansing mas nakakaubos ng enerhiya

  • Pagsasanay sa malalaking modelo - ang mabibigat na kampeon ng pagkonsumo ng kuryente

  • Pagpapatakbo ng AI nang malawakan buong araw - kung saan ang "maliit bawat kahilingan" ay nagiging "malaking kabuuang bayarin" ( Google Cloud , DOE )

Ang isang mabuting tuntunin ay ito:

  • Ang pagsasanay ay ang higanteng kaganapan ng enerhiya sa unahan 🏭

  • Ang hinuha ay ang patuloy na singil sa kuryente 💡 ( Strubell et al. , Google Research )

Kaya kapag may nagtanong, Gaano karaming Enerhiya ang ginagamit ng AI?, ang direktang sagot ay, “Hindi isang dami - kundi sapat para maging mahalaga ang kahusayan, at sapat para baguhin ng sukat ang buong kwento.” ( IEA , Green AI )

Hindi naman 'yan kasing-nakakaakit ng gusto ng mga tao, alam ko. Pero totoo 'yan.

Ano ang maituturing na magandang bersyon ng pagtatantya ng enerhiya ng AI? 🧠

Ang isang mahusay na pagtatantya ay hindi lamang isang dramatikong numero na inilalagay sa isang grapiko. Ang isang praktikal na pagtatantya ay may kasamang konteksto. Kung hindi, ito ay parang pagtimbang ng hamog gamit ang timbangan sa banyo. Sapat na malapit para magmukhang kahanga-hanga, hindi sapat na malapit para pagkatiwalaan. ( IEA , Google Cloud )

Ang isang disenteng pagtatantya ng enerhiya ng AI ay dapat kabilang ang:

  • Ang uri ng gawain - teksto, imahe, audio, video, pagsasanay, pagpino

  • Ang laki ng modelo - ang mas malalaking modelo ay karaniwang nangangailangan ng mas maraming kalkulasyon

  • Ang hardware na ginamit - hindi lahat ng chips ay pantay na mahusay

  • Haba ng sesyon - ang maiikling prompt at mahahabang multi-step workflow ay ibang-iba

  • Paggamit - ang mga idle system ay kumokonsumo pa rin ng kuryente

  • Pagpapalamig at imprastraktura - hindi ang server ang buong bayarin

  • Lokasyon at timpla ng enerhiya - hindi pantay ang kalinisan ng kuryente sa lahat ng dako ( Google Cloud , IEA )

Kaya naman maaaring magtalo ang dalawang tao tungkol sa paggamit ng kuryente gamit ang AI at pareho silang may kumpiyansa habang pinag-uusapan ang ibang-iba. Ang ibig sabihin ng isang tao ay isang tugon lang ng chatbot. Ang ibig sabihin naman ng isa ay isang malaking training run. Pareho silang nagsasabing "AI," at biglang naputol ang usapan 😅

Talahanayan ng Paghahambing - ang pinakamahusay na paraan upang tantyahin ang paggamit ng enerhiya ng AI 📊

Narito ang isang praktikal na talahanayan para sa sinumang sumusubok na sagutin ang tanong nang hindi ito ginagawang performance art.

Kagamitan o pamamaraan Pinakamahusay na madla Presyo Bakit ito gumagana
Simpleng pagtatantya na karaniwang ginagamit Mga mausisang mambabasa, mga estudyante Libre Mabilis, madali, medyo malabo - ngunit sapat na para sa magaspang na paghahambing
Watt meter sa gilid ng device Mga nag-iisang tagapagtayo, mga mahilig sa libangan Mababa Sinusukat ang aktwal na lakas ng makina, na nakakapreskong kongkreto
Dashboard ng telemetrya ng GPU Mga inhinyero, mga pangkat ng ML Katamtaman Mas mahusay na detalye sa mga gawaing mabibigat sa pag-compute, bagama't maaaring hindi nito masakop ang mas malaking pasilidad
Pagsingil sa cloud + mga talaan ng paggamit Mga startup, mga ops team Katamtaman hanggang mataas Iniuugnay ang paggamit ng AI sa totoong paggastos - hindi perpekto, mahalaga pa rin
Pag-uulat ng enerhiya ng data center Mga pangkat ng negosyo Mataas Nagbibigay ng mas malawak na kakayahang makita sa operasyon, pagpapalamig, at pagsisimula ng imprastraktura dito
Buong pagtatasa ng lifecycle Mga pangkat ng pagpapanatili, malalaking organisasyon High-ish, minsan masakit Pinakamahusay para sa seryosong pagsusuri dahil higit pa ito sa chip mismo... pero mabagal ito at medyo halimaw

Walang perpektong paraan. Iyan ang medyo nakakadismaya na bahagi. Ngunit may mga antas ng halaga. At kadalasan, mas mainam ang isang bagay na magagamit kaysa sa perpekto. ( Google Cloud )

Ang pinakamalaking salik ay hindi mahika - ito ay ang compute at hardware 🖥️🔥

Kapag inilalarawan ng mga tao ang paggamit ng enerhiya ng AI, madalas nilang naiisip ang modelo mismo bilang isang bagay na kumukunsumo ng kuryente. Ngunit ang modelo ay isang software logic na tumatakbo sa hardware. Ang hardware ang siyang nagpapakita ng singil sa kuryente. ( Strubell et al. , Google Cloud )

Ang pinakamalaking baryabol ay karaniwang kinabibilangan ng:

Ang isang lubos na na-optimize na sistema ay maaaring gumawa ng mas maraming trabaho nang may mas kaunting enerhiya. Ang isang pabaya na sistema ay maaaring mag-aksaya ng kuryente nang may kahanga-hangang kumpiyansa. Alam mo kung paano ito - ang ilang mga setup ay mga race car, ang ilan ay mga shopping cart na may mga rocket na nakadikit sa duct-tape 🚀🛒

At oo, mahalaga ang laki ng modelo. Ang mas malalaking modelo ay may posibilidad na mangailangan ng mas maraming memorya at mas maraming kalkulasyon, lalo na kapag bumubuo ng mahahabang output o humahawak ng mga kumplikadong pangangatwiran. Ngunit ang mga trick sa kahusayan ay maaaring magpabago sa sitwasyon: ( Green AI , Quantization, Batching, at Serving Strategies sa Paggamit ng Enerhiya ng LLM )

Kaya ang tanong ay hindi lamang "Gaano kalaki ang modelo?" Ito ay "Gaano ito katalino sa pagpapatakbo?"

Pagsasanay vs hinuha - magkaibang hayop ang mga ito 🐘🐇

Ito ang pagkakawatak-watak na halos nakakalito sa lahat.

Pagsasanay

Ang pagsasanay ay kapag natututo ang isang modelo ng mga pattern mula sa napakalaking mga dataset. Maaari itong magsangkot ng maraming chips na tumatakbo nang matagal na panahon, na kinakain ang napakalaking dami ng data. Ang yugtong ito ay uhaw sa enerhiya. Minsan ay labis na nauubos. ( Strubell et al. )

Ang enerhiya ng pagsasanay ay nakasalalay sa:

  • laki ng modelo

  • laki ng dataset

  • bilang ng mga pagsasanay

  • mga nabigong eksperimento

  • mga pagpasa ng pinong pag-tune

  • kahusayan ng hardware

  • pagpapalamig sa itaas ( Strubell et al. , Google Research )

At narito ang bahaging madalas na nakakaligtaan ng mga tao - madalas na naiisip ng publiko ang isang malaking pagsasanay, na ginagawa nang isang beses, sa katapusan ng kwento. Sa pagsasagawa, ang pag-unlad ay maaaring may kasamang paulit-ulit na pagtakbo, pag-tune, muling pagsasanay, pagsusuri, at lahat ng karaniwan ngunit magastos na mga pag-ulit sa paligid ng pangunahing kaganapan. ( Strubell et al. , Green AI )

Hinuha

Ang hinuha ay ang modelong sumasagot sa mga aktwal na kahilingan ng gumagamit. Ang isang kahilingan ay maaaring mukhang hindi gaanong kalaki. Ngunit ang hinuha ay nangyayari nang paulit-ulit. Milyun-milyong beses. Minsan bilyun-bilyon. ( Google Research , DOE )

Ang enerhiya ng hinuha ay lumalaki kasabay ng:

Kaya ang pagsasanay ay parang lindol. Ang hinuha ay ang pagtaas at pagbaba ng tubig. Ang isa ay dramatiko, ang isa ay matiyaga, at pareho silang maaaring bahagyang hubugin ang baybayin. Ito ay isang hindi pangkaraniwang metapora, marahil, ngunit ito ay magkakaugnay... humigit-kumulang.

Ang mga nakatagong gastos sa enerhiya na nakakalimutan ng mga tao 😬

Kapag tinatantya ng isang tao ang paggamit ng kuryente ng AI sa pamamagitan lamang ng pagtingin sa chip, kadalasan ay kulang ang kanilang bilang. Hindi laging mapaminsala, ngunit sapat na para maging mahalaga. ( Google Cloud , IEA )

Narito ang mga nakatagong piraso:

Pagpapalamig ❄️

Ang mga server ay lumilikha ng init. Ang makapangyarihang AI hardware ay lumilikha ng malaking bahagi nito. Hindi opsyonal ang pagpapalamig. Ang bawat watt na nakonsumo ng computation ay may posibilidad na mag-imbita ng mas maraming paggamit ng enerhiya para lamang mapanatili ang maayos na temperatura. ( IEA , Google Cloud )

Paggalaw ng datos 🌐

Ang paglipat ng data sa storage, memory, at mga network ay nangangailangan din ng enerhiya. Ang AI ay hindi lamang "nag-iisip." Patuloy din itong nagpapalipat-lipat ng impormasyon. ( IEA )

Kapasidad na walang ginagawa 💤

Ang mga sistemang ginawa para sa pinakamataas na demand ay hindi laging tumatakbo sa pinakamataas na demand. Ang mga idle o hindi gaanong nagagamit na imprastraktura ay kumokonsumo pa rin ng kuryente. ( Google Cloud )

Kalabisan at pagiging maaasahan 🧱

Mga backup, failover system, mga duplicate na rehiyon, mga safety layer - lahat ay mahalaga, lahat ay bahagi ng mas malaking larawan ng enerhiya. ( IEA )

Imbakan 📦

Mga datos sa pagsasanay, mga embedding, mga log, mga checkpoint, mga nabuong output - lahat ng ito ay nasa kung saan. Mas mura ang storage kaysa sa compute, oo, ngunit hindi libre sa mga tuntunin ng enerhiya. ( IEA )

Ito ang dahilan kung bakit ang tanong na Gaano karaming enerhiya ang ginagamit ng AI ay hindi masasagot nang maayos sa pamamagitan ng pagtingin sa iisang benchmark chart. Mahalaga ang buong stack. ( Google Cloud , IEA )

Bakit maaaring maliit ang isang AI prompt - at ang susunod ay maaaring maging isang halimaw 📝➡️🎬

Hindi lahat ng prompt ay pare-pareho. Ang isang maikling kahilingan para sa muling pagsulat ng pangungusap ay hindi maihahambing sa paghingi ng mahabang pagsusuri, multi-step coding session, o high-resolution na pagbuo ng imahe. ( Google Cloud )

Mga bagay na may posibilidad na mapataas ang paggamit ng enerhiya sa bawat interaksyon:

Ang isang magaan na sagot sa text ay maaaring medyo mura. Ang isang malaking multimodal workflow ay maaaring, well, hindi mura. Parang pag-order ng kape kumpara sa pag-cater ng kasal. Pareho itong maituturing na "food service," sa teknikal na aspeto. Ang isa ay iba-iba ☕🎉

Mahalaga ito lalo na para sa mga product team. Ang isang feature na tila hindi nakakapinsala sa mababang paggamit ay maaaring maging magastos sa malawakang saklaw kung ang bawat sesyon ng user ay magiging mas mahaba, mas mayaman, at mas maraming compute-heavy. ( DOE , Google Cloud )

Magkaiba ang Consumer AI at Enterprise AI 🏢📱

Maaaring ipagpalagay ng karaniwang taong gumagamit ng AI na ang kanilang paminsan-minsang mga senyales ang malaking problema. Kadalasan, hindi doon nabubuhay ang pangunahing kwento ng enerhiya. ( Google Cloud )

Binabago ng paggamit ng negosyo ang matematika:

  • libu-libong empleyado

  • mga copilot na laging naka-on

  • awtomatikong pagproseso ng dokumento

  • pagbubuod ng tawag

  • pagsusuri ng imahe

  • mga tool sa pagsusuri ng code

  • mga ahente sa background na patuloy na tumatakbo

Doon nagsisimulang maging mahalaga ang pinagsama-samang paggamit ng enerhiya. Hindi dahil ang bawat aksyon ay apokaliptiko, kundi dahil ang pag-uulit ay isang multiplier. ( DOE , IEA )

Sa sarili kong mga pagsusuri sa pagsubok at daloy ng trabaho, dito nagugulat ang mga tao. Nakatuon sila sa pangalan ng modelo, o sa magarbong demo, at binabalewala ang dami ng gumagamit. Kadalasan, ang dami ng gumagamit ang tunay na dahilan - o ang dahilan ng pagkatipid, depende kung naniningil ka sa mga customer o nagbabayad ng bayarin sa utility 😅

Para sa mga mamimili, ang epekto ay maaaring parang abstrakto. Para sa mga negosyo, ito ay nagiging konkreto nang napakabilis:

  • mas malalaking bayarin sa imprastraktura

  • mas maraming presyon para i-optimize

  • mas matinding pangangailangan para sa mas maliliit na modelo kung saan posible

  • panloob na pag-uulat ng pagpapanatili

  • mas maraming atensyon sa caching at routing ( Google Cloud , Green AI )

Paano bawasan ang paggamit ng enerhiya ng AI nang hindi isinusuko ang AI 🌱

Mahalaga ang bahaging ito dahil ang layunin ay hindi "itigil ang paggamit ng AI." Kadalasan ay hindi iyon makatotohanan, at hindi rin kinakailangan. Ang mas mahusay na paggamit ay ang mas matalinong paraan.

Narito ang mga pinakamalaking pingga:

1. Gamitin ang pinakamaliit na modelo na makakagawa ng trabaho

Hindi lahat ng gawain ay nangangailangan ng mabibigat na opsyon. Ang mas magaan na modelo para sa klasipikasyon o pagbubuod ay maaaring mabilis na makatipid. ( Green AI , Google Cloud )

2. Paikliin ang mga prompt at output

Verbose in, verbose out. Ang mga karagdagang token ay nangangahulugan ng karagdagang kalkulasyon. Minsan ang pagbabawas ng prompt ang pinakamadaling panalo. ( Mga Istratehiya sa Pagkuwantisasyon, Pagbalot, at Paghahatid sa Paggamit ng Enerhiya ng LLM , Google Cloud )

3. Mga paulit-ulit na resulta sa cache

Kung patuloy na lumalabas ang parehong query, huwag itong gawing muli sa lahat ng pagkakataon. Ito ay halos halata sa paningin, ngunit hindi ito napapansin. ( Google Cloud )

4. Magsagawa ng mga batch job kung maaari

Ang pagpapatakbo ng mga gawain nang paisa-isa ay maaaring mapabuti ang paggamit at mabawasan ang pag-aaksaya. ( Mga Istratehiya sa Pagkuwantisasyon, Pagbalot, at Paghahain sa Paggamit ng Enerhiya ng LLM )

5. Iruta ang mga gawain nang matalino

Gumamit lamang ng malalaking modelo kapag bumababa ang kumpiyansa o tumataas ang pagiging kumplikado ng gawain. ( Green AI , Google Cloud )

6. I-optimize ang imprastraktura

Mas mahusay na pag-iiskedyul, mas mahusay na hardware, mas mahusay na diskarte sa pagpapalamig - mga simpleng bagay, malaking pakinabang. ( Google Cloud , DOE )

7. Sukatin bago ipagpalagay

Maraming mga koponan ang nag-iisip na alam nila kung saan napupunta ang kuryente. Pagkatapos ay sumusukat sila, at ayan na - ang mamahaling bahagi ay nasa ibang lugar na. ( Google Cloud )

Ang kahusayan sa trabaho ay hindi kaakit-akit. Bihira itong palakpakan. Ngunit isa ito sa mga pinakamahusay na paraan upang gawing mas abot-kaya at mas maipagtatanggol ang AI sa malawakang saklaw 👍

Mga karaniwang maling akala tungkol sa paggamit ng kuryente gamit ang AI 🚫

Alisin natin ang ilang mga maling akala dahil mabilis magulo ang paksang ito.

Mito 1 - Ang bawat query sa AI ay labis na nasasayang

Hindi naman kinakailangan. Ang ilan ay katamtaman lang. Malaki ang kahalagahan ng laki at uri ng gawain. ( Google Cloud )

Mito 2 - Ang pagsasanay lamang ang mahalaga

Hindi. Ang hinuha ay maaaring mangibabaw sa paglipas ng panahon kapag ang paggamit ay napakalawak. ( Google Research , DOE )

Mito 3 - Ang mas malaking modelo ay palaging nangangahulugan ng mas mahusay na resulta

Minsan oo, minsan naman ay talagang hindi. Maraming gawain ang maayos sa mas maliliit na sistema. ( Green AI )

Mito 4 - Ang paggamit ng enerhiya ay awtomatikong katumbas ng epekto ng carbon

Hindi naman eksakto. Ang carbon ay nakadepende rin sa pinagmumulan ng enerhiya. ( IEA , Strubell et al. )

Mito 5 - Maaari kang makakuha ng isang pangkalahatang numero para sa paggamit ng enerhiya ng AI

Hindi mo magagawa, kahit papaano sa isang anyong mananatiling makabuluhan. O kaya mo rin, ngunit ito ay magiging labis na naa-average na hindi na ito magiging mahalaga. ( IEA )

Kaya naman matalinong magtanong ng " Gaano karaming enerhiya ang ginagamit ng AI?" -- kung handa ka na para sa isang patong-patong na sagot sa halip na isang slogan.

Kaya... gaano karaming enerhiya talaga ang ginagamit ng AI? 🤔

Narito ang matibay na konklusyon.

Mga gamit ng AI:

  • kaunti , para sa ilang simpleng gawain

  • mas marami pa , para sa mabibigat na multimodal na henerasyon

  • isang napakalaking halaga , para sa malawakang pagsasanay sa modelo

  • isang napakalaking halaga sa kabuuan , kapag milyun-milyong kahilingan ang naipon sa paglipas ng panahon ( Google Cloud , DOE )

Ganoon ang hugis nito.

Ang mahalaga ay huwag gawing simple ang buong isyu sa isang nakakatakot na numero o isang pagkibit-balikat lamang. Totoo ang paggamit ng enerhiya ng AI. Mahalaga ito. Maaari itong mapabuti. At ang pinakamahusay na paraan upang pag-usapan ito ay sa konteksto, hindi sa palabas lamang. ( IEA , Green AI )

Marami sa mga pampublikong usapan ay pabago-bago sa pagitan ng mga sukdulan - "Ang AI ay karaniwang libre" sa isang banda, "Ang AI ay isang electrical apocalypse" sa kabilang banda. Ang realidad ay mas ordinaryo, na ginagawa itong mas nakapagbibigay-kaalaman. Ito ay isang problema sa sistema. Hardware, software, paggamit, laki, pagpapalamig, mga pagpipilian sa disenyo. Karaniwan? Medyo. Mahalaga? Napakahalaga. ( IEA , Google Cloud )

Mga Pangunahing Aral ⚡🧾

Kung pumunta ka rito para magtanong, Gaano karaming enerhiya ang ginagamit ng AI?, narito ang dapat mong matutunan:

  • Walang numerong akma sa lahat

  • Karaniwang kumukonsumo ng pinakamaraming enerhiya ang pagsasanay sa simula pa lang

  • Ang hinuha ay nagiging isang pangunahing salik sa saklaw

  • Mahalaga ang laki ng modelo, hardware, workload, at cooling

  • Ang maliliit na pag-optimize ay maaaring makagawa ng nakakagulat na malaking pagkakaiba

  • Ang pinakamatalinong tanong ay hindi lamang "magkano," kundi pati na rin "para sa aling gawain, sa anong sistema, sa anong antas?" ( IEA , Google Cloud )

Kaya oo, gumagamit ang AI ng totoong enerhiya. Sapat na para mabigyan ng pansin. Sapat na para bigyang-katwiran ang mas mahusay na inhinyeriya. Ngunit hindi sa paraang parang kartun at may iisang numero lamang.

Mga Madalas Itanong

Gaano karaming enerhiya ang ginagamit ng AI para sa isang prompt?

Walang pangkalahatang numero para sa iisang prompt, dahil ang paggamit ng enerhiya ay nakadepende sa modelo, hardware, haba ng prompt, haba ng output, at anumang karagdagang gamit na kasangkot. Ang isang maikling tugon sa teksto ay maaaring medyo katamtaman, habang ang isang mahabang multimodal na gawain ay maaaring mas makakonsumo. Ang pinakamahalagang sagot ay hindi isang iisang headline figure, kundi ang konteksto na nakapalibot sa gawain.

Bakit lubhang nag-iiba-iba ang mga pagtatantya sa paggamit ng lakas ng AI?

Nag-iiba-iba ang mga pagtatantya dahil madalas na pinaghahambing ng mga tao ang iba't ibang bagay sa ilalim ng iisang label ng AI. Ang isang pagtatantya ay maaaring maglarawan ng isang magaan na tugon sa chatbot, habang ang isa naman ay maaaring sumasaklaw sa pagbuo ng imahe, video, o malawakang pagsasanay sa modelo. Para maging makabuluhan ang isang pagtatantya, kailangan nito ng konteksto tulad ng uri ng gawain, laki ng modelo, hardware, paggamit, pagpapalamig, at lokasyon.

Ang pagsasanay ba ng AI o ang pagpapatakbo ng AI araw-araw ang mas malaking gastos sa enerhiya?

Ang pagsasanay ay karaniwang ang malaking paunang kaganapan ng enerhiya, dahil maaari itong magsangkot ng maraming chips na tumatakbo nang matagal na panahon sa napakalaking mga dataset. Ang hinuha ay ang patuloy na gastos na lumilitaw sa bawat oras na magpapadala ang mga gumagamit ng mga kahilingan, at sa malawak na saklaw maaari rin itong maging napakalaki. Sa pagsasagawa, pareho silang mahalaga, bagama't mahalaga ang mga ito sa iba't ibang paraan.

Ano ang dahilan kung bakit mas matipid sa enerhiya ang isang kahilingan ng AI kaysa sa iba?

Ang mas mahahabang context window, mas mahahabang output, paulit-ulit na reasoning pass, tool calls, retrieval steps, at multimodal generation ay pawang may posibilidad na mapataas ang paggamit ng enerhiya sa bawat interaksyon. Mahalaga rin ang mga latency target, dahil ang mas mabilis na mga kinakailangan sa pagtugon ay maaaring makabawas sa kahusayan. Ang isang maliit na rewrite request at isang mahabang coding o image workflow ay sadyang hindi maihahambing.

Anong mga nakatagong gastos sa enerhiya ang hindi napapansin ng mga tao kapag nagtatanong sila kung gaano karaming enerhiya ang ginagamit ng AI?

Maraming tao ang nakatuon lamang sa chip, ngunit hindi nito napapansin ang paglamig, paggalaw ng data, imbakan, kapasidad ng idle, at mga sistema ng pagiging maaasahan tulad ng mga backup o mga rehiyon ng failover. Ang mga sumusuportang layer na ito ay maaaring makabuluhang baguhin ang kabuuang bakas ng paa. Kaya naman ang isang benchmark nang mag-isa ay bihirang makuha ang buong larawan ng enerhiya.

Mas maraming enerhiya ba ang laging ginagamit ng mas malaking modelo ng AI?

Ang mas malalaking modelo ay karaniwang nangangailangan ng mas maraming compute at memory, lalo na para sa mahaba o kumplikadong mga output, kaya kadalasan ay mas maraming enerhiya ang kanilang kinokonsumo. Ngunit ang mas malaki ay hindi awtomatikong nangangahulugan ng mas mahusay para sa bawat trabaho, at ang pag-optimize ay maaaring makapagpabago nang malaki sa sitwasyon. Ang mas maliliit na espesyalistang modelo, quantization, batching, caching, at mas matalinong routing ay maaaring pawang magpabuti sa kahusayan.

Ang paggamit ba ng consumer AI ang pangunahing problema sa enerhiya, o ang enterprise AI ba ang mas malaking isyu?

Maaaring lumaki ang kaswal na paggamit ng mga mamimili, ngunit ang mas malaking kwento ng enerhiya ay kadalasang lumilitaw sa mga pag-deploy ng enterprise. Ang mga laging naka-on na copilot, pagproseso ng dokumento, pagbubuod ng tawag, pagsusuri ng code, at mga background agent ay lumilikha ng paulit-ulit na demand sa malalaking base ng gumagamit. Ang isyu ay karaniwang hindi gaanong tungkol sa isang dramatikong aksyon at higit pa tungkol sa patuloy na dami ng enerhiya sa paglipas ng panahon.

Gaano karaming enerhiya ang ginagamit ng AI kapag isinama mo ang mga data center at cooling?

Kapag naisama na ang mas malawak na sistema, ang sagot ay nagiging mas makatotohanan at kadalasang mas malaki kaysa sa iminumungkahi ng mga pagtatantya na chip-only. Ang mga data center ay nangangailangan ng kuryente hindi lamang para sa pag-compute, kundi pati na rin para sa pagpapalamig, networking, pag-iimbak, at pagpapanatili ng ekstrang kapasidad. Kaya naman ang disenyo ng imprastraktura at kahusayan ng pasilidad ay halos kasinghalaga ng disenyo ng modelo.

Ano ang pinaka-praktikal na paraan upang masukat ang paggamit ng enerhiya ng AI sa isang totoong daloy ng trabaho?

Ang pinakamahusay na paraan ay nakasalalay sa kung sino ang sumusukat at para sa anong layunin. Ang isang pangkalahatang tuntunin ay makakatulong sa mabilis na paghahambing, habang ang mga watt meter, GPU telemetry, cloud billing log, at data center reporting ay nagbibigay ng unti-unting mas malakas na operational insight. Para sa seryosong gawaing sustainability, mas malakas pa rin ang mas kumpletong lifecycle view, bagama't ito ay mas mabagal at mas mahirap.

Paano mababawasan ng mga pangkat ang paggamit ng enerhiya ng AI nang hindi isinusuko ang mga kapaki-pakinabang na tampok ng AI?

Ang pinakamalaking pakinabang ay karaniwang nagmumula sa paggamit ng pinakamaliit na modelo na nagagawa pa rin ang trabaho, pagpapaikli ng mga prompt at output, pag-cache ng mga paulit-ulit na resulta, pag-batch ng trabaho, at pagruruta lamang ng mas mahirap na mga gawain patungo sa mas malalaking modelo. Mahalaga rin ang pag-optimize ng imprastraktura, lalo na ang pag-iiskedyul at kahusayan ng hardware. Sa maraming pipeline, ang pagsukat muna ay nakakatulong na maiwasan ang mga koponan sa pag-optimize ng maling bagay.

Mga Sanggunian

  1. International Energy Agency (IEA) - Kahilingan sa enerhiya mula sa AI - iea.org

  2. Kagawaran ng Enerhiya ng Estados Unidos (DOE) - Naglabas ang DOE ng bagong ulat na sumusuri sa pagtaas ng demand sa kuryente sa mga data center - energy.gov

  3. Google Cloud - Pagsukat sa epekto sa kapaligiran ng hinuha ng AI - cloud.google.com

  4. Google Research - Magandang balita tungkol sa carbon footprint ng machine learning training - research.google

  5. Google Research - Ang carbon footprint ng machine learning training ay tataas at pagkatapos ay bababa - research.google

  6. arXiv - Berdeng AI - arxiv.org

  7. arXiv - Strubell et al. - arxiv.org

  8. arXiv - Mga Istratehiya sa Pagkuwantisasyon, Pagbalot, at Paghahatid sa Paggamit ng Enerhiya ng LLM - arxiv.org

Hanapin ang Pinakabagong AI sa Opisyal na Tindahan ng AI Assistant

Tungkol sa Amin

Balik sa blog