Kako umjetna inteligencija nezaustavljivo raste, svijet bi se već do 2030. godine mogao suočiti s ozbiljnim energetskim izazovima.
Prema najnovijim podacima Međunarodne agencije za energiju, podatkovni centri, kičma AI sistema, mogli bi trošiti čak 3% globalne električne energije, dvostruko više nego danas.
Energetska kriza
Iz konzultantske kuće "McKinsey" poručuju da svijet već ulazi u utrku za izgradnjom dovoljno podatkovnih centara, ali i da prijeti globalni manjak električne energije ako se istovremeno ne poveća efikasnost infrastrukture.
Profesor računarskih nauka Mošaraf Čaudri (Mosharaf Chowdhury) s američkog Univerziteta Mičigen smatra da je ključ u optimizaciji, njegov tim razvija algoritme koji mogu smanjiti potrošnju energije po AI čipu za čak 30%.
Slična nastojanja bilježe se i na tehničkom nivou. Garet Vilijams (Gareth Williams) iz britanske kompanije "Arup" naglašava kako su AI senzori za lokalnu kontrolu temperature znatno smanjili troškove hlađenja.
Štedljivi čipovi
Amazonova podružnica AWS razvila je i sistem tekućeg hlađenja Nvidia čipova, koji ne zahtijeva rekonstrukciju postojećih centara.
Ipak, problem ostaje: novi čipovi jesu štedljiviji, ali ukupan broj operacija i dalje raste. Naučnik Ji Ding (Yi Ding) s Purduea upozorava da će potrošnja električne energije nastaviti rasti, iako sporije.
U trci za održivijim AI-jem, kineski startup "DeepSeek" uspio je preskočiti energetski intenzivne faze treniranja, koristeći slabije, ali pametnije raspoređene resurse. Kina bi mogla imati prednost i zbog lakše dostupnosti obnovljivih i nuklearnih izvora energije.
Stručnjaci se slažu da bez pametne optimizacije, razvoj AI-ja mogao bi vrlo brzo prerasti u energetsku prijetnju globalnih razmjera.
