Jak zasilić sztuczną inteligencję? Rozwój AI może znacząco wpłynąć na światową energetykę

Zdjęcie autora: Maciej Bartusik

Maciej Bartusik

redaktor GLOBENERGIA

Modele sztucznej inteligencji zmienią świat – po kilkunastu miesiącach intensywnego rozwoju tej technologii nikt nie ma co do tego wątpliwości, a kolejni giganci technologiczni prześcigają się we wprowadzaniu nowych rozwiązań z sektora AI. Jest jednak jeden problem – energia. Dalsze rozwijanie zaawansowanych sieci neuronowych, takich jak ChatGPT wiąże się z olbrzymim zużyciem prądu. Co więc zrobić z tą energochłonną branżą?

Ile energii zużywa sztuczna inteligencja? Oddajmy głos… AI

Aby odpowiedzieć na pytanie z powyższego nagłówka, postanowiłem udać się do źródła: wszedłem na chatgtp.com i wpisałem w okienko pytanie: Ile energii elektrycznej zostanie zużyte w celu odpowiedzi na to pytanie zadane Chatowi GPT? Odpowiedź była tyleż konkretna, co paradoksalnie kompletnie niewyczerpująca tematu:

Oszacowanie zużycia energii elektrycznej dla konkretnej interakcji z modelem językowym, takim jak ChatGPT, jest trudne do precyzyjnego określenia, ale można podać pewne przybliżenia. Modele językowe działają na serwerach, które zużywają energię na obliczenia. Badania sugerują, że zużycie energii przez duże modele językowe może wynosić kilkanaście do kilkudziesięciu watogodzin (Wh) na każde zapytanie, w zależności od jego skomplikowania, długości interakcji, oraz wydajności serwerów.

Dla porównania:

  • 10 watogodzin to mniej więcej tyle energii, ile zużywa standardowa żarówka LED w ciągu 1-2 godzin.
  • W kontekście pojedynczego pytania (takiego jak to), zużycie energii może wynosić od 0,1 do 10 Wh.

Tak więc odpowiedź na Twoje pytanie prawdopodobnie zużyła bardzo niewielką ilość energii — prawdopodobnie mniej niż kilka watogodzin.

Postanowiłem drążyć temat i spytałem mojego wirtualnego rozmówcę, na jakiej podstawie obliczył tę wartość. ChatGPT stwierdził, że choć nie ma dostępu do danych o zużyciu energii konkretnej instancji, użytej do rozmowy ze mną, opiera swoje przypuszczenia o parę czynników. Wśród nich znajdują się charakterystyka centrów danych, specyfika modeli językowych, raporty branżowe oraz badania naukowe. Te ostatnie, według Chatu GPT, szacują zużycie prądu przez pojedyncze zapytanie na 0,1-10 watogodzin, w zależności od jego złożoności.

Energochłonna branża AI – ile megawatogodzin będzie kosztował jej dalszy rozwój?

Tyle z informacji dostarczonych mi przez sam złożony model językowy. Być może byłbym w stanie wyciągnąć od niego jeszcze więcej, jednak póki co warto sięgnąć również do innych źródeł. Jak wynika z cytowanego przez World Economic Forum badania przeprowadzonego przez EPRI, przeciętne zapytanie wprowadzone do Chatu GPT generuje 10-krotnie większe zużycie energii niż wyszukanie informacji w Google. Wspomniany model, opracowany przez OpenAI, obsługuje tygodniowo 100 milionów użytkowników. Pomnożenie tych wartości przez siebie daje olbrzymie ilości kilowatogodzin, które jakieś źródło musi zapewniać.

Międzynarodowa Agencja Energetyczna w styczniu tego roku podawała, że dwa lata temu sektor AI pochłaniał 2% prądu zużywanego na świecie. Do 2026 zapotrzebowanie może wzrosnąć do 4%, co oznacza, że cała światowa sztuczna inteligencja będzie zużywać mniej więcej tyle prądu, co Japonia.

Skąd tak wysoka energochłonność? W dzisiejszych czasach największą uwagę przyciąga AI generatywne, które pozwala na tworzenie tekstu, dźwięku czy obrazu na podstawie zapytania (zwanego promptem). Jego działanie podzielone jest na dwa etapy. Najpierw program karmiony jest olbrzymią ilością treści, najczęściej pochodzących z internetu – ten proces odpowiada za jakieś 20% zużycia energii przez sztuczną inteligencję. Następnie oprogramowanie dokonując tysięcy złożonych obliczeń generuje na podstawie otrzymanych wcześniej treści oraz promptu własne dzieło. Ten etap to pozostałe 80% wykorzystywanego na konkretne zapytanie prądu.

AI zagraża planom na bezemisyjność

Giganci branży technologicznej wiążą spore nadzieje z rozwojem sztucznej inteligencji, jednak wyjątkowa energochłonność tej technologii zmusiła wielkie koncerny do ponownego przyjrzenia się swoim założeniom emisyjnym. Google jeszcze nie tak dawno planowało osiągnąć pełną bezemisyjność do końca tej dekady. Tymczasem w lipcu tego roku firma przyznała, że w przeciągu ostatnich 5 lat ich emisje urosły o 48%, a główną przyczyną jest właśnie wzrost zapotrzebowania na energię związany z dynamicznym rozwojem sektora AI.

Podobnie ambitny plan miał Microsoft – nie tylko całkowita redukcja, ale też tworzenie negatywnych emisji do roku 2030. Przedstawiciel firmy, Brad Smith, nazwał tę strategię “strzałem w księżyc” (ang. “moonshot”). W maju Smith nawiązał do tej wypowiedzi, stwierdzając wprost, że wraz z rozwojem sztucznej inteligencji “księżyc się poruszył”.

W obliczu tych danych koncerny technologiczne muszą pilnie poszukiwać nowych, niskoemisyjnych źródeł energii, aby zasilić tak ogromny sektor. Jak twierdzą przedstawiciele branży, samo OZE nie wchodzi w grę, bowiem tempo wzrostu mocy w tej gałęzi energetyki jest zbyt wolne. W USA, gdzie rezydują największe korporacje technologiczne, zwraca się uwagę na długie okresy powstawania inwestycji takich jak parki wiatrowe czy słoneczne. Gdzie więc zwracają się firmy tworzące modele AI?

Gdzie koncerny technologiczne szukają energii?

Po pierwsze – za granicą. Google na początku października podpisało umowę z indyjską grupą Adani, która jest w trakcie budowania hybrydowego obiektu Khavda. Przedsięwzięcie obejmuje naprawdę olbrzymią skalę – w fotowoltaice i turbinach wiatrowych znajdzie się tam 30 GW mocy (a więc tyle, ile teraz OZE podłączonych jest w całej Polsce), a elektrownia zajmie 500 km2 (niewiele mniej niż Warszawa). Kolejne części tej inwestycji są stopniowo oddawane do użytku, a ta, która zasili centra danych Google’a, zostanie uruchomiona w III kwartale 2025 roku.

Po drugie – w atomie. W ubiegłym miesiącu spore zamieszanie wywołała decyzja Microsoftu o podpisaniu kontraktu z Constellation Energy, firmą, która zarządza wygaszoną elektrownią atomową Three Mile Island. To właśnie tam w 1979 roku doszło do częściowego stopienia rdzenia w drugim bloku, co było jak do tej pory najpoważniejszym incydentem w amerykańskiej energetyce jądrowej. Teraz Three Mile Island ma powrócić – elektrownia wznowi działalność już za 4 lata, a 100% produkowanej przez nią energii będzie kupował Microsoft.

Są też inne drogi, nieco mniej godne pochwały. Założona przez Elona Muska firma xAI w czerwcu tego roku otworzyła ogromne centrum danych w Memphis, w stanie Tennessee. Obiekt potrzebuje 150 GW mocy, aby móc w pełni funkcjonować, lokalny dystrybutor podłączył do niego jedynie 50 GW. Kolejne przyłącza mają pojawić się w niedalekiej przyszłości. Póki ich nie ma, xAI używa do zasilenia centrum danych… turbin gazowych, na których użytkowanie nie posiada odpowiednich zezwoleń. Sprawę nagłośnili lokalni aktywiści, którzy zwrócili uwagę na olbrzymie ilości szkodliwych pyłów emitowanych przez urządzenia. Lokalne władze odparły zarzuty twierdząc, że turbiny działają tam jedynie tymczasowo i na ich eksploatację nie jest potrzebne zezwolenie.

Atom nadzieją dla AI, AI nadzieją dla atomu?

Wróćmy do atomu. Wiele wskazuje na to, że sektory sztucznej inteligencji i energii nuklearnej mogą sobie nawzajem pomóc. Energetyka atomowa czasy największego rozkwitu ma już dawno za sobą. Jest to ponadto kosztowny i długoterminowy biznes. Zarówno o olbrzymiej inflacji kosztów jądrowych inwestycji, jak i wydłużających się terminach ich realizacji pisaliśmy niedawno na naszym portalu, a także rozmawialiśmy w ostatnim odcinku Energetycznego Talk-show. W skrócie – przekroczenie budżetu i przesuwanie terminu ukończenia kolejnych atomowych bloków jest niemalże nieuniknione. Potrzebni są inwestorzy, którzy są gotowi przez wiele lat dokładać do całego przedsięwzięcia. A technologiczni giganci ze swoimi miliardowymi portfelami mogą być takimi właśnie inwestorami.

Dlatego właśnie Microsoft wskrzesza Three Mile Island, a Google ma zamiar zakupić sześć lub nawet siedem małych reaktorów modułowych (SMR), również na rzecz zasilenia swoich centrów danych. Technologię dostarczy firma Kairos, a łączną moc zamówionych obiektów to 500 MW. Pierwszy z nich ma ruszyć do końca dekady, a kolejne do 2035 roku.

W przyszłości centra danych miałyby powstawać bezpośrednio przy wielkich obiektach produkujących energię. Mowa tu zarówno o farmach wiatrowych czy słonecznych, jak i blokach jądrowych. Sztucznej inteligencji nie wystarczy jeden typ źródła, jednak potrzeba zmniejszenia emisji jest na tyle duża, że OZE nie można sobie całkowicie odpuścić, mimo że zwrócenie się w stronę atomu również będzie konieczne. To z kolei może pomóc branży nuklearnej, która po wielkim boomie w ubiegłym stuleciu łapie coraz mocniejszą zadyszkę.

Czy problem energochłonnego AI rozwiąże… samo AI?

Wielkie technologiczne koncerny wiążą duże nadzieje z rozwojem AI. Nadzieje nie tylko finansowe – sztuczna inteligencja ma pomóc rozwiązać problem, którego w zasadzie sama jest częścią, a więc galopujące zapotrzebowanie na energię. Takimi przemyśleniami w czerwcu tego roku podzielił się założyciel Microsoftu Bill Gates. Miliarder stwierdził, że algorytmy uczenia się maszynowego mogą pomóc firmom w opracowaniu nowych strategii oszczędzania energii. Jego zdaniem zużycie prądu przez ten sektor może w szczytowym momencie osiągnąć 6% całej światowej konsumpcji, jednak jednocześnie technologia ta “z pewnością” pozwoli nam zmniejszyć globalne zużycie o te 6%, a nawet więcej.

Powyższa wizja jest bardzo ambitna, by nie powiedzieć że nosi znamiona technokratycznej utopii. Sztuczna inteligencja miałaby pomóc nam nie zmarnować dużej ilości energii, opracowując odpowiednie strategie jej oszczędzania. Ile jednak zużyje sama sztuczna inteligencja, nim zdoła maksymalnie zoptymalizować konsumpcję prądu na całym świecie? I czy to zoptymalizowanie faktycznie pozwoli nam nadrobić straty? Na te pytania ciężko w tej chwili uzyskać odpowiedź.

Źródła: theguardian.com, ft.com, cnbc.com, weforum.org