„Uczenie maszynowe” – brzmi jak zaawansowana i niedostępna dla zwykłego śmiertelnika technologia, choć tak naprawdę jest czymś, co pomaga nam w codziennym życiu, np. rozpoznawać obrazy i tłumaczyć teksty w smartfonach. Przede wszystkim jest to jednak technologia, która może pomóc nam rozwiązać niektóre z najtrudniejszych problemów fizycznych – takie jak zużycie energii.

Wielkoskalowe systemy komercyjne i przemysłowe, takie jak centra danych, pochłaniają ogromne ilości energii i choć poczyniono już wiele w kierunku ograniczenia ich zapotrzebowania, wciąż sporo pozostaje do zrobienia ze względu na światowy wzrost zapotrzebowania na moce obliczeniowe.

Centrum danych w Council Bluffs, Iowa, USA

Skala wielkości centrum danych Google w Council Bluffs, Iowa, USA zaczna nabierać kształtów, kiedy spojrzy się na nie z lotu ptaka. Ogromne stalowe belki nie tylko wspierają konstrukcję, ale wspomagają dystrybucję energii w obiekcie, źródło: Google Data Centers

Zmniejszenie zużycia energii było dla firmy Google ważnym celem w ostatnich 10 latach: Google zbudował własne super wydajne serwery, opracował efektywniejsze sposoby odbioru energii od urządzeń w centrach danych i zainwestował w OZE, mając na celu 100% pokrycie zapotrzebowania na energię ze źródeł odnawialnych. Google dysponuje teraz około 3,5 razy większą mocą obliczeniową niż 5 lat temu, przy takiej samej wysokości zużycia energii. Firma nie rezygnuje jednak z opracowywania nowych ulepszeń w celu dalszego ograniczania zapotrzebowania.

Serwery

Typowe serwery marnują aż do 1/3 energii, jeszcze zanim dotrze ona do części serwera, które wykonują faktyczne procesy obliczeniowe. Serwery najwięcej energii tracą w zasilaczu, który zamienia prąd przemienny ze standardowego gniazda na prąd stały o niskim napięciu. W dalszej kolejności energia tracona jest na regulatorze napięć, który dostosowuje prąd z zasilacza do poziomów napięć wymaganych przez mikroprocesory. Tradycyjne serwery projektowane są z myślą o obniżeniu kosztów początkowych, dlatego ich eksploatacja jest znacznie droższa w dłuższej perspektywie, ponieważ zużywają one dużo większe ilości energii.

Wiatraki zawracające ciepłe powietrze w alei za szafami serwerowymi

Rzadki wgląd do tyłu nawy serwerowej. Setki wiatraków kierują strumień gorącego powietrza z szaf serwerowych do jednostki chłodzącej. Zielone światła to diody LED, które pokazują stan serwerów z przodu alei w centrum danych w Mayes County, USA, źródło: Google Data Centers

Google od 2001 roku projektuje serwery bardziej efektywne energetycznie, od wielu lat używa też efektywniejszych zasilaczy. Aby upewnić się, że energia trafia do części obliczeniowej serwerów, posłużono się wysokowydajnymi modułami regulatorów napięcia. Konwersję AC/DC (prądu przemiennego na prąd stały) zoptymalizowano przez wyeliminowanie dwóch etapów, dzięki zastosowaniu dwóch zapasowych baterii na szafach serwerowych. Google szacuje roczną oszczędność w wysokości ponad 500 kWh na jeden serwer lub 25% względem standardowego systemu. Efektywność energetyczną poprawia się również przez dostosowanie pracy wiatraków do realnego zapotrzebowania na chłodzenie – obracają się one dokładnie tak szybko, aby zapewnić bezawaryjną pracę serwerów, jednak nic ponadto. Jeśli chodzi o sprzęt, usuwa się zbędne elementy – jak złącza peryferyjne i karty graficzne, które nie są konieczne do pracy aplikacji.

Kontrola temperatury

Jednym z najprostszych sposobów oszczędzania energii w centrum danych jest podniesienie temperatury. To mit, że w centrach danych musi być chłodno. Zgodnie z zaleceniami ekspertów i specyfikacjami większości producentów sprzętu IT operatorzy centrów mogą bezpiecznie podnieść temperaturę do 80°F, a więc około 26,6°C, lub wyższej. Jest to sposób na znaczne zmniejszenie zużycia energii.

Wschód słońca nad Saint- Ghislain w Belgii – promienie słoneczne oświetlają zbiorniki retencyjne i wieże chłodnicze

Wschód słońca nad Saint-Ghislain w Belgii – promienie słoneczne oświetlają zbiorniki retencyjne i wieże chłodnicze, źródło: Google Data Centers

Google posługuje się modelowaniem termicznym w celu zlokalizowania tzw. hot spotów – punktów o najwyższych temperaturach, aby lepiej zrozumieć, jak kształtuje się przepływ powietrza w danym centrum. Już w fazie projektowej sprzęt jest fizycznie aranżowany, aby wyrównać temperatury w obiekcie. W razie dalszego zapotrzebowania możliwe jest zastosowanie klimatyzatorów pokojów komputerowych (CRACs – ang. computer room air conditioners) w celu wyeliminowania lub redukcji hot spotów w taki sposób, aby praca klimatyzatorów również została zoptymalizowana.

Dodatkowe oszczędności zapewnia zapobieganie mieszaniu się gorącego powietrza zgromadzonego za szafami serwerowymi – w „gorącej alejce” (ang. hot aisle) – z chłodnym powietrzem z „zimnej alejki” (ang. cold aisle) – sprzed szaf, co realizuje się m.in. przez zastosowanie odpowiednich przewodów, trwałych obudów. W tym wypadku, np. w mniejszych centrach, sprawdzić się mogą również tak proste sposoby, jak użycie paneli „zaślepiających” czy zwykłej blachy z metalu do przymknięcia pustych szczelin w regałach lub też zastosowanie plastikowych zasłon, jak w lodówkach komercyjnych.

Chłodzenie wodą

Energia elektryczna, zasilająca centrum danych, prędzej czy później zamienia się w ciepło. Większość centrów do chłodzenia używa agregatów chłodniczych lub jednostek klimatyzatorowych, co wymaga nakładów na poziomie 30–70% zużycia energii. W centrach danych Google do chłodzenia w energooszczędny sposób wykorzystuje się wodę.

Zbiorniki magazynowe na wodę do chłodzenia centrum danych

Zbiorniki magazynowe na wodę do chłodzenia centrum danych o pojemności do 900 000 l wody w Berkeley County w Południowej Karolinie, źródło: Google Data Centers

Google zaprojektowało niestandardowy system chłodzenia swoich szaf serwerowych, który nazwano „gorącymi chatkami” (ang. hot huts), ponieważ służą one jako „tymczasowe domy” dla gorącego powietrza, które opuszcza serwery i w ten sposób jest izolowane od pozostałych części centrów danych. Wentylatory w górnej części każdej jednostki Hot Hut odciągają gorące powietrze od serwerów, kierując je do systemu chłodzonych wodą cewek, gdzie jego temperatura jest obniżana. Schłodzone powietrze z jednostki Hot Hut wraca do obiegu powietrza w centrum danych, gdzie może być wykorzystane do obniżenia temperatury serwerów – w ten sposób cykl zostaje zamknięty.

Patrick Davillier dokonującye inspekcji rur chłodniczych zlokalizowanych pod podłogą centrum, źródło: Google Data Centers

Patrick Davillier dokonujący inspekcji rur chłodniczych zlokalizowanych pod podłogą centrum, źródło: Google Data Centers

W centrum zlokalizowanym w miejscowości Hamina w Finlandii do chłodzenia wykorzystywana jest bezpośrednio woda morska. Nie znajdują tam zastosowania agregaty chłodnicze, ponieważ wykorzystywany system zapewnia wystarczające możliwości chłodzenia przez cały rok kalendarzowy. Miejsce to zostało wybrane właśnie ze względu na zimny klimat i lokalizację w Zatoce Fińskiej. Zaprojektowany układ chłodzenia pompuje zimną wodę z morza do zakładu, gdzie odbiera ona jego ciepło użytkowe. Przed zrzuceniem wody do zatoki zostaje ona ponownie schłodzona.

Źródło: Google Data Centers

Zimowy krajobraz wokół centrum danych w miejscowości Hamina w Finlandii – na pierwszym planie zmrożone wody zatoki, z której pozyskiwana jest woda morska do chłodzenia, źródło: Google Data Centers

Uczenie maszynowe DeepMind

W lipcu 2016 roku firma ogłosiła, że posługując się mechanizmem uczenia maszynowego DeepMind we własnych centrach danych, Google udało się zmniejszyć ilość energii używanej do chłodzenia nawet o 40%. W każdym wielkoskalowym i energochłonnym środowisku byłby to ogromny postęp, szczególnie, gdy weźmiemy pod uwagę, jak mocno centra danych Google są zaawansowane technologicznie już teraz.

Niebieskie rury – dostarczające wodę chlodzącąchłodzącą, czerwone – odprowadzające wodę już ogrzaną do ponownego schłodzenia – The Dalles w stanie Oregon w USA

Niebieskie rury – dostarczające wodę chłodzącą, czerwone – odprowadzające wodę już ogrzaną do ponownego schłodzenia – The Dalles w stanie Oregon w USA, źródło: Google Data Centers

Konsekwencje tego osiągnięcia są znaczące z uwagi na potencjał poprawy efektywności energetycznej centrów i ogólnej redukcji emisji. Google jest tylko jednym z operatorów centrów danych na całym świecie – wiele z pozostałych nie jest zasilanych, nawet częściowo, energią odnawialną, tak jak obiekty Google. Co za tym idzie, każda poprawa efektywności tych centrów przekłada się na zmniejszenie emisji zanieczyszczeń do środowiska. Posługując się takimi technologiami jak DeepMind, można użyć uczenia maszynowego do rozwiązywania jednego z największych wyzwań stojących dziś przed ludzkością – do walki ze zmianami klimatycznymi.

W centrach danych za największe zużycie energii odpowiada chłodzenie. Środowiska dynamiczne, jak centra przetwarzania danych, utrudniają optymalne działanie takich rozwiązań, jak agregaty czy wieże chłodnicze, które często wykorzystywane są w celu chłodzenia, z kilku przyczyn:

1) Sprzęt, sposób jego wykorzystania i środowisko, w którym funkcjonuje – oddziałują one ze sobą w złożony, nieliniowy sposób – tradycyjne podejście inżynierskie i ludzka intuicja często nie są w stanie uchwycić tych interakcji.

2) System nie jest w stanie szybko przystosować się do zmian wewnętrznych i zewnętrznych (takich jak pogoda), dlatego nie da się z wyprzedzeniem przygotować zasad postępowania dla wszystkich scenariuszy operacyjnych.

3) Każde centrum danych ma unikalną architekturę i otoczenie – system dostosowany do potrzeb konkretnego centrum najprawdopodobniej nie znalazłby zastosowania w pozostałych, dlatego potrzebne jest szersze rozumienie interakcji zachodzących w obrębie i wokół centrum.

Google zaczął stosować uczenie maszynowe w celu podniesienia efektywności pracy swoich centrów dwa lata temu. W ciągu ostatnich kilku miesięcy naukowcy zajmujący się DeepMind rozpoczęli współpracę z zespołem centrum danych Google, aby znacznie podnieść użyteczność systemu. Korzystając z systemu sieci neuronowych przeszkolonych na różne scenariusze operacyjne i parametry centrum, Google stworzył wydajniejsze i bardziej adaptacyjne ramy w celu zrozumienia dynamiki centrów danych i optymalizacji wydajności.

Zrealizowano to również dzięki wykorzystaniu danych historycznych, które zostały zebrane przez tysiące czujników zlokalizowanych w centrach – temperatury, moce, prędkości pracy pomp, wartości zadane – i posłużyły do przeszkolenia zespołu głębokich sieci neuronowych. Ponieważ celem była poprawa efektywności energetycznej centrum danych, sieci neuronowe zostały przeszkolone na średnią efektywność zużycia energii (PUE – Power Usage Effectiveness), która zdefiniowana jest jako stosunek całkowitego zużycia energii w budynku do zużycia energii na potrzeby IT. Dwa kolejne zespoły sieci zostały przeszkolone do przewidywania przyszłych temperatur i ciśnień panujących w centrum danych w ciągu najbliższej godziny. Celem tych przewidywań była symulacja działania systemu, aby upewnić się, że nie wykracza on poza jakiekolwiek ograniczenia operacyjne.

Model został przetestowany „na żywym organizmie” – został wdrożony w centrum danych Google. Poniższy wykres przedstawia typowy dzień testów, gdzie horyzontalnie przedstawiono upływ czasu, a wertykalnie – efektywność zużycia energii – PEU. ML Control On i ML Control Off to punkty włączenia i wyłączenia systemu zarządzającego zużyciem energii.

Google DeepMind wykres

 

Źródło: Google DeepMind Blog

Google podaje, że system uczenia maszynowego był w stanie osiągnąć i utrzymać 40% redukcję ilości energii zużywanej do chłodzenia, co przekłada się na 15% redukcję w ogólnym obciążeniu PUE, po uwzględnieniu strat elektrycznych i niewydolności innych niż te wynikające z chłodzenia. System zagwarantował także osiągnięcie najniższej wartości średniej efektywności zużycia energii, jaka kiedykolwiek została odnotowana w tym centrum.

Algorytm został stworzony do ogólnej analizy i zrozumienia złożonej dynamiki procesów. Google w najbliższych miesiącach planuje zastosować go w środowisku centrów danych i poza nim, aby podjął się kolejnych wyzwań. Potencjalne zastosowania tej technologii to między innymi: poprawa efektywności elektrowni (wyższy uzysk energii przy wykorzystaniu takiej samej ilości paliwa), redukcja zużycia energii i wody przy produkcji półprzewodników czy zwiększanie przepustowości zakładów produkcyjnych.

Google planuje szersze wdrożenie systemu. Zapowiada pojawienie się kolejnej publikacji, w której problem zostanie omówiony w taki sposób, że centra danych i inni operatorzy systemów przemysłowych, a ostatecznie i środowisko, będą mogli z tego ważnego osiągnięcia skorzystać.

Opracowanie: Katarzyna Cieplińska, GLOBEnergia, 

na podstawie: Google DeepMind Blog, Google Data Centers

Zdjęcie główne: Plastikowe zasłony zawieszone wewnątrz pokoju sieciowego w Council Bluffs w stanie Iowa w USA – chłodne powietrze dostarczane przez otwory w podłodze utrzymywane jest na miejscu dzięki zastosowaniu zasłon, które jednocześnie zatrzymują powietrze cieplejsze na zewnątrz, źródło: Google Data Centers

Katarzyna Cieplińska

Redaktor GLOBEnergia