Analiza technologii chłodzenia cieczą i odprowadzania ciepła w centrach danych AI

Generacyjna sztuczna inteligencja i różne duże modele zapewniają nam zupełnie nowe doświadczenia związane z aplikacjami, a także stawiają wyższe wymagania dotyczące mocy obliczeniowej. Menedżerowie operacji centrów danych, ze względu na znaczny wzrost gęstości mocy serwerów GPU, stawiają wyższe wymagania sprzętowi chłodniczemu i technologii centrów danych. Dlatego oprócz skupienia się na samej mocy obliczeniowej, zwracają także większą uwagę na różne problemy wynikające ze zużycia energii i chłodzenia centrum danych.

AI computing

W odpowiedzi na duże zapotrzebowanie na moc obliczeniową AI liczba serwerów GPU w centrach danych znacznie wzrosła, co prowadzi do coraz bardziej widocznych problemów związanych ze zużyciem energii. Wiemy, że maksymalna całkowita moc pojedynczej szafy chłodzonej powietrzem w centrach danych wynosi 15 kW. Przy tym samym tempie rozbudowy szafy, wzrost mocy serwerów GPU zbliżył się do limitu pojedynczej szafy. Jednak zużycie energii przez procesory graficzne stale rośnie. W obliczu scenariuszy wysokiego zużycia energii i dużej gęstości tradycyjne chłodzenie powietrzem wyraźnie nie jest w stanie sprostać wymaganiom w zakresie zużycia energii i rozpraszania ciepła. Technologia chłodzenia cieczą, charakteryzująca się wyjątkowo wysoką efektywnością energetyczną i bardzo wysoką gęstością ciepła, stała się niezbędną opcją w przypadku rozwiązań kontroli temperatury w inteligentnych centrach obliczeniowych.

AI liquid cooling

W tradycyjnych centrach danych chłodzonych powietrzem zużycie energii na chłodzenie sprzętu i odprowadzanie ciepła wynosi aż 40%, a wydajność rozpraszania ciepła nie jest wysoka. Ze względu na swoje ograniczenia konwencjonalne chłodzenie powietrzem w centrach danych jest zwykle projektowane z gęstością pojedynczej szafy wynoszącą 8-10kW. Ze względu na przewodność cieplną technologii chłodzenia cieczą, która jest 25 razy większa od przewodności powietrza i przenosi prawie 3000 razy więcej ciepła niż ta sama objętość powietrza, można z łatwością osiągnąć gęstość pojedynczej szafy przekraczającą 30 kW. Dlatego może zaoszczędzić dużo miejsca, jeszcze bardziej poprawić gęstość rozmieszczenia szaf w pojedynczym centrum danych i poprawić stopień wykorzystania obszaru jednostki centrum danych.
Jednak obecnie nie ma jednolitej technologii i standardu konstrukcyjnego w branży chłodzenia cieczą, a w porównaniu z tradycyjnym chłodzeniem powietrzem koszt budowy centrów danych chłodzonych cieczą jest nadal zbyt wysoki. Szybki rozwój technologii chłodzenia cieczą oraz brak ujednoliconych standardów technologicznych i konstrukcyjnych spowodowały znaczne wyzwania w późniejszym zarządzaniu i utrzymaniu ruchu.

data center

Obecnie główne technologie chłodzenia cieczą obejmują technologię pośredniego chłodzenia cieczą reprezentowaną przez system chłodzenia cieczą z zimną płytą oraz technologię bezpośredniego chłodzenia cieczą reprezentowaną przez zanurzeniowy system chłodzenia cieczą. Ze względu na różnice w konstrukcji rozpraszania ciepła między nimi, istnieją również znaczne różnice w wydajności rozpraszania ciepła.

Technologię pośredniego rozpraszania ciepła osiąga się poprzez kontakt z powierzchniami procesorów, pamięci, procesorów graficznych, dysków twardych i innych nośników, takich jak płyty chłodzące, wykorzystując przepływ chłodziwa do odprowadzania ciepła. Oprócz płyt chłodzących i innych mediów technologia pośredniego chłodzenia cieczą obejmuje również komponenty, takie jak wymienniki ciepła, rurociągi, pompy, chłodziwo i systemy sterowania. System chłodzenia cieczą z zimną płytą stał się głównym rozwiązaniem w technologii pośredniego chłodzenia cieczą. Głównymi zaletami technologii pośredniego chłodzenia cieczą jest to, że nie wymaga ona zmiany formy istniejących serwerów, ma niewielkie trudności techniczne w projektowaniu, stosunkowo niskie trudności we wdrożeniu oraz stosunkowo niewielkie trudności w późniejszej obsłudze i zarządzaniu konserwacją. Dodatkowo, dzięki zastosowaniu wodnego roztworu glikolu etylenowego jako czynnika chłodzącego, koszt jest niższy.
Wadą jest to, że wydajność odprowadzania ciepła jest stosunkowo niska, a ze względu na dużą liczbę elementów wskaźnik awaryjności jest stosunkowo wyższy. Obecnie system chłodzenia cieczą z zimną płytą stał się preferowanym rozwiązaniem dla większości centrów danych.

server liquid cold plate

Technologia bezpośredniego chłodzenia cieczą odnosi się do bezpośredniego kontaktu procesora, karty graficznej, płyty głównej, pamięci itp. z chłodziwem, które bezpośrednio przepływa przez powierzchnię sprzętu, pochłaniając i odprowadzając ciepło. Obecnie technologia bezpośredniego chłodzenia cieczą obejmuje systemy chłodzenia cieczą zanurzeniową i systemy chłodzenia cieczą natryskową. W zależności od tego, czy czynnik chłodzący ulega przemianie fazowej, można je podzielić na zanurzenie jednofazowe i zanurzenie ze zmianą fazy.
W porównaniu z technologią pośredniego rozpraszania ciepła, technologia bezpośredniego chłodzenia cieczą nie ma pośredniego ośrodka przewodzącego pomiędzy cieczą a źródłem ciepła, a ciepło może być przenoszone bardziej bezpośrednio do cieczy, co skutkuje wyższą wydajnością rozpraszania ciepła. Jednak wdrożenie technologii bezpośredniego chłodzenia cieczą jest trudniejsze i bardziej kosztowne ze względu na konieczność przeprojektowania i przekształcenia całego centrum danych. Obecnie technologia bezpośredniego chłodzenia cieczą jest stosowana głównie w scenariuszach wymagających wysokiej wydajności rozpraszania ciepła.

data center immersion liquid cooling

Obecnie, w miarę jak system chłodzenia cieczą z zimną płytą stanie się bardziej dojrzały, stanie się ona głównym nurtem technologii chłodzenia cieczą, która jako pierwsza pojawi się w centrach danych. Koszty, obsługa i konserwacja, bezpieczeństwo i inne kwestie wpływające na popularyzację technologii chłodzenia cieczą z zimną płytą również zostaną rozwiązane wraz z rozwojem technologii i standaryzacją.
Dzięki ciągłemu rozwojowi technologii zanurzone systemy chłodzenia cieczą będą również szeroko stosowane w nowych centrach danych o dużej gęstości, co jeszcze bardziej poprawi efektywność rozpraszania ciepła w centrach danych i znacznie zwiększy poziom mocy obliczeniowej.

Może ci się spodobać również

Wyślij zapytanie