Rozwiązanie komputerowe AI
Aplikacje AI przyspieszają ewolucję centrów danych w kierunku dużej gęstości. W obliczu gwałtownego wzrostu ilości danych i obliczeń spowodowanego przez sztuczną inteligencję oraz rosnącego niedoboru zasobów centrów danych, zwłaszcza w miastach pierwszego rzędu, jedynie poprawa mocy obliczeniowej, możliwości przechowywania i transmisji na jednostkę powierzchni sali komputerowej może maksymalizować wartość centrum danych. Wprowadzenie chipów AI o dużej mocy obliczeniowej przyspieszy ewolucję trendu dużej gęstości mocy serwerów.

Ponieważ ChatGPT rozpala nową falę entuzjazmu dla aplikacji sztucznej inteligencji, krajowe i zagraniczne centra danych oraz producenci biznesów w chmurze zaczęli promować budowę infrastruktury AI, a odsetek dostaw serwerów AI we wszystkich serwerach stopniowo rośnie. Według danych TrendForce roczny wolumen dostaw serwerów AI wyposażonych w GPGPU stanowił prawie 1% wszystkich serwerów w 2022 r. W 2023 r., dzięki wsparciu aplikacji sztucznej inteligencji, takich jak ChatGPT, oczekuje się, że wolumen dostaw serwerów AI wzrośnie o 8% rok do roku. Oczekuje się, że w latach 2022–2026 wolumen przesyłek CAGR osiągnie 10,8%. Procesory graficzne są używane głównie w serwerach AI, głównie Nvidia H100, A100, A800 (wysyłane głównie do Chin), a także AMD serii MI250 i MI250X. Proporcja NVIDIA i AMD wynosi około 8:2.

Wpływ prędkości wentylatora przekraczającej 4000 obr/min na opór cieplny jest ograniczony. Według CNKI w systemie chłodzonym powietrzem prędkość wentylatora wzrasta z 1000 obr/min do 4000 obr/min, a w rozpraszaniu ciepła wiórów dominuje konwekcja. Wraz ze wzrostem natężenia przepływu współczynnik konwekcyjnego przenikania ciepła znacznie wzrasta. Chłodzenie powietrzem może skutecznie poprawić problemy z odprowadzaniem ciepła z wiórów. Gdy prędkość wentylatora przekracza 4000 obr/min, spadek oporu wymiany ciepła jest stosunkowo łagodny, a zwiększenie prędkości może jedynie poprawić wymianę ciepła za pomocą powietrza, co skutkuje zmniejszeniem efektu rozpraszania ciepła. Chłodzenie cieczą na poziomie chipa to przyszły trend rozwojowy. W przypadku przestrzeni serwerowej o wysokości 2U, 250 W to w przybliżeniu maksymalny limit chłodzenia powietrzem i rozpraszania ciepła; Powyżej 4U chłodzenie powietrzem może osiągnąć 400-600W; TDP układów AI zazwyczaj przekracza 400 W, głównie przy wykorzystaniu 4-8U. Tradycyjne odprowadzanie ciepła chłodzone powietrzem osiągnęło swój limit. Kontrola temperatury chipa jest szczególnie ważna dla stabilnej i ciągłej pracy, przy maksymalnej temperaturze nie przekraczającej 85 stopni. Nadmierna temperatura może spowodować uszkodzenie chipa. W zakresie 70-80 stopnia każde 10 stopni wzrostu temperatury pojedynczego elementu elektronicznego zmniejsza niezawodność systemu o 50%. Dlatego w kontekście zwiększonej mocy układ chłodzenia zostanie zmodernizowany do chłodzenia cieczą na poziomie chipa.

W porównaniu do chłodzenia powietrzem, chłodzenie cieczą może nie tylko spełnić wymagania dotyczące rozpraszania ciepła w szafach o dużej gęstości mocy, ale także osiągnąć niższy PUE i wyższą moc wyjściową (GUE). W porównaniu z tradycyjnym chłodzeniem powietrzem, PUE chłodzenia cieczą z zimną płytą wynosi zazwyczaj 1,1x, przy GUE wynoszącym ponad 75%, podczas gdy PUE chłodzenia cieczą zanurzeniową może wynosić zaledwie 1,0x, przy GUE ponad 80%. Jednoczesne zastosowanie technologii chłodzenia cieczą może spowodować usunięcie części lub nawet wszystkich wentylatorów ze sprzętu IT (zwykle zużycie energii przez wentylator jest również wliczane do zużycia energii przez sprzęt serwerowy). W przypadku zanurzonego chłodzenia cieczą usunięcie wentylatora serwera może zmniejszyć zużycie energii przez serwer o około 4% -15%.

Obecna dojrzałość technologii chłodzenia cieczą z zimną płytą jest stosunkowo wysoka i stanowi główny nurt technologii chłodzenia cieczą. Zakładając, że obecny odsetek wynosi 80%. Oczekuje się, że w przyszłości, wraz z dojrzałością technologii chłodzenia cieczą zanurzeniową, ogólny odsetek będzie stopniowo wzrastał. Na podstawie kompleksowych obliczeń, szkolenie i wnioskowanie dotyczące dużych modeli sztucznej inteligencji przyniesie rynek chłodzenia cieczą o wartości 4 miliardów RMB. Wraz ze wzrostem parametrów modeli i promocją ich zastosowania, w ciągu najbliższych czterech lat rynek chłodzenia cieczą odnotuje skumulowaną roczną stopę wzrostu na poziomie 60%.

Wierzymy, że oczekuje się, że duży model sztucznej inteligencji doprowadzi do zwiększenia zapotrzebowania na moc obliczeniową, pobudzi budowę inteligentnych centrów obliczeniowych i superkomputerowych o dużej gęstości mocy, przyspieszy wprowadzanie na rynek urządzeń pomocniczych, takich jak systemy chłodzenia cieczą, a w przyszłości wraz z budową nowych centrów danych i transformacją istniejących centrów danych oczekuje się, że ogólny wskaźnik penetracji szybko wzrośnie. Obecnie branża chłodzenia cieczą jest wciąż na wczesnym etapie rozwoju i optymistycznie patrzy na producentów posiadających wiodącą pozycję pod względem technologii i zdolności produkcyjnych.






