Jeszcze dekadę temu słowo „superkomputer” kojarzyło się głównie z hermetycznymi projektami finansowanymi przez agencje kosmiczne lub ośrodki wojskowe. Dziś wyścig o moc obliczeniową angażuje już nie tylko fizyków wysokich energii, lecz również biotechnologów, meteorologów i twórców sztucznej inteligencji. Boom na modele językowe liczone w setkach miliardów parametrów sprawił, że potrzeba skoncentrowanej mocy GPU stała się zagadnieniem strategicznym. Polska właśnie dołączyła do grona państw, które potrafią samodzielnie zestawić infrastrukturę pozwalającą szkolić i uruchamiać najbardziej zaawansowane systemy AI – w Warszawie wystartował klaster obliczeniowy NASK o wartości około 30 mln zł.
Nowa instalacja to nie tylko kolejny krok w krajowym HPC, lecz także sygnał, że obliczenia wysokiej wydajności i analiza danych wrażliwych mogą zostać w pełni zrealizowane w polskich centrach danych. Dzięki temu instytucje państwowe zyskują alternatywę dla komercyjnych chmur zagranicznych, a zespoły badawcze otrzymują stabilny dostęp do zasobów zoptymalizowanych pod uczenie maszynowe. Poniżej przyglądamy się technicznym aspektom klastra, kulisom jego budowy oraz planowanym zastosowaniom.
Superkomputery dziś: od badań podstawowych po generatywną sztuczną inteligencję
Aktualna lista TOP500 pokazuje, że praktycznie wszystkie najszybsze systemy świata są zbudowane z wielu węzłów serwerowych połączonych ultraszybką siecią, najczęściej InfiniBandem. Kluczem nie jest już pojedynczy procesor o rekordowym zegarze, lecz efektywne skalowanie pracy na tysiącach rdzeni CPU i akceleratorów GPU, a także minimalizacja opóźnień w wymianie danych między węzłami.
Rosnąca popularność sieci neuronowych znacząco zmieniła profil obliczeń HPC. Przy uczeniu modeli transformatorowych liczy się głównie przepustowość pamięci, moc w operacjach mieszanej precyzji FP8/FP16 oraz szybkie łącze wewnątrz klastra. Dlatego najsilniejsze superkomputery AI wykorzystują układy graficzne z dedykowanymi układami NVLink i obsługą łączenia pamięci HBM w ramach wielokartowych bloków. Takie podejście pozwala trenować modele językowe czy systemy symulujące zachowanie cząsteczek w biologii obliczeniowej bez konieczności dzielenia zbiorów danych na małe fragmenty.
W Europie perspektywę wyznacza inicjatywa EuroHPC, której celem jest budowa infrastruktury klasy eksaskalowej. Jednocześnie rośnie zapotrzebowanie na mniejsze, wysoko wyspecjalizowane klastry narodowe, które mogą być szybciej dostosowane do lokalnych wymogów prawnych i językowych. Projekt NASK wpisuje się właśnie w tę drugą ścieżkę rozwoju, stawiając na gęsto upakowaną moc GPU w skali pozwalającej trenować pełnowymiarowe modele generatywne w języku polskim.
Warszawski klaster NASK: architektura, parametry i kosztorys
Sercem infrastruktury jest dwanaście węzłów obliczeniowych Dell PowerEdge skonfigurowanych pod uczenie maszynowe. Każdy węzeł zawiera dwa 96-rdzeniowe procesory AMD EPYC z architekturą Zen 4 oraz osiem akceleratorów NVIDIA B200 z 192 GB pamięci HBM3 na kartę. Łącznie daje to 96 kart GPU i ponad 18 TB superszybkiej pamięci graficznej, co przekłada się na teoretyczną moc rzędu 25 PFLOPS w operacjach FP16.
Do połączenia węzłów wykorzystano sieć InfiniBand NDR o przepustowości 400 Gb/s na port, spiętą w topologii fat-tree. Dzięki temu transfer parametrów sieci neuronowych między kartami w oddzielnych szafach odbywa się praktycznie bez wąskich gardeł. Całość uzupełnia magazyn danych typu all-flash NVMe o pojemności nieco powyżej 1 PB. Dyski pracują w klastrze plików równoległych, co umożliwia przepustowość ponad 1 TB/s przy odczycie i zapisie treningowych zbiorów danych.
Według informacji instytutu najdroższym elementem okazały się akceleratory – pojedynczy serwer z ośmioma kartami B200 kosztował około 1,2 mln zł netto. Inwestycja objęła również przemysłowe chłodzenie cieczą (direct-to-chip), modułowe UPS-y oraz rozbudowę zasilania, co pozwoliło utrzymać gęstość mocy na poziomie 80 kW w pojedynczej szafie. Łączny budżet zamknął się w kwocie około 30 mln zł, co przy rosnących cenach pamięci HBM i dysków NVMe należy uznać za relatywnie korzystny wynik.
Proces narodzin infrastruktury: od specyfikacji do chłodzenia cieczą
Prace koncepcyjne nad klastrem wystartowały w połowie 2025 r., gdy stało się jasne, że dotychczasowe środowisko obliczeniowe instytutu nie pozwoli na trening modeli przekraczających 50 mld parametrów. Zespół inżynierów NASK przeanalizował oferty kilku producentów i zdecydował się na rozwiązanie dostarczane w całości przez jedno konsorcjum – od serwerów po sieć i szafy chłodzone cieczą. Taki model „pod klucz” znacząco skrócił etap integracji.
Po rozstrzygnięciu przetargu hardware trafił do europejskiego centrum integracyjnego, gdzie zamontowano bloki wodne i przetestowano szczelność układu. Transport do Warszawy odbył się w dwóch turach – najpierw sekcje chłodnicze, a następnie kompletne węzły GPU. Adaptacja istniejącej infrastruktury energetycznej wymagała instalacji nowego transformatora 2 MVA oraz przeprojektowania instalacji przeciwpożarowej, tak aby uwzględnić obecność glikolu w obiegu chłodzenia.
Ostateczne uruchomienie miało miejsce w marcu 2026 r. i obejmowało kalibrację przepływów cieczy oraz testy syntetyczne sprawdzające stabilność klastra pod pełnym obciążeniem. Wyniki potwierdziły, że przy temperaturze wody zasilającej 32°C układ utrzymuje GPU poniżej 60°C, co gwarantuje nie tylko wydajność, ale i dłuższą żywotność podzespołów.
Komu i do czego posłuży nowa moc obliczeniowa
Zgodnie z założeniem projekt nie jest ogólnodostępną maszyną KDM – priorytetowo traktowane będą zadania realizowane przez zespoły badawczo-rozwojowe NASK oraz partnerów rządowych. Najważniejsze kierunki prac obejmują:
• rozwój dużych, otwartych modeli języka polskiego oraz wielojęzycznych systemów tłumaczeniowych,
• budowę platform analizujących ruch sieciowy w czasie quasi-rzeczywistym i wykrywających anomalie z użyciem sieci głębokich,
• projekty z zakresu adversarial machine learning, w których sztuczne „czerwone zespoły” atakują modele, by poprawić ich odporność na manipulacje,
• obliczenia bioinformatyczne, m.in. symulacje dynamiki białek i wyszukiwanie nowych leków z wykorzystaniem metod typu in-silico,
• trenowanie agentów multi-modalnych do automatycznej moderacji treści w usługach cyfrowych administracji publicznej.
Instytut podkreśla, że część zasobów będzie rezerwowana na pilne zadania o wysokim znaczeniu społecznym, jak obsługa incydentów cyberbezpieczeństwa czy szybka analiza dużych kolekcji dokumentów urzędowych. Dzięki temu inne krajowe ośrodki HPC zostaną odciążone i będą mogły skupić się na grantach stricte naukowych.
Co dalej? Kierunki rozwoju i miejsce Polski na mapie HPC
Uruchomienie warszawskiego klastra to dopiero pierwszy krok. W horyzoncie dwóch lat planowana jest rozbudowa pamięci masowej o kolejny petabajt oraz włączenie systemu do europejskiej federacji zasobów EuroHPC poprzez sieć PIONIER. NASK rozważa także instalację modułów akceleratorów nowej generacji z interposerem NVLink-C2C, co pozwoliłoby na liniowe skalowanie przepustowości między kartami.
Istotne znaczenie będzie miał aspekt energetyczny. Już dziś centrum danych wykorzystuje ciepło odpadowe do ogrzewania przyległego budynku biurowego i planuje podłączenie do miejskiej sieci ciepłowniczej. Takie rozwiązanie wpisuje się w trend „zielonych” superkomputerów, widoczny choćby w skandynawskich instalacjach, gdzie odzyskuje się do 80% energii elektrycznej w postaci ciepła.
Eksperci podkreślają, że współczesne HPC powinno być elastyczne – zdolne zarówno do długich, wielotygodniowych symulacji, jak i krótkich, iteracyjnych zadań typowych dla generatywnej AI. Dzięki architekturze opartej na kontenerach i orchestratorze Kubernetes klaster NASK może przełączać się między tymi trybami niemal w locie, co czyni go unikatową platformą w regionie Europy Środkowo-Wschodniej.
Niezależnie od dalszych inwestycji warszawska instalacja już teraz plasuje Polskę wśród państw dysponujących infrastrukturą zdolną obsłużyć projekty AI na światową skalę. Kluczowe będzie utrzymanie tempa rozwoju oraz włączenie zasobów obliczeniowych w szerszy ekosystem badawczy, aby innowacje tworzone lokalnie mogły konkurować z rozwiązaniami powstającymi w Dolinie Krzemowej czy Szanghaju.