Summit – Najpotężniejszy z Superkomputerów

Poszukując informacji odnoszących się do wypowiedzi pełnomocnika ministra cyfryzacji, Roberta Kroplewskiego, z otwarcia konferencji Data Science Summit 2018, nie znalazłem żadnych materiałów potwierdzających nowe inwestycje HPC na terenie naszego kraju. Jednak poszukiwania nie były bezowocne, ponieważ natrafiłem na inną ciekawą wiadomość.

Zmiana układu sił

8 czerwca, 2018 roku w ośrodku naukowym Oak Ridge National Laboratory został oddany do użytku najszybszy superkomputer na świecie. Summit osiąga teoretyczną moc obliczeniową na poziomie 200 PFLOPS. Oznacza to, że jest około ośmiokrotnie szybszy od swojego poprzednika Tytana, również należącego do Oak Ridge National Laboratory (ORNL) oraz ponad dwukrotnie szybszy od Sunway TaihuLight, Chińskiego superkomputera, będącego do tej chwili na pierwszym miejscu.

Pozostaje poczekać na publikację czerwcowej edycji listy TOP500 na której Summit zapewne zajmie pierwszą pozycję. Stany Zjednoczone odzyskują prowadzenie w wyścigu na potencjał obliczeniowy, które utraciły w 2013 roku właśnie na rzecz Chin. Czemu jest to istotne? Krótka odpowiedź brzmi: jest to kwestia szybkości rozwoju badań naukowych, konkurencyjności ekonomicznej oraz bezpieczeństwa narodowego.

Obliczeniowy Potwór

Summit jest to konstrukcja ważąca 340 ton, zajmująca powierzchnię dwóch kortów tenisowych, chłodzona przez strumień ponad 15 tyś. litrów wody na minutę. Wyposażony w 9216 procesorów klasy IBM POWER9 po 22 rdzenie każdy oraz 27648 procesorów graficznych NVIDIA Volta, podzielonych na 4608 klastrów. Każdy klaster posiada 512GB pamięci RAM typu DDR4 oraz 96GB HBM2. Dodatkowo układy graficzne mają do dyspozycji 1600GB VRAM per klaster. W sumie daje to wartość ponad 10 PB pamięci operacyjnej dla systemu. Do przechowywania danych dostępne jest 250PB przestrzeni dyskowej o prędkości przesyłu danych sięgającej 2.5TB/s. Wszystkie te podzespoły są połączone za sprawą 300 km światłowodów. Urządzeniem zużywającym 13 MW energii, zarządza system operacyjny Red Hat Enterprise Linux v. 7.4.

Jak zrobić z tego użytek?

Oddanie urządzenia o takich możliwościach obliczeniowych otwiera drzwi do prowadzenia badań, obliczeń oraz realizacji symulacji zjawisk na nową skalę. Pozwoli na eksperymenty wcześniej niepraktyczne lub nawet niemożliwie. Pozwoli zrealizować wcześniej wykonane już badania, tym razem z większą dokładnością, symulowaniem wyższej ilości obiektów biorących udział w badanym zjawisku. Możliwe będzie również symulowanie zjawisk w dalszej perspektywie czasowej.

Uproszczony przykład: prognozowanie pogody – nie będzie możliwa prognoza na kolejny dzień, gdy obliczenia modeli pogodowych będą trwały ponad 24 godziny. Większe moce obliczeniowe pozwolą by model pogodowy był bardziej złożony, uwzględnił więcej czynników, a pomimo to, obliczenia wykonały się w ograniczonym wymaganiami czasie. Uzyskana prognoza będzie przez to dokładniejsza i uzyska wyższy stopień sprawdzalności.

Problemy rozwiązywane za pomocą Summit

Z not prasowych udostępnionych przez ORNL możemy dowiedzieć się, że w oczekiwaniu na oddanie Summit do użytku, pracownicy naukowi przygotowywali i udoskonalali swoje aplikacje z myślą o nowej architekturze. Wiele z nich było gotowych, by od pierwszego dnia wykorzystać nowe możliwości. Spośród projektów czekających na to, by rozpocząć dokładniejsze obliczenia warto wymienić następujące:

W przestrzeni kosmicznej

Badania z dziedziny astrofizyki – Oprogramowanie FLASH jest wysoko-skalowalnym, wielopoziomowym modelem procesów zachodzących w trakcie wybuchów supernowych. Modelowana jest fizyka od zjawisk w skali atomowej określających interakcje cząsteczek, aż do dużej skali procesów hydrodynamicznych towarzyszących ostatnim chwilom gwiazd.

Badacze przewidują, że teraz będzie możliwe symulowanie scenariuszy supernowych o horyzoncie obliczeń tysiące razy dalszym. Zdaniem astrofizyka Bronsona Messera, obliczenia na Summit znacząco poprawią jakość symulacji na poziomie molekularnym, ze względu na zwiększenie ilości symulowanych elementów w procesie spalania z około 13 do nawet 160:

It’s at least a hundred times more computation than we’ve been able to do on earlier machines (…) The sheer size of Summit will allow us to make very high-resolution models.

Niespotykane właściwości

Nowe materiały – Wytwarzanie materiałów nowej generacji, na przykład do przechowywania, konwersji lub produkcji energii wymaga zrozumienia zachowania subatomowych cząsteczek składających się na ten materiał. Do tego zadania pracownicy ORNL używając aplikacji QMCPACK rozwiązującej problem Monte Carlo dla cząsteczek na poziomie kwantowym.

Do tej pory możliwe było symulowanie dziesiątek atomów ze względu na ograniczone możliwości obliczeniowe. Teraz Paul Kent przewiduje możliwość symulacji materiałów składających się z setek atomów, co znacząco przyśpieszy badania nad super-przewodnikami, za pomocą których będzie możliwe bezstratne przesyłanie energii.

Dokładniejsze dane na wagę życia

Wykrywanie nowotworów – Jednym z kluczowych narzędzi w walce z rakiem jest stworzenie oprogramowania, które będzie mogło automatycznie gromadzić, analizować i sortować istniejące dane nt. zdrowia oraz wykrywać wcześniej nie zauważone relacje pomiędzy czynnikami tj. geny, wskaźniki biologiczne oraz środowiskowe.

W połączeniu z papierową dokumentacją medyczną, zdjęciami i raportami, algorytmy uczenia maszynowego obliczone na Summit wspomogą naukowców w szerszym spojrzeniu na zachorowalność w społeczeństwie. Udostępnią poziom szczegółowości danych porównywalny z osiąganym poprzez obserwację chorych w warunkach klinicznych.

Zastosowanie różnego typu algorytmów AI oraz danych biomedycznych przyspieszy zrozumienie ludzkiego ciała oraz mechanizmów powstawania schorzeń i chorób. Wykorzystanie w tym celu Summit pozwoli na identyfikację wzorców w funkcjach łączenia, współpracy i ewolucji białek oraz systemów komórkowych w ciele człowieka. Te wzorce pozwolą na zwiększenie ilości medycznych markerów używanych do wykrywania chorób mózgu tj. Alzheimer, chorób serca czy wczesnego wykrywania uzależnień. Biolog Dan Jacobson tak wypowiedział się na temat superkomputera:

The complexity of humans as a biological system is incredible (…) Summit is enabling a whole new range of science that was simply not possible before it arrived.

Czysta energia

Inny zespół z ORNL pracuje z wykorzystaniem aplikacji XGC, która umożliwia symulację zjawisk fizycznych zachodzących w reaktorze fuzji. Zrozumienie zachowania plazmy i fundamentalnych praw rządzących tym zjawiskiem jest krytycznym elementem dla eksperymentów tj. ITER, które mogą pomóc w spełnieniu globalnych wymagań energetycznych z pomocą wody morskiej zasilającej generatory fuzyjne bez wpływu na efekt cieplarniany i produkcję odpadów o długim okresie rozpadu.

Moc obliczeniowa Summit pozwoli przewidzieć z większą dokładnością wyniki scenariuszy praktycznych eksperymentów za sprawą lepszego odwzorowania zachowania cząsteczek znajdujących się w części plazmy zwanej krawędzią mającą bezpośredni kontakt z wewnętrzną częścią tokamaka. Obliczenia ze względu na ekstremalną skalę złożoności wymagają ogromnych mocy obliczeniowych – parafrazując wypowiedź doktora Choong-Seock Chang, dyrektora Center for Edge Physics Simulation (EPSI).

Wyższa sprawność silników

Za sprawą oprogramowania RAPTOR, naukowcy ORNL  mogą symulować przepływy turbulentne w systemach napędowych oraz energetycznych. Z pomocą nowego superkomputera, RAPTOR będzie w stanie rozwiązywać problemy, które wcześniej nie były możliwe do symulowania. Ponadto, wcześniej opracowane programy będą wykonywać się o wiele szybciej.

Pozwoli to na przetestowanie o wiele większego zakresu parametrów oraz warunków. Zwiększy ilości informacji, poprawi jakość rozwiązań i przyspieszy opracowanie lepszych, sprawniejszych systemów napędowych tj. silniki spalinowe czy turbiny odrzutowe.

Wyścig do mocy obliczeniowej ludzkiego mózgu

Pomimo mocy obliczeniowej na poziomie 200 PFLOPS, uczonym z ośrodka ORNL udało się przekroczyć poziom 1 EFLOPS’a. W trakcie odpowiednio przygotowanego eksperymentu osiągnięto szczytową prędkość obliczeń na poziomie 1.88 EFLOPS i tym samym przełamano barierę exaskali. Ten wyjątkowy wynik osiągnął algorytm CoMet służący do rozwiązywania problematyki porównywania genomów.

Udało się to uzyskać za sprawą obliczeń realizowanych w różnych skalach dokładności. Oznacza to, że obliczenia były realizowane w pojedynczej, a nawet w połowicznej dokładności. Zazwyczaj eksperymenty naukowe obliczane są w podwójnej dokładności, jednak przełom w AI, który nastąpił w ostatnich latach umożliwił redukcję wymaganej dokładności obliczeń. Co ważne – uzyskane wyniki na Summit są identyczne z uzyskanymi na superkomputerze Tytan i przeprowadzonych tylko przy użyciu długotrwałych obliczeń w pełnej dokładności.

Tak wysoki wynik jest również zasługą sprytnego wykorzystania architektury kart NVIDIA Volta i jej wyjątkowych możliwości mnożenia macierzy za sprawą technologii Tensor Core. Wszystkie te zabiegi sprawiły, że problem, którego rozwiązanie na domowym komputerze trwałoby 30 lat, zostało rozwiązane w ciągu godziny.

To wszystko jest ważne z jednego powodu. Teoretyczna moc obliczeniowa ludzkiego mózgu oceniana jest na około 1 EFLOPS. W przypadku istnienia komputera, który będzie dysponował taką mocą, będzie można zbudować i symulować wirtualny ludzki mózg. Otworzy to drogę do zupełnie nowego wymiaru badań nad umysłem i będzie pierwszym krokiem do przeniesienia świadomości człowieka do komputera. Na początku 2015 roku, inżynierowie z Human Brain Project zbudowali i symulowali pracę mózgu szczura. W późniejszym etapie projektu dodali do symulacji wirtualne ciało. Można znaleźć filmy z tych eksperymentów na portalu YouTube.

exponential growth in computing power

 

Gdzie jest Polska?

W czasie powstawania tego artykułu, na terenie naszego kraju znajduje się pięć superkomputerów, które zostały odnotowane na liście TOP500. Prometheus, najpotężniejszy z pośród polskich superkomputerów znajduje się na terenie AGH w Krakowie. Jego moc jest oceniana na 1,67 PFLOPS, co daje mu 77 miejsce na świecie.

Kolejny na liście jest Orzeł w poznańskim PCSS. Oddana w 2016 roku maszyna jest wykorzystywana do rozwiązywania problemów z obszaru chemii obliczeniowej, fizyki wysokich energii (CERN), bioinformatyki, wyznaczania sekwencji genomów, czy symulacji zanieczyszczeń środowiska. Moc 1 PFLOPS zapewnia jej 172 miejsce w rankingu.

Bardzo zbliżoną mocą dysponuje Tryton w Gdańsku. Wykorzystywany jest w badaniach z dziedziny energetyki, medycyny i ochrony środowiska. Przeprowadzane są na nim symulacje związane z wdrożeniami nowych leków. Zajmuje 176 lokatę w TOP500.

Na miejscu 223 znajduje się OKEANOS, którego znaleźć można w centrum technologii ICM na warszawskiej Białołęce. Jego moc to około 0,9 PFLOPS. Projekty zrealizowane na systemie Okeanos obejmowały takie dziedziny jak m.in. biologia molekularna, biomechanika, kosmologia, meteorologia czy sejsmologia.

Ostatnim polskim superkomputerem obecnym na aktualnej liście TOP500 jest BEM z Wrocławskiego Centrum Sieciowo-Komputerowego o mocy prawie 0,7 PFLOPS. Zajmuje 384 pozycję. Jest to urządzenie na którym pracują takie systemy jak Prognocean Plus, EvapProg, czy Complex Networks. Jest wykorzystywany do prognozowania zmian globalnego poziomu wód, czy analizowania portali społecznościowych do zastosowań przetwarzania języka naturalnego.

Możliwe, że w najbliższym czasie zostaną podane informacje na temat nowych inwestycji HPC w Polsce i pozycja naszego kraju w wyścigu superkomputerów ulegnie znacznej poprawie.

Poniższa infogafika od Intela przedstawia stan na rok 2015:
infografika Intel - superkomputery w polsce

Dodaj komentarz