Przegląd
Rewolucyjna wydajność oparta na ewolucyjnych innowacjach
NVIDIA DGX™ B200 to zintegrowana platforma AI do tworzenia i wdrażania procesów dla firm każdej wielkości na dowolnym etapie ich AI-owej drogi. Wyposażona w osiem GPU NVIDIA Blackwell, połączonych za pomocą piątej generacji NVIDIA® NVLink™, NVIDIA DGX B200 zapewnia 3-krotnie wyższą wydajność treningu i 15-krotnie większą wydajność inferencji w porównaniu do poprzednich systemów. Wykorzystując architekturę NVIDIA Blackwell, DGX B200 poradzi sobie z różnorodnymi obciążeniami — od dużych modeli językowych, systemów rekomendacji po chatboty — co czyni ją idealną dla firm, które chcą przyspieszyć swoją transformację AI.
Korzyści
Zjednoczona fabryka AI
Jedna platforma do tworzenia i wdrażania procesów
Firmy potrzebują ogromnej mocy obliczeniowej, aby obsługiwać złożone zestawy danych AI na każdym etapie procesu — od treningu, przez dopracowanie, aż po inferencję. Dzięki NVIDIA DGX B200 firmy mogą wyposażyć swoich programistów w jedną platformę, zaprojektowaną do przyspieszenia ich przepływów pracy.
Potężne możliwości wydajności AI
Opierając się na postępach architektury NVIDIA Blackwell w dziedzinie obliczeń, DGX B200 zapewnia 3-krotnie wyższą wydajność treningu i 15-krotnie większą wydajność inferencji w porównaniu do DGX H100. Jako fundament platform NVIDIA DGX BasePOD™ i NVIDIA DGX SuperPOD™, DGX B200 oferuje wiodącą wydajność dla każdego obciążenia.
Ugruntowany standard infrastruktury
NVIDIA DGX B200 to w pełni zoptymalizowana platforma sprzętowa i
programowa, obejmująca pełny stos oprogramowania NVIDIA AI, w tym NVIDIA
Base Command i NVIDIA AI Enterprise, bogaty ekosystem wsparcia od firm
trzecich oraz dostęp do ekspertów z NVIDIA Professional Services.
Wydajność
Wydajność nowej generacji napędzana przez NVIDIA DGX B200
Inferencja dużych modeli językowych w czasie rzeczywistym
Przewidywana wydajność może ulec zmianie. Opóźnienie token-do-tokenu (TTL) = 50 ms w czasie rzeczywistym, opóźnienie pierwszego tokena (FTL) = 5 s, długość wejściowej sekwencji = 32 768, długość wyjściowej sekwencji = 1 028. Porównanie wydajności na GPU: 8-krotne NVIDIA DGX H100 z systemem chłodzenia powietrzem vs. 1x NVIDIA DGX B200 z systemem chłodzenia powietrzem.
Zaawansowana wydajność treningu AI
Przewidywana wydajność może ulec zmianie. Skala 32 768 GPU, klaster złożony z 4 096 węzłów NVIDIA DGX H100 z chłodzeniem powietrznym: sieć IB 400G. Klaster złożony z 4 096 węzłów NVIDIA DGX B200 z chłodzeniem powietrznym: sieć IB 400G.
NVIDIA DGX B200
GPU | 8x GPU NVIDIA Blackwell |
Pamięć GPU | 1 440 GB łącznej pamięci GPU |
Wydajność | 72 petaFLOPS treningu i 144 petaFLOPS inferencji |
Zużycie energii | ~14,3 kW maksymalnie |
CPU | 2 procesory Intel® Xeon® Platinum 8570 |
Pamięć systemowa | Do 4 TB |
Sieciowe | 4x port OSFP obsługujące 8x pojedynczych portów NVIDIA ConnectX-7 VPI, 400 Gb/s NVIDIA InfiniBand/Ethernet 2x dual-port QSFP112 NVIDIA BlueField-3 DPU, do 400 Gb/s InfiniBand/Ethernet |
Sieć zarządzania | 10 Gb/s wbudowany NIC z RJ45 100 Gb/s dual-port Ethernet NIC Kontroler zarządzania hostem (BMC) z RJ45 |
Pamięć masowa | System operacyjny: 2x NVMe M.2 1,9 TB Pamięć wewnętrzna: 8x NVMe U.2 3,84 TB |
Oprogramowanie | NVIDIA AI Enterprise: zoptymalizowane oprogramowanie AI NVIDIA Base Command™: orkestracja, harmonogramowanie i zarządzanie klastrem NVIDIA DGX OS / Ubuntu: system operacyjny |
Ilość jednostek rack | 10 RU |
Wymiary systemu | Wysokość: 17,5 cala (444 mm) Szerokość: 19,0 cala (482,2 mm) Długość: 35,3 cala (897,1 mm) |
Temperatura pracy | 5–30°C (41–86°F) |
Wsparcie przedsiębiorstwa | Trzyletnie wsparcie enterprise Business-Standard dla sprzętu i oprogramowania 24/7 dostęp do portalu wsparcia enterprise Wsparcie na żywo podczas lokalnych godzin pracy |
Zasoby
Dostarczamy fabryki AI dla każdego przedsiębiorstwa




Gotowy, aby zacząć?
Porozmawiaj z ekspertem produktowym NVIDIA, aby dowiedzieć się więcej o systemach NVIDIA DGX.