Привет, любопытный друг. Да, это Tilda. Потому что мы хотим быстро внедрять и управлять решением, а не ждать
в очереди разработчика. Контроль, предсказуемость и отказоустойчивость — наша главная идея.
Заказать обратный звонок
Оставьте номер телефона — мы свяжемся с вами в ближайшее время, ответим на вопросы и подберём оптимальное решение.
Подберём типовое или произведем на заказ серверное оборудование, предоставим расчёт и поможем интегрировать в систему.
Заполните форму запроса слева или отправьте описание вашей задачи на почту get@work-system.ru
При отправке письма на почту укажите номер телефона вашего специалиста для обсуждения аналогов оборудования в случае необходимости
NVIDIA DGX GB200 NVL72
₽
₽
Запросить
NVIDIA DGX GB200 NVL72 — стоечное решение экзафлопсного класса для обучения и инференса триллион-параметрических AI-моделей. Система предназначена для задач генеративного ИИ, крупномасштабного машинного обучения, высокопроизводительных вычислений (HPC) и обработки больших данных. Платформа обеспечивает 30-кратное ускорение инференса LLM в режиме реального времени и 4-кратное ускорение обучения по сравнению с предыдущим поколением NVIDIA H100.
Преимущества модели
– Единый 72-GPU NVLink-домен: 72 ускорителя работают как единый вычислительный узел благодаря NVLink пятого поколения с совокупной пропускной способностью 130 ТБ/с.
– Высокая энергоэффективность: жидкостное охлаждение снижает энергопотребление и позволяет получить до 25-кратного прироста производительности на ватт относительно систем H100 с воздушным охлаждением.
– Поддержка современных форматов точности: Tensor Core второго поколения обеспечивают работу с FP4, FP8/FP6 и BF16, что оптимально для инференса и обучения LLM.
– Интегрированная сетевая инфраструктура: поддержка NVIDIA InfiniBand 400 Gb/s и Ethernet через ConnectX-7 и BlueField-3 DPU.
Комплектация
– 18 вычислительных модулей (compute tray) формата 1U, каждый с 2 процессорами Grace и 4 GPU Blackwell.
– 9 модулей NVLink Switch по 2 коммутатора NVLink в каждом.
– 8 полок питания с шиной bus bar и резервированием N+N.
– 2 ToR-коммутатора для управления.
– Жидкостные коллекторы и распределительные манифолды для охлаждения GPU и CPU.
– Накопители E1.S NVMe (4 × 3,84 ТБ на модуль) и M.2 NVMe для загрузки ОС.
Совместимость и монтаж
Система занимает стандартную 48U-стойку и требует инфраструктуры с поддержкой жидкостного охлаждения и мощностью до 120 кВт на стойку. Подключение питания осуществляется через силовые шины (bus bar). Вычислительные и сетевые компоненты подключаются по принципу blind-mate: NVLink-соединения, питание и жидкостные магистрали автоматически стыкуются при установке модуля в стойку. Платформа масштабируется в DGX SuperPOD для построения AI-фабрик корпоративного уровня.
Пропускная способность памяти GPU (всего) 576 ТБ/s (72 GPU × 8 ТБ/s)