Tilda Publishing
Привет, любопытный друг. Да, это Tilda. Потому что мы хотим быстро внедрять и управлять решением, а не ждать
в очереди разработчика. Контроль, предсказуемость и отказоустойчивость — наша главная идея.
Подберём типовое или произведем на заказ серверное оборудование, предоставим расчёт и поможем интегрировать в систему.

Заполните форму запроса слева или отправьте описание вашей задачи на почту get@work-system.ru

При отправке письма на почту укажите номер телефона вашего специалиста для обсуждения аналогов оборудования в случае необходимости

NVIDIA DGX-2

NVIDIA DGX-2 — высокопроизводительная AI-система для обучения глубоких нейронных сетей и обработки масштабных задач машинного обучения. Сервер предназначен для исследовательских центров, предприятий и HPC-кластеров, работающих с моделями, требующими параллельных вычислений на множестве GPU. DGX-2 поддерживает обучение нейросетей, ранее недоступных для стандартных конфигураций, благодаря возможности распределять модели размером в четыре раза больше, чем на одном узле предыдущих поколений.

Преимущества модели

– Производительность 2 петаФЛОПС позволяет обучать крупные модели глубокого обучения, которые ранее считались непрактичными для единой системы.

– Технология NVSwitch объединяет 16 GPU в единое пространство памяти с пропускной способностью 2,4 ТБ/с (bisection bandwidth), что в 24 раза превышает показатели предшествующих архитектур.

– Поддержка модельного параллелизма: каждый GPU обменивается данными с любым другим GPU на полной скорости NVLink без снижения производительности.

– Сетевые интерфейсы 8×100 Gb/s InfiniBand/Ethernet обеспечивают интеграцию в вычислительные кластеры с высокой полосой пропускания.

Комплектация

– 16 GPU NVIDIA Tesla V100 32 GB (SXM3) с общим объёмом видеопамяти 512 ГБ HBM2.

– Два процессора Intel Xeon Platinum 8168 (24 ядра, 2,7 ГГц).

– 1,5 ТБ системной памяти DDR4.

– Хранилище: 2×960 ГБ NVMe SSD (ОС) и 8×3,84 ТБ NVMe SSD (данные), суммарно до 30 ТБ.

– 12 чипов NVSwitch для полносвязной топологии.

Совместимость и монтаж

Сервер выполнен в корпусе 10U высотой 440 мм и устанавливается в стандартную 19-дюймовую стойку. Масса системы составляет около 163 кг, максимальная потребляемая мощность — 10 кВт. DGX-2 поставляется с предустановленной Ubuntu Linux; также поддерживается Red Hat Enterprise Linux. Контейнерный стек NVIDIA NGC обеспечивает быстрое развёртывание AI-фреймворков.

Ширина шины памяти
4096 бит (HBM2)

Максимальная частота GPU
1530 МГц (максимум)

Максимальная мощность TDP
300 Вт (за GPU)

Совокупное потребление GPU (16 GPU)
4.8 кВт (16 × 300 Вт)

NVLink (за GPU)
300 ГБ/s (второго поколения, между двумя GPU)

Совокупный NVLink (все GPU)
2.4 ТБ/s (максимум, через NVSwitch)

NVLink конфигурация
NVSwitch сеть (полносвязная топология)

NVSwitch
12 (второго поколения) для 16-GPU конфигурации

Пропускная способность NVSwitch bisection
2.4 ТБ/s (24x увеличение vs NVLink 1.0)

Поддержка Multi-Instance GPU (MIG)
Не поддерживается (V100 не поддерживает MIG)

Шифрование памяти
Поддерживается

Поддержка ECC память
Поддерживается (HBM2 ECC)

Тип процессора
Двойной Intel Xeon Platinum 8168 (Skylake)

Ядра CPU (всего)
48 ядер (24 на процессор)

Потоков на ядро
2 потока на ядро

Базовая частота CPU
2.7 ГГц

Максимальная частота CPU
3.7 ГГц (максимум буста)

Памяти системы (стандартно)
1.5 ТБ DDR4 (24 DIMM × 64 ГБ)

Слотов DIMM
24 слота DDR4

Пропускная способность памяти CPU
281.6 ГБ/s (максимум)

PCIe линии
128 PCIe Gen 3 линий (64 на процессор)

Сетевые адаптеры
8x 100 Гб/s InfiniBand/Ethernet портов (Mellanox ConnectX-5 EDR)

Дополнительные Ethernet портов
2x 10/25 Гб/s Ethernet портов (управление и резервная коммуникация)

Общая сетевая пропускная способность
800 Гб/s (8 × 100 Гб/s)

Поддержка RDMA
Встроенная поддержка GPUDirect RDMA

Поддержка MPI
Через NVIDIA NCCL и MPI поверх InfiniBand/Ethernet

Внутреннее хранилище OS
2x 960 ГБ NVMe M.2 SSD (RAID 1)

Внутреннее хранилище данных
8x 3.84 ТБ NVMe U.2 SSD (30.7 ТБ всего, RAID 0 конфигурируется)

Максимальное внутреннее хранилище
30.7 ТБ (с дополнительными 8 слотами для расширения до 60+ ТБ)

Интерфейс хранилища
PCIe Gen 3 NVMe U.2

Поддерживаемые конфигурации RAID
RAID 0, 1, 5, 10

Максимальное потребление системы
10 кВ (стандартная конфигурация) или 12 кВ (DGX-2H с 450W V100 GPU)

Блоки питания
6x горячезаменяемые избыточные PSU (конфигурируется)

Входное напряжение
200-240В AC или 277/480В AC (конфигурируется)

Форм-фактор системы
10U rackmount

Физический размер
Высота: 17.3 дюйма (440 мм), Ширина: 19.0 дюйма (482.3 мм), Глубина: 31.3 дюйма (795.4 мм)

Физический размер (с передней панелью)
Глубина: 32.8 дюйма (834 мм)

Вес системы
340 фунтов (154.2 кг)

Упакованный вес
400 фунтов (181.44 кг)

Охлаждение
Встроённое воздушное охлаждение (10 вентиляторов)

Диапазон рабочей температуры
5°C до 35°C (41°F до 95°F)

Максимальная рабочая температура GPU
83°C

Операционные системы
Ubuntu Linux, Red Hat Enterprise Linux

Базовое программное обеспечение
NVIDIA DGX OS (на базе Ubuntu Linux)

Поддерживаемые фреймворки
PyTorch, TensorFlow, MXNet, Caffe, Theano, CNTK

Платформы вывода
TensorRT 4.0+

Специализированные библиотеки
RAPIDS (доступна позднее), CUDA-X, cuDNN, cuBLAS, NCCL

Утилиты для управления
NVIDIA-SMI, NVIDIA DGX Management Console

GPU Driver
NVIDIA Driver 396.26+

CUDA версия
CUDA 9.2+ (рекомендуется)

Поддержка виртуализации
Docker, Kubernetes (ограниченная поддержка)

Поддержка контейнеризации
NVIDIA Container Runtime for Docker

Unified memory поддержка
Да (40 МБ L2 кэш на GPU)

Совокупная производительность
2 ПФЛОПС (смешанная точность / Tensor Core FP16)

Совокупная производительность FP16
520 ПФЛОПС (с разреженностью: 1040 ПФЛОПС)

Совокупная пропускная способность памяти GPU
14.4 ТБ/s (16 × 900 ГБ/s)

Совокупная производительность NVLink
2.4 ТБ/s (через NVSwitch)

Производительность обучения vs DGX-1
10x выше (10x ускорение на ResNet-50 обучение)

Производительность обучения vs GPU сервер x86
~100x выше (vs 300x Intel Xeon серверов)

Масштабируемость
До 64 систем в DGX SuperPOD (64 × 16 = 1024 GPU)
Похожие серверы