Tilda Publishing
Привет, любопытный друг. Да, это Tilda. Потому что мы хотим быстро внедрять и управлять решением, а не ждать
в очереди разработчика. Контроль, предсказуемость и отказоустойчивость — наша главная идея.
Подберём типовое или произведем на заказ серверное оборудование, предоставим расчёт и поможем интегрировать в систему.

Заполните форму запроса слева или отправьте описание вашей задачи на почту get@work-system.ru

При отправке письма на почту укажите номер телефона вашего специалиста для обсуждения аналогов оборудования в случае необходимости

NVIDIA HGX H20 8-GPU

GPU-сервер NVIDIA HGX H20 8-GPU — высокопроизводительная платформа, построенная на архитектуре NVIDIA Hopper. Система ориентирована на задачи искусственного интеллекта, включая инференс крупных языковых моделей (LLM), обработку данных в реальном времени, генеративный AI и корпоративные облачные вычисления. Сервер оптимизирован для работы с памятеёмкими нагрузками благодаря высокой пропускной способности памяти HBM3. Платформа подходит для дата-центров, облачных провайдеров и предприятий, внедряющих AI-инфраструктуру масштабного уровня.

Преимущества модели

– Восемь GPU NVIDIA H20 в форм-факторе SXM5, объединённых высокоскоростным интерконнектом NVIDIA NVLink с пропускной способностью до 900 ГБ/с на каждый GPU.

– Каждый GPU оснащён 96 ГБ памяти HBM3 с пропускной способностью 4,0 ТБ/с, что превышает показатели H100 SXM и обеспечивает эффективную работу с крупными моделями.

– Энергоэффективность: TDP составляет 400–500 Вт на GPU, что существенно ниже аналогов и снижает эксплуатационные расходы на охлаждение и электропитание.

– Поддержка технологии Multi-Instance GPU (MIG) для сегментации нагрузок и повышения утилизации ресурсов.

Комплектация

Базовая плата NVIDIA HGX H20 с восемью GPU H20 96 ГБ SXM5. Система поставляется в составе серверных решений OEM-партнёров: Dell PowerEdge XE9680, Supermicro, Lenovo и других. В состав входят: GPU-модули, интерконнект NVSwitch, система охлаждения, а также интерфейсы PCIe Gen5. Конкретная комплектация зависит от производителя серверной платформы.

Совместимость и монтаж

Платформа HGX H20 8-GPU устанавливается в стоечные серверы форм-фактора 6U–8U. Поддерживаются процессоры Intel Xeon Scalable 4-го и 5-го поколения, а также AMD EPYC серий 9004/9005. Сервер оснащается памятью DDR5 и накопителями NVMe. Предусмотрены слоты OCP 3.0 для высокоскоростных сетевых адаптеров. Воздушное охлаждение обеспечивает работу в стандартных условиях дата-центра.

Максимальная частота GPU
2.55 ГГц

Базовая частота памяти
1512 МГц

Ширина шины памяти
5120 бит

Максимальная мощность TDP
400 Вт (за GPU)

NVLink (за GPU)
900 ГБ/с (четвёртое поколение)

Поддержка Transformer Engine
Да (FP8 / FP16 смешанная точность)

Поддержка спектра структурированной разреженности
2:4 спектр (удваивает эффективную пропускную способность)

Динамическое переключение частоты
Поддерживается

PCIe интерфейс
PCIe Gen 5 x16 (128 ГБ/с)

NVSwitch интеграция
Требуется для HGX конфигурации (обеспечивает all-to-all GPU коммуникацию)

Media Engine
7x NVDEC (видеодекодер), 7x NVJPEG (JPEG декодер)

Multi-Instance GPU (MIG)
До 7 независимых GPU экземпляров на GPU

Максимальное потребление системы
~3.2 кВт (8 × 400 Вт для GPU только)

Форм-фактор
8-way HGX

Физический размер HGX базовой платы
Стандартный HGX форм-фактор

Охлаждение
Воздушное охлаждение (в конфигурации сервера)

Диапазон рабочей температуры
5°C до 40°C (рекомендуется)

Интегрированный Transformer Engine
Да (ускоряет трансформаторные модели через FP8)

Поддержка куантизации
FP8, FP16, BF16, TF32, FP32, FP64, INT8

Поддержка потоковой передачи данных
Поддерживается через NVLink и PCIe

Поддержка виртуализации
KVM, Docker, Kubernetes

Поддержка контейнеризации
NVIDIA Container Toolkit

CUDA Compute Capability
9.0

CUDA версия
CUDA 11+ (CUDA 12+ рекомендуется)

Операционные системы
Ubuntu Linux, Red Hat Enterprise Linux, Rocky Linux

Программное обеспечение NVIDIA
NVIDIA DGX OS (если развёрнуто в DGX системе), NVIDIA AI Enterprise

Поддерживаемые фреймворки
PyTorch, TensorFlow, JAX, MXNet

Платформы вывода
TensorRT 8+, ONNX Runtime

Специализированные библиотеки
RAPIDS (GPU-ускоренная аналитика), CUDA-X

Утилиты для управления
NVIDIA-SMI, DCGM (Data Center GPU Manager)
Похожие серверы