Привет, любопытный друг. Да, это Tilda. Потому что мы хотим быстро внедрять и управлять решением, а не ждать
в очереди разработчика. Контроль, предсказуемость и отказоустойчивость — наша главная идея.
Заказать обратный звонок
Оставьте номер телефона — мы свяжемся с вами в ближайшее время, ответим на вопросы и подберём оптимальное решение.
Подберём типовое или произведем на заказ серверное оборудование, предоставим расчёт и поможем интегрировать в систему.
Заполните форму запроса слева или отправьте описание вашей задачи на почту get@work-system.ru
При отправке письма на почту укажите номер телефона вашего специалиста для обсуждения аналогов оборудования в случае необходимости
NVIDIA HGX H20 8-GPU
₽
₽
Запросить
GPU-сервер NVIDIA HGX H20 8-GPU — высокопроизводительная платформа, построенная на архитектуре NVIDIA Hopper. Система ориентирована на задачи искусственного интеллекта, включая инференс крупных языковых моделей (LLM), обработку данных в реальном времени, генеративный AI и корпоративные облачные вычисления. Сервер оптимизирован для работы с памятеёмкими нагрузками благодаря высокой пропускной способности памяти HBM3. Платформа подходит для дата-центров, облачных провайдеров и предприятий, внедряющих AI-инфраструктуру масштабного уровня.
Преимущества модели
– Восемь GPU NVIDIA H20 в форм-факторе SXM5, объединённых высокоскоростным интерконнектом NVIDIA NVLink с пропускной способностью до 900 ГБ/с на каждый GPU.
– Каждый GPU оснащён 96 ГБ памяти HBM3 с пропускной способностью 4,0 ТБ/с, что превышает показатели H100 SXM и обеспечивает эффективную работу с крупными моделями.
– Энергоэффективность: TDP составляет 400–500 Вт на GPU, что существенно ниже аналогов и снижает эксплуатационные расходы на охлаждение и электропитание.
– Поддержка технологии Multi-Instance GPU (MIG) для сегментации нагрузок и повышения утилизации ресурсов.
Комплектация
Базовая плата NVIDIA HGX H20 с восемью GPU H20 96 ГБ SXM5. Система поставляется в составе серверных решений OEM-партнёров: Dell PowerEdge XE9680, Supermicro, Lenovo и других. В состав входят: GPU-модули, интерконнект NVSwitch, система охлаждения, а также интерфейсы PCIe Gen5. Конкретная комплектация зависит от производителя серверной платформы.
Совместимость и монтаж
Платформа HGX H20 8-GPU устанавливается в стоечные серверы форм-фактора 6U–8U. Поддерживаются процессоры Intel Xeon Scalable 4-го и 5-го поколения, а также AMD EPYC серий 9004/9005. Сервер оснащается памятью DDR5 и накопителями NVMe. Предусмотрены слоты OCP 3.0 для высокоскоростных сетевых адаптеров. Воздушное охлаждение обеспечивает работу в стандартных условиях дата-центра.
Максимальная частота GPU 2.55 ГГц
Базовая частота памяти 1512 МГц
Ширина шины памяти 5120 бит
Максимальная мощность TDP 400 Вт (за GPU)
NVLink (за GPU) 900 ГБ/с (четвёртое поколение)
Поддержка Transformer Engine Да (FP8 / FP16 смешанная точность)
Поддержка спектра структурированной разреженности 2:4 спектр (удваивает эффективную пропускную способность)
Динамическое переключение частоты Поддерживается
PCIe интерфейс PCIe Gen 5 x16 (128 ГБ/с)
NVSwitch интеграция Требуется для HGX конфигурации (обеспечивает all-to-all GPU коммуникацию)
Media Engine 7x NVDEC (видеодекодер), 7x NVJPEG (JPEG декодер)
Multi-Instance GPU (MIG) До 7 независимых GPU экземпляров на GPU
Максимальное потребление системы ~3.2 кВт (8 × 400 Вт для GPU только)
Форм-фактор 8-way HGX
Физический размер HGX базовой платы Стандартный HGX форм-фактор
Охлаждение Воздушное охлаждение (в конфигурации сервера)
Диапазон рабочей температуры 5°C до 40°C (рекомендуется)
Интегрированный Transformer Engine Да (ускоряет трансформаторные модели через FP8)
Поддержка куантизации FP8, FP16, BF16, TF32, FP32, FP64, INT8
Поддержка потоковой передачи данных Поддерживается через NVLink и PCIe
Поддержка виртуализации KVM, Docker, Kubernetes
Поддержка контейнеризации NVIDIA Container Toolkit
CUDA Compute Capability 9.0
CUDA версия CUDA 11+ (CUDA 12+ рекомендуется)
Операционные системы Ubuntu Linux, Red Hat Enterprise Linux, Rocky Linux
Программное обеспечение NVIDIA NVIDIA DGX OS (если развёрнуто в DGX системе), NVIDIA AI Enterprise