Привет, любопытный друг. Да, это Tilda. Потому что мы хотим быстро внедрять и управлять решением, а не ждать
в очереди разработчика. Контроль, предсказуемость и отказоустойчивость — наша главная идея.
Заказать обратный звонок
Оставьте номер телефона — мы свяжемся с вами в ближайшее время, ответим на вопросы и подберём оптимальное решение.
Подберём типовое или произведем на заказ серверное оборудование, предоставим расчёт и поможем интегрировать в систему.
Заполните форму запроса слева или отправьте описание вашей задачи на почту get@work-system.ru
При отправке письма на почту укажите номер телефона вашего специалиста для обсуждения аналогов оборудования в случае необходимости
NVIDIA HGX A100 8-GPU
₽
₽
Запросить
NVIDIA HGX A100 8-GPU — серверная платформа для ресурсоёмких задач искусственного интеллекта, глубокого обучения и высокопроизводительных вычислений. Система предназначена для обучения крупномасштабных нейросетей, инференса, научных симуляций и анализа больших данных. Платформа обеспечивает до 5 петафлопс производительности FP16, позволяя сократить время обучения моделей с недель до часов. Применяется в дата-центрах, исследовательских институтах и облачных инфраструктурах для решения задач, требующих максимальной вычислительной мощности.
Преимущества модели
– Технология NVLink третьего поколения обеспечивает скорость межпроцессорного обмена 600 ГБ/с между любыми двумя GPU, что в 10 раз превышает пропускную способность PCIe Gen4.
– Шесть узлов NVSwitch второго поколения создают полносвязную топологию, позволяя всем восьми GPU работать как единый вычислительный узел.
– Технология Multi-Instance GPU (MIG) позволяет разделить каждый A100 на семь изолированных экземпляров, обеспечивая до 56 виртуальных ускорителей на платформу.
– Тензорные ядра третьего поколения обеспечивают до 20-кратного ускорения операций ИИ по сравнению с предыдущим поколением.
Комплектация
– Базовая плата HGX A100 с восемью GPU NVIDIA A100 SXM4 (доступны версии 40 ГБ или 80 ГБ HBM2e на GPU).
– Шесть микросхем NVSwitch для полносвязного межсоединения.
– Интерфейсы NVLink для подключения к хост-системе.
Совместимость и монтаж
Платформа HGX A100 8-GPU интегрируется в серверы форм-фактора 4U от сертифицированных партнёров NVIDIA: Supermicro, Inspur, Dell, ASUS, Gigabyte. Поддерживаются двухпроцессорные конфигурации на базе AMD EPYC (Rome/Milan) или Intel Xeon. Рекомендуется использование минимум четырёх линий PCIe x16 Gen4 для связи CPU с GPU. Для масштабирования кластеров поддерживаются сетевые адаптеры NVIDIA ConnectX-6 с пропускной способностью до 200 Гбит/с.
Кэш L2 40 МБ
Максимальная частота GPU 1410 МГц
Ширина шины памяти 5120 бит (HBM2e)
Максимальная мощность TDP 400 Вт (за GPU, стандартное конфигурирование)