Tilda Publishing
Привет, любопытный друг. Да, это Tilda. Потому что мы хотим быстро внедрять и управлять решением, а не ждать
в очереди разработчика. Контроль, предсказуемость и отказоустойчивость — наша главная идея.
Подберём типовое или произведем на заказ серверное оборудование, предоставим расчёт и поможем интегрировать в систему.

Заполните форму запроса слева или отправьте описание вашей задачи на почту get@work-system.ru

При отправке письма на почту укажите номер телефона вашего специалиста для обсуждения аналогов оборудования в случае необходимости

NVIDIA A100 OEM 80GB HBM2e

NVIDIA A100 80GB — профессиональный ускоритель на архитектуре NVIDIA Ampere, созданный для высокопроизводительных вычислений, обучения нейросетей, глубокого обучения и аналитики данных. Устройство применяется в дата-центрах, исследовательских кластерах и HPC-системах, где требуется максимальная производительность при работе с крупными моделями ИИ и объёмными массивами данных. A100 поддерживает вычисления в форматах FP64, FP32, TF32, BF16, FP16 и INT8, что делает его универсальным решением для широкого спектра задач — от научных расчётов до инференса в продакшене.

Преимущества модели

– Технология Multi-Instance GPU (MIG) позволяет разделить один ускоритель на семь изолированных виртуальных GPU-инстансов для оптимального распределения ресурсов. – Поддержка NVLink обеспечивает межгпуточную связь со скоростью до 600 ГБ/с при объединении двух карт через три NVLink-моста. – Тензорные ядра третьего поколения ускоряют задачи машинного обучения и инференса. – Функция Structural Sparsity удваивает производительность при работе с разрежёнными моделями. – Встроенная система безопасности Root of Trust обеспечивает защищённую загрузку и обновление прошивки.

Комплектация

– Видеоускоритель NVIDIA A100 80GB (OEM-версия, пассивное охлаждение). Конкретное наполнение OEM-поставки уточняйте у продавца — комплектация может не включать дополнительные аксессуары (удлинители, мосты NVLink), характерные для ритейл-версий.

Совместимость и монтаж

Карта выполнена в форм-факторе PCIe Gen4 x16, полноразмерная двухслотовая (FHFL, 267 мм × 111 мм). Требуется серверный корпус с поддержкой карт полной длины и достаточным воздушным потоком для отвода 300 Вт тепла. Совместима с сертифицированными NVIDIA-серверами Dell PowerEdge, HPE ProLiant/Apollo, Lenovo ThinkSystem, Supermicro и других производителей. Для установки необходим один 8-pin CPU-разъём питания.

Память GPU
80 ГБ HBM2e

Ширина шины памяти
5120 бит

Частота памяти
1512 МГц

Пропускная способность памяти
1.94 ТБ/s (максимум 1935 ГБ/s)

Кэш L2
40 МБ (7x больше чем V100)

Совокупный кэш
304 МБ L2 + локальные регистры

Максимальная частота GPU
1410 МГц (максимум буста)

Базовая частота GPU
1065 МГц (минимум)

Поддержка Transformer Engine
Нет (добавлена в H100)

Поддержка спектра структурированной разреженности
2:4 спектр (удваивает эффективную пропускную способность)

Динамическое переключение частоты
Поддерживается

PCIe интерфейс
PCIe Gen 4.0 x16 (64 ГБ/s)

NVLink (2-way)
600 ГБ/s (третьего поколения, между двумя GPU)

NVLink (4-way)
600 ГБ/s (третьего поколения, требует NVLink Bridge)

NVLink Bridge
3 (требуется для полной полосы пропускания)

Поддержка Multi-Instance GPU (MIG)
Да, до 7 независимых экземпляров (10 ГБ на экземпляр)

Шифрование памяти
Поддерживается

Поддержка ECC память
Поддерживается (HBM2e ECC)

Root of Trust
Первичный (в GPU чипе) + опциональный вторичный (CEC1712 чип)

Форм-фактор
PCIe Dual Slot (10.5 дюйма), полная высота, полная длина (FHFL)

Охлаждение
Пассивное (бидиректциональный теплоотвод)

Диапазон рабочей температуры
0°C до 50°C (стандартно), -5°C до 55°C (краткосрочно)

Максимальная рабочая температура GPU
83°C

Максимальная мощность TDP
300 Вт (может быть ограничено программно)

Минимальная мощность
150 Вт

Программируемая мощность
Поддерживается (через nvidia-smi или SMBPBI)

CUDA Compute Capability
8.0

SR-IOV поддержка
Да (20 виртуальных функций)

Unified memory поддержка
Да

GPUDirect Storage
Поддерживается (NVIDIA GPUDirect RDMA)

Поддержка вычислительных фреймворков
PyTorch, TensorFlow, JAX, MXNet, CNTK, Caffe

Платформы вывода
TensorRT 7.2+, ONNX Runtime

API графики
DirectX 12, OpenGL 4.6, Vulkan 1.3

API вычислений
CUDA 11+, DirectCompute, OpenCL 3.0

CUDA версия
CUDA 11.4+ (рекомендуется)

Media Engines (за GPU)
7 NVDEC + 7 NVENC + 7 JPEG (максимум 7 одновременных потоков)

VBIOS EEPROM
8 МБ

UEFI поддержка
Да

BAR0 (физическая функция)
16 МБ

BAR1 (физическая функция)
128 ГБ

BAR3 (физическая функция)
32 МБ

Вес
1170 гр. (без кронштейна и мостиков), + 20.5 гр. на NVLink мостик (×3)

Форма фактора
2 варианта: SXM4 (для DGX/HGX систем) и PCIe Gen4 (для OEM серверов)
Похожие серверы