Tilda Publishing
Привет, любопытный друг. Да, это Tilda. Потому что мы хотим быстро внедрять и управлять решением, а не ждать
в очереди разработчика. Контроль, предсказуемость и отказоустойчивость — наша главная идея.
Подберём типовое или произведем на заказ серверное оборудование, предоставим расчёт и поможем интегрировать в систему.

Заполните форму запроса слева или отправьте описание вашей задачи на почту get@work-system.ru

При отправке письма на почту укажите номер телефона вашего специалиста для обсуждения аналогов оборудования в случае необходимости

NVIDIA A100 PCIe 80GB HBM2e

NVIDIA A100 PCIe 80GB — высокопроизводительный вычислительный ускоритель на базе архитектуры Ampere, предназначенный для задач искусственного интеллекта, глубокого обучения, аналитики больших данных и высокопроизводительных вычислений (HPC). Ускоритель обеспечивает до 20-кратного прироста производительности по сравнению с предыдущим поколением NVIDIA Volta. Поддержка различных форматов точности вычислений (FP64, FP32, FP16, TF32, INT8) позволяет использовать единый ускоритель для широкого спектра рабочих нагрузок — от обучения нейросетей до инференса и научных расчётов.

Преимущества модели

– Технология Multi-Instance GPU (MIG) позволяет разделить один ускоритель на семь изолированных экземпляров по 10 ГБ памяти каждый, оптимизируя распределение ресурсов в многопользовательской среде.

– Поддержка NVLink Bridge обеспечивает межкарточную связь двух A100 PCIe со скоростью до 600 ГБ/с — в 10 раз быстрее PCIe Gen4.

– Тензорные ядра третьего поколения ускоряют операции машинного обучения и поддерживают структурную разрежённость для дополнительного двукратного прироста производительности.

– Пропускная способность памяти до 1,94 ТБ/с обеспечивает быструю работу с крупномасштабными моделями и наборами данных.

Комплектация

– Видеоускоритель NVIDIA A100 PCIe 80GB с пассивным охлаждением.

– Три NVLink-моста для соединения пары ускорителей (поставляются опционально).

– Удлинители крепления (straight или long offset) для различных серверных шасси.

– Адаптер питания CPU 8-pin / PCIe 8-pin.

Совместимость и монтаж

Ускоритель выполнен в форм-факторе Full-Height Full-Length (FHFL) с двухслотовым занятием пространства, длина платы 267 мм (10,5 дюйма). Подключение осуществляется через интерфейс PCIe 4.0 x16. Для работы требуется один 8-контактный разъём питания CPU EPS. Пассивный радиатор с двунаправленным воздушным потоком позволяет устанавливать карту в серверы с различной компоновкой охлаждения. Поддерживаются NVIDIA-Certified Systems с конфигурациями от 1 до 8 GPU, а также ОС Linux (драйвер R470.12+), Windows Server 2016/2019/2022 и платформы виртуализации VMware с NVIDIA AI Enterprise.

Память GPU
80 ГБ HBM2e

Ширина шины памяти
5120 бит

Частота памяти
1512 МГц

Пропускная способность памяти
1.94 ТБ/s (максимум 1935 ГБ/s)

Кэш L2
40 МБ (7x больше чем V100)

Совокупный кэш
304 МБ L2 + локальные регистры

Максимальная частота GPU
1410 МГц (максимум буста)

Базовая частота GPU
1065 МГц (минимум)

Поддержка Transformer Engine
Нет (добавлена в H100)

Поддержка спектра структурированной разреженности
2:4 спектр (удваивает эффективную пропускную способность)

Динамическое переключение частоты
Поддерживается

PCIe интерфейс
PCIe Gen 4.0 x16 (64 ГБ/s двусторонний)

NVLink (2-way)
600 ГБ/s (третьего поколения, требует NVLink Bridge)

NVLink мостов требуется
3 (каждый мост соединяет 2 PCIe слота)

Совокупная пропускная способность NVLink
600 ГБ/s (между двумя GPU)

Поддержка Multi-Instance GPU (MIG)
Да, до 7 независимых экземпляров (10-11.5 ГБ на экземпляр)

Форм-фактор
PCIe Dual Slot (10.5 дюйма), полная высота, полная длина (FHFL)

Охлаждение
Пассивное (бидиректциональный теплоотвод)

Диапазон рабочей температуры
0°C до 50°C (нормально), -5°C до 55°C (краткосрочно)

Максимальная рабочая температура GPU
83°C

Максимальная мощность TDP
300 Вт (по умолчанию, конфигурируется программно)

Минимальная мощность
150 Вт

Программируемая мощность
Поддерживается (через nvidia-smi или SMBPBI)

CUDA Compute Capability
8.0

SR-IOV поддержка
Да (20 виртуальных функций)

Unified memory поддержка
Да

GPUDirect Storage
Поддерживается (NVIDIA GPUDirect RDMA)

BAR адреса (физическая функция)
BAR0: 16 МиБ, BAR1: 128 ГиБ, BAR3: 32 МиБ

BAR адреса (виртуальная функция)
BAR0: 256 КиБ/VF, BAR1: 4 ГиБ/VF, BAR3: 32 МиБ/VF

Message Signaled Interrupts
MSI-X: Да, MSI: Нет

ARI Forwarding
Поддерживается

Power connectors
1x CPU 8-pin (поддерживает также CPU 8-pin to PCIe 8-pin адаптер)

Вес (без скобок)
1170 г

Вес (с NVLink мостами)
20.5 г на мост (×3)

Вес (скобка)
20 г

Вес (удлинители)
48 г (длинный) + 32 г (прямой)

Поддержка вычислительных фреймворков
PyTorch, TensorFlow, JAX, MXNet, CNTK, Caffe

Платформы вывода
TensorRT 7.2+, ONNX Runtime

API графики
DirectX 12, OpenGL 4.6, Vulkan 1.3

API вычислений
CUDA 11+, DirectCompute, OpenCL 3.0

CUDA версия
CUDA 11.4+ (рекомендуется)

Операционные системы
Windows 7/8/8.1/10, Windows Server 2008 R2/2012 R2/2016, Linux
Похожие серверы