Вы находитесь здесь?
Russian FlagМосква
NVIDIA

DGX Station

Товар добавлен в корзину

Перейти в корзину

Товар добавлен в запрос

Продолжить покупки Перейти к запросу

DGX Station

Скачать прайс-лист NVIDIA (новый прайс-лист от: 30.03.2023)

Скачать прайс-лист NVIDIA

Нажимая на «Выслать», я соглашаюсь с Политикой конфиденциальности и даю согласие на обработку персональных данных

  • В связи с особенностями лицензирования, цена на данный продукт предоставляется по запросу

    Запросить цену

  • Для быстрой работы и реализации новаторских идей специалистам по обработке и анализу данных, использующих алгоритмы глубокого обучения, требуется высокая вычислительная производительность. До настоящего времени все вычисления, направленные на создание искусственного интеллекта, были возможны только в дата-центрах. Это ограничивало возможности разработки и тестирования глубоких нейронных сетей для дальнейшего масштабирования задач треннировки. Теперь существует решение, позволяющее экспериментировать с алгоритмами глубокого обучения и обеспечивающее необходимую производительность, не покидая рабочий стол.

    Рабочая станция удобно помещается под рабочим столом, обеспечивая вычислительную мощность 400 CPU и потребляя при этом менее одной двадцатой от их уровня энергопотребления. NVIDIA DGX Station обеспечивает невероятную производительность для работы с алгоритмами глубокого обучения и анализа данных. Эта система предназначена для установки в офисе и работает до десяти раз тише других рабочих станций. Благодаря рабочей станции, которая оснащена оптимизированным ПО для глубокого обучения и обладает необходимой мощностью для запуска широко используемых аналитических приложений с ускорением, ученые и исследователи в области искусственного интеллекта могут мгновенно повысить свою продуктивность.

    DGX Station преодолевает все ограничения, связанные с созданием собственной платформы для глубокого обучения. На установку, интеграцию и тестирование необходимого программно-аппаратного обеспечения может уйти месяц и даже больше. Затем потребуются дополнительные знания и усилия для оптимизации фреймворков, библиотек и драйверов. Это ценное время, затрачиваемое на интеграцию системы и подготовку программного обеспечения, можно посвятить обучению и экспериментам с нейронными сетями. Систему NVIDIA DGX Station достаточно просто подключить к источнику питания, и можно в этот же день приступить к тренировке глубоких нейронных сетей.

    NVIDIA DGX Station оснащена тем же программным стеком, что и другие решения DGX. Эта инновационная интегрированная система предлагает доступ к популярным фреймворкам глубокого обучения, которые оптимизированы инженерами NVIDIA для обеспечения максимальной производительности. Сюда же входит доступ к ПО NVIDIA DIGITS, сторонним решениям с поддержкой ускорения, NVIDIA Deep Learning SDK (например, cuDNN, cuBLAS, NCCL), набору инструментов разработчика CUDA® Toolkit и драйверам NVIDIA. Построенный на контейнерной технологии NVIDIA Docker, этот унифицированный программный стек упрощает рабочий процесс, экономя время на рекомпиляции ПО при масштабировании и развертывании моделей глубокого обучения в дата-центре или облаке. Все рабочие процессы можно перенести с DGX Station на DGX-1 или в облако без каких-либо модификаций.

    Система DGX Station обеспечивает производительность на уровне суперкомпьютера в форм-факторе рабочей станции, которая создана на основе самых современных инженерных технологий и оснащена системой водяного охлаждения для тихой работы. 

    NVIDIA DGX Station обеспечивает производительность на уровне 500 терафлопс. Это первая и единственная система, построенная на основе четырех графических ускорителей NVIDIA Tesla V100 с использованием таких инновационных технологий, как NVLink нового поколения и архитектура ядер Tensor. Это революционное решение предлагает:

    • 72-кратный прирост производительности для тренировки алгоритмов глубокого обучения по сравнению с CPU-серверами.
    • 100-кратное ускорение анализа больших массивов данных по сравнению с серверным кластером Spark, состоящим из 20 вычислительных узлов.
    • 5-кратное увеличение пропускной способности по сравнению с PCIe благодаря технологии NVIDIA NVLink.
    • максимальную гибкость в обучении глубоких нейронных сетей и производительность инференса более 30000 изображений/сек.

    Спецификации системы

    GPU 4 GPU Tesla V100
    Производительность
    (операции со смешанной
    точностью)
    500 терафлопс
    Объем видеопамяти GPU 128 ГБ
    Ядра NVIDIA Tensor 2560
    Ядра NVIDIA CUDA 20480
    Процессор Intel Xeon E5-2698 v4 2,2 ГГц
    (20-ядерный)
    Объем оперативной памяти 256 ГБ RDIMM DDR4
    Жесткий диск Данные: 3 SSD-накопителя
    объемом по 1,92 TБ,
    объединенные в RAID 0
    ОС: 1 SSD-накопитель
    объемом 1,92 TБ
    Сеть Двухпортовый адаптер
    10GBASE-T (RJ45)
    Дисплей 3 дисплея DisplayPort
    с разрешением 4K
    Дополнительные разъемы 2 разъема eSATA, 2 порта
    USB 3.1, 4 порта USB 3.0
    Уровень шума < 35 дБ
    Вес 40 кг
    Габариты системы
    (ШхВхГ), мм
    518х256х639
    Максимально
    потребляемая мощность
    1500 Вт
    Рабочая температура от 10 до 30 °C
    Программное обеспечение ОС Ubuntu Desktop Linux
    Рекомендованный для DGX
    драйвер GPU CUDA Toolkit

     

Делимся инсайтами

Уникальные IT-практики, кейсы, обзоры и экспертные мнения

Нажимая на «Подписаться», я соглашаюсь с Политикой конфиденциальности и даю согласие на обработку персональных данных Этот сайт защищен reCAPTCHA, и применяются Политика конфиденциальностии Условия использованияGoogle.

Статусы от партнеров