Zum Hauptinhalt springen Zur Suche springen Zur Hauptnavigation springen

Wichtiger Hinweis: Aktuell kann es bei Server-RAM, CPUs, SSDs und HDDs zu Verfügbarkeits- und Preisschwankungen kommen. Für zeitkritische Projekte kontaktieren Sie uns bitte frühzeitig.

Versandkostenfrei ab €500 (Standard-Paket DE)
Nur für gewerbliche Kunden & öffentliche Auftraggeber
24/7 E-Mail Support
Gratis Prämien ab €250

Nvidia DGX A100 2P Epyc 7742 2.25GHz 64C 1TB (16x 64GB) 8x A100 SXM4 40GB GPU 2x 1.92TB NVMe M.2 SSD OS 4x 3.84TB NVMe SSD Cache 6x 3000W

Produktinformationen

8x Nvidia A100 SXM4

  • 40 GB HBM2, insgesamt 320 GB
  • 1,56 TB/s Bandbreite pro GPU (extrem schnell für Datenverarbeitung, ideal für große Modelle (LLMs), Training & Inference, wissenschaftliche Simulationen)
  • Verbindung: SXM4-Modul
  • NVLink-Unterstützung: bis zu 600 GB/s zwischen mehreren GPUs > extrem schnelle Verbindung 
  • Einsatzbereiche: Deep Learning (Training & Inference), Data Analytics, HPC (Simulationen, Forschung), LLMs & generative AI

 Rechenleistung:

  • 19,5 TFLOPS (FP32) >> bis zu 19,5 Billionen Floating-Point-Operationen pro Sekunde (klassische Berechnungen)
  • 9,7 TFLOPS (FP64) >> bis zu 9,7 Billionen Floating-Point-Operationen pro Sekunde (wissenschaftliche Berechnungen)
  • 156 TFLOPS (TF32, Tensor Cores - AI optimiert) >> bis zu 156 Billionen Tensor-Operationen pro Sekunde (Deep Learning)
  • 312 TFLOPS (FP16 / BF16 Tensor) >> bis zu ~312 Billionen Tensor-Operationen pro Sekunde (maximale KI-Leistung)

Die A100 ist eine reine Hochleistungs-GPU für künstliche Intelligenz, Machine Learning und Forschung. Sie kann riesige Datenmengen parallel verarbeiten – das ist perfekt für neuronale Netze, Simulationen oder Big Data. Die SXM4-Version ist besonders schnell, weil sie direkt über NVLink mit anderen GPUs verbunden ist (statt über den langsameren PCIe-Bus).

Typ Workstation
Modell Nvidia DGX A100 2P Epyc 7742 2.25GHz 64C 1TB (16x 64GB) 8x A100 SXM4 40GB GPU 2x 1.92TB NVMe M.2 SSD OS 4x 3.84TB NVMe SSD Cache 6x 3000W
Hersteller Nvidia
Formfaktor 6U
Festplatten 2x 1.92TB NVMe M.2 SSD (OS), 4x 3.84TB U.2 NVMe SSD (Cache)
Prozessor 2x AMD Epyc 7742 2.25GHz 256MB 64-Core CPU 225W
Installierter Speicher 1 TB
Installierte Speichermodule 16x 64 GB DDR4
Module 8x NVIDIA A100 SXM4 HBM2 40GB GPU
Netzwerkcontroller 8x NVIDIA CX653105A QSFP28-DD 200GbE Server Ethernet Adapter, 1x NVIDIA CX653106A QSFP28 100GbE Server Ethernet Adapter
Stromversorgung 6x 3000W HotPlug Power Supply
Halterung inklusive Rack-Kit
Parts DGX-A100-40GB, 100-000000053
Lieferumfang Workstation wie beschrieben, ohne weiteres Zubehör. Abbildung ähnlich.
Hersteller Kontaktinformationen

NVIDIA GmbH

Adenauer Straße 20/A4
52146 Würselen
Germany

WEEE-Nummer
NVIDIA - 61310770


E-Mail senden Zur Webseite