AIME A4004 - Multi GPU HPC Rack Server

Der AIME A4004 ist ein Enterprise Deep Learning-Server der nächsten Generation, basierend auf dem ASUS ESC4000A-E12. Im schlanken 2HE-Formfaktor ist er mit bis zu vier der fortschrittlichsten Deep Learning-Beschleunigern bzw. GPUs konfigurierbar für HPC multi-GPU Computing mit höchsten Anforderungen.

Mit neuster EPYC Bergamo CPU Leistung mit bis 128 CPU Kernen, schnellstem DDR5 Hauptspeicher, PCI 5.0 Bus-Geschwindigkeit sowie einer bis zu 400 GB Netzwerkkonnektivität ist er ausgelegt als verlässlicher Hochleistungs-Computing Knoten im 24/7-Dauereinsatz in Ihrem hauseigenen Rechenzentrum, Ihrer Co-Location oder als Hosting Lösung.

AIME A4004 - Deep Learning Server

Wenn Sie auf der Suche nach einem Server sind, der auf maximales Deep-Learning-Training, Inferenzleistung, maschinelles Lernen und für die höchsten Anforderungen im HPC Computing spezialisiert ist, haben Sie mit dem AIME A4004 Multi-GPU-2HE-Rack-Server die optimale Lösung gefunden.

Der AIME A4004 basiert auf dem ASUS Barebone ESC4000A-E12, welches mit einem AMD EPYC™ Genoa oder Bergamo Prozessor mit bis zu 128 Kernen mit 256 CPU Threads betrieben werden kann.

Das auf multi-GPU-Betrieb ausgelegte Design, mit seiner effizienten Luftstromkühlung, ermöglicht die Verwendung von vier parallel betriebenen High-End-GPUs in jeweils zwei Doppel-Steckplätzen, wie etwa NVIDIA's H100 NVL Beschleunigern, NVIDIA L40S oder RTX Ada GPU Modelle.

Wählbare GPU-Konfigurationen

Wählen sie für die Konfiguration aus den leistungsfähigsten NVIDIA Deep-Learning GPUs:

Bis zu 4x NVIDIA H100 NVL 94GB

Die neuste Update zu NVIDIA Hopper H100 Generation is die NVIDIA H100 NVL. Die NVIDIA H100 NVL basiert auf dem GH-100 Prozessor in 5nm Fertigung mit 16.896 CUDA-Kernen, Tensorkernen der vierten Generation und 94 GB HBM3-Speicher mit Datentransferraten bis zu 3,9 TB/s. Eine einzelne NVIDIA H100 NVL Beschleuniger leistet 1,67 FP16 Peta-TOPS. Vier H100 NVL Beschleuniger liefern mehr als 4000 teraFLOPS FP32-Leistung. Die NVIDIA-H100-Generation ist die erste GPU, die PCIe 5.0 unterstützt, was die PCIe Datenübertragungsraten auf bis zu 128 GB/s verdoppelt. Die NVIDIA H100 NVL ist aktuell die effizienteste Deep-Learning Beschleunigerkarte am Markt.

Bis zu 4x NVIDIA H100 80GB

Die NVIDIA Hopper H100 Generation, der leistungsstärkste NVIDIA Prozessor mit der höchsten Leistungsdichte. Die NVIDIA H100 80GB ist der direkte Nachfolger der A100 80GB und basiert auf dem GH-100 Prozessor in 5nm Fertigung mit 14.592 CUDA-Kernen, Tensorkernen der vierten Generation und 80 GB HBM2e-Speicher mit Datentransferraten bis zu 2,0 TB/s. Eine einzelne NVIDIA H100 Beschleuniger leistet 1,5 FP16 Peta-TOPS. Vier H100 Beschleuniger liefern mehr als 3000 teraFLOPS FP32-Leistung.
Die NVIDIA-H100-Serie wurde von NVIDIA mit der noch leistungsfähigeren NVIDIA H100 NVL aktualisiert.

Bis zu 4x NVIDIA L40S 48GB

Die NVIDIA L40S basiert auf der neuesten NVIDIA-GPU-Architektur: Ada Lovelace. Sie ist der direkte Nachfolger der RTX A40 und die passiv gekühlte Version der RTX 6000 Ada. Die L40S kombiniert 568 Tensor-Kerne der vierten Generation und 18.176 next-gen CUDA®-Kerne mit 48 GB GDDR6 Grafikspeicher für beispiellose Leistung für Rendering, Grafik und KI.

Bis zu 4x NVIDIA RTX 6000 Ada 48GB

Die RTX™ 6000 Ada basiert auf der neuesten NVIDIA-GPU-Architektur: Ada Lovelace. Sie ist der direkte Nachfolger der RTX A6000 und der Quadro RTX 6000. Die RTX 6000 Ada kombiniert 568 Tensor-Kerne der vierten Generation und 18.176 next-gen CUDA®-Kerne mit 48 GB Grafikspeicher für beispiellose Leistung für Rendering, Grafik und KI.

Bis zu 4x NVIDIA RTX 5000 Ada 32GB

Die RTX ™ 5000 Ada basiert auf der neuesten NVIDIA GPU-Architektur: Ada Lovelace. Sie ist die direkte Nachfolgerin der RTX A5000/A5500 und der Quadro RTX 6000. Die RTX 5000 Ada kombiniert 400 Tensor Cores der vierten Generation und 12.800 CUDA® Kerne der nächsten Generation mit 32 GB Grafikspeicher für eine überzeugende Rendering-, KI-, Grafik- und Rechenleistung.

Bis zu 4x NVIDIA RTX A5000 24GB

Die NVIDIA RTX A5000 ist mit Ihren 8.192 CUDA und 256 Tensor-Kernen der 3. Generation ähnlich leistungsfähig wie eine RTX 3090. Allerdings ist sie mit Ihrer 230 Watt Stromverbrauch und 24 GB Speicher eine sehr viel effizientere GPU, insbesondere für Inferenz-Aufgaben ist die RTX A5000 noch immer eine sehr interessante Option.

Alle angeboten NVIDIA GPUs unterstützen NVIDIAs CUDA-X AI SDK inkl. cuDNN und TensorRT und werden damit von allen gängigen Deep-Learning-Frameworks unterstützt.

AMD EPYC CPU-Leistung

Die Next-Gen AMD EPYC Genoa und Bergamo Server-CPU arbeitet mit bis zu 128 Kernen und insgesamt 256 Threads pro CPU mit Unterstützung des neusten Speicherstandards DDR5. Die 128 verfügbaren PCI 5.0-Lanes der AMD EPYC-CPU ermöglichen es, dass alle vier GPUs mit der maximalen Anzahl von PCI 5.0 Lanes angebunden werden. Hierdurch wird die höchste Datenübertragungsrate zwischen der CPU und den GPUs erreicht.

Der Datendurchsatz kann durch die hohe Anzahl verfügbarer CPU-Kerne erheblich verbessert werden, da hierdurch die GPUs optimal mit Aufgaben versorgt werden können, wenn diese für das Preprocessing und die Bereitstellung von Daten genutzt werden.

Bis zu 30 TB hochleistungs NVME-SSD-Festspeicher

Beim Deep Learning müssen hohe Datenmengen verarbeitet und gespeichert werden. Ein hoher Datendurchsatz und schnelle Zugriffszeiten auf die Daten sind daher für schnelle Turnaround-Zeiten unerlässlich.

Der AIME A4004 kann mit zwei wechselbaren U.2 NVMe PCIe 4.0 Tripple Level Cell SSDs mit einer Kapazität von jeweils bis zu 15 TB konfiguriert werden. Was sich im Vollausbau zu einer Gesamkapazität von 30 TB schnellsten SSD Speicher addiert.

Jede der SSDs ist über PCI-4.0-Lanes direkt mit der CPU und dem Hauptspeicher verbunden und erreicht dadurch konstant höchste Leseraten von mehr als 6000 MB/s und 4000 MB/s Schreiberaten.

Wie im Serverbereich üblich haben die SSDs eine MTBF von 2,000,000 Stunden und 5 Jahre Garantie des Herstellers bei 1 DWPD.

Optionales RAID: mit bis zu 60 TB hochleistungs NVME-SSD-Festspeicher

Oft wird langfristig zusätzliche Speicherkapazität für große Datensätze und Trainings-Checkpoints benötigt.

Die vier zusätzlichen Laufwerksschächte des A4004 bieten die Option den Server mit einem zuverlässigen Hardware-RAID zu erweitern. Damit ist es möglich, bis zu 80 TB HDD SATA oder 60 TB schnellster NVME-SSD-Festspeicher mit den RAID-Leveln 0 / 1 / 5 / 10 und 50 zu realisieren.

Höchste Konnektivität mit Managment Interface

Mit der 100 Gbit/s QSFP28 Option sind die schnellsten Verbindungen zu NAS-Ressourcen und Big Data Datenbanken möglich. Auch für den Datenaustausch in einem verteilten Compute-Cluster ist die höchste verfügbare LAN-Konnektivität ein Muss.

Der AIME A4004 ist vollständig über ASMB9 (Out-of-Band) verwaltbar, und das ASUS Control Center (In-Band) ermöglicht eine erfolgreiche Integration des AIME A4004 in größere Servercluster.

Optimiert für Multi-GPU-Serveranwendungen

Der AIME A4004 ermöglicht durch seine zwei 1+1 redundanten, energieeffizienten Titanium-Netzteile einen ausfallsicheren Langzeitbetrieb. Seine Lüftersteuerungstechnologie ermöglicht einen effiziente und optimale Kühlung in Server-Umgebungen.

AIME liefert den A4004 einsatzbereit vorkonfiguriert, optimiert auf Multi-GPU-Dauerleistung wie sie für Deep-Learning Anwendungen benötigt wird. Hierzu gehört auch ein vorinstalliertes Linux-Betriebssystem, mit aktuellsten Treibern und Frameworks wie Tensorflow, Keras und PyTorch, komfortabel verpackt in das AIME ML Container Management Framework.

Beginnen Sie sofort nach dem ersten Booten mit dem Training Ihrer Deep-Learning-Anwendung.

Technische Daten AIME A4004

Typ Rack Server 2HE, 80cm Tiefe
CPU (konfigurierbar) EPYC Bergamo
EPYC 9754 (128 cores, 2.25 / 3.1 GHz)
EPYC 9734 (112 cores, 2.2 / 3.0 GHz)

EPYC Genoa
EPYC 9124 (16 cores, 3.0 / 3.7 GHz)
EPYC 9224 (24 cores, 2.5 / 3.7 GHz)
EPYC 9354 (32 cores, 3.25 / 3.8 GHz)
EPYC 9454 (48 cores, 2.75 / 3.8 GHz)
EPYC 9554 (64 cores, 3.1 / 3.75 GHz)
EPYC 9654 (96 cores, 2.4 / 3.7 GHz)
RAM 96 / 192 / 384 / 768 / 1024 / 1536 GB DDR5 ECC Speicher
GPU Optionen Bis zu 4x NVIDIA H100 NVL 94GB oder
Bis zu 4x NVIDIA H100 80GB oder
Bis zu 4x NVIDIA A100 80GB oder
Bis zu 4x NVIDIA L40S 48GB oder
Bis zu 4x NVIDIA RTX 6000 Ada 48GB oder
Bis zu 4x NVIDIA RTX A6000 48GB oder
Bis zu 4x NVIDIA RTX A5000 24GB
Kühlung CPU und GPUs werden unabhängig mit 8 Hochleistungslüfter, 2 pro GPU-Kanal und 4 für die CPU, gekühlt
> 100000h MTBF
Speicher Bis zu 2x 15.36 TB U.2 NVMe PCIe 4.0 SSD
Tripple Level Cell (TLC) Qualität
6800 MB/s lesen, 4000 MB/s schreiben
MTBF von 2,000,000 Stunden und 5 Jahre Herstellergarantie bei 1 DWPD

Optionales Hardware RAID:

Bis zu 4x HDD 20 TB SATA RAID 0/1/5/10 oder
Bis zu 4x SSD 7.68 TB SATA RAID 0/1/5/10 oder
Bis zu 4x SSD 3.84 TB NVMe RAID 0/1/5/10 oder
Bis zu 4x SSD 7.68 TB NVMe RAID 0/1/5/10 oder
Bis zu 4x SSD 15.36 TB NVMe RAID 0/1/5/10
Netzwerk 2x 1 GBit LAN RJ45
1x IPMI LAN RJ45
Optional zusätzlich:
2x 10 GBit LAN SFP+ oder RJ45 oder
2x 25 GBit LAN SFP28 oder
1x 100 GBit LAN QSFP28
USB 4x USB 3.2 Gen1 Ports (vorne)
2x USB 3.2 Gen1 Ports (hinten)
Netzteile 1+1 x 2600 Watt Leistung, redundant
80 PLUS Titanium zertifiziert (96% Effizienz)
Geräusch-Pegel 90dBA
Abmessungen (BxHxT) 440mm x 88.9mm (2HE) x 800mm
17.30" x 3.5" x 31.50"
Betriebsumgebung Betriebs-Temperatur: 10℃ ~ 35℃
Nicht-Betriebs-Temperatur: -40℃ ~ 70℃

ASUS LogoNVIDIA LogoEPYC LogoAMD LogoTensorflow LogoPytorch Logo

Produktbezogene Downloads
  • AIME A4004 fron top
  • AIME A4004 fron top
  • AIME A4004 front right
  • AIME A4004 back top
  • AIMEA4004 back
  • AIME A4004 front
  • AIME A4004 front left
required
required
required
required
required
required
required
required

Bitte zusätzlich um ein Angebot:

required
0,00 €
Preis exkl. MwSt.