AIME A4000 - Multi GPU HPC Rack Server

Der AIME A4000 basiert als Enterprise Deep Learning-Server auf dem ASUS ESC4000A-E11 Barebone. Im schlanken 2HE-Formfaktor ist er mit bis zu vier der fortschrittlichsten Deep Learning-Beschleunigern bzw. GPUs konfigurierbar. Treten Sie mit mehr als 4 Peta-TensorOps Deep Learning-Leistung ein in den Peta-FLOPS-HPC-Computerbereich.

Mit bis zu 1024 GB Hauptspeicher sowie einer bis zu 100 GBE Netzwerkkonnektivität ist er ausgelegt für verlässliches Hochleistungs-Computing im 24/7-Dauereinsatz in Ihrem hauseigenen Rechenzentrum, Ihrer Co-Location oder als Hosting Lösung.

AIME A4000 - Deep Learning Server

Wenn Sie auf der Suche nach einem Server sind, der auf maximales Deep-Learning-Training, Inferenzleistung, maschinelles Lernen und für die höchsten Anforderungen im HPC Computing spezialisiert ist, haben Sie mit dem AIME A4000 Multi-GPU-2HE-Rack-Server die optimale Lösung gefunden.

Der AIME A4000 basiert auf dem ASUS Barebone ESC4000A-E11, welches mit einem AMD EPYC ™ 7003-Prozessor mit bis zu 64 Kernen und 128 Threads betrieben werden kann.

Das auf multi-GPU-Betrieb ausgelegte Design, mit seiner effizienten Luftstromkühlung, ermöglicht die Verwendung von vier parallel betriebenen High-End-GPUs in jeweils zwei Doppel-Steckplätzen, wie etwa NVIDIA's A100, Tesla oder Quadro GPUs.

Wählbare GPU-Konfigurationen

Wählen sie für die Konfiguration aus den leistungsfähigsten NVIDIA Deep-Learning GPUs:

Bis zu 4x NVIDIA A100 80GB

Die NVIDIA A100 ist das Flaggschiff der NVIDIA Ampere-Prozessorgeneration und der Nachfolger der legendären NVIDIA Tesla Beschleunigerkarten. Die NVIDIA A100 basiert auf dem GA-100 Prozessor in 7nm Fertigung mit 6912 CUDA-Kernen, 432 Tensorkernen der dritten Generation und 40 oder 80 GB HBM2-Speicher mit den höchsten Datentransferraten. Eine einzelne NVIDIA A100 GPU sprengt bereits die Peta-TOPS-Leistungsbarriere. Vier Beschleuniger dieser Art summieren sich somit auf mehr als 1000 teraFLOPS fp32-Leistung.

Bis zu 4x NVIDIA L40S 48GB

Die NVIDIA L40S basiert auf der neuesten NVIDIA-GPU-Architektur: Ada Lovelace. Sie ist der direkte Nachfolger der RTX A40 und die passiv gekühlte Version der RTX 6000 Ada. Die L40S kombiniert 568 Tensor-Kerne der vierten Generation und 18.176 next-gen CUDA®-Kerne mit 48 GB GDDR6 Grafikspeicher für beispiellose Leistung für Rendering, Grafik und KI.

Bis zu 4x NVIDIA RTX 6000 Ada 48GB

Die RTX™ 6000 Ada basiert auf der neuesten NVIDIA-GPU-Architektur: Ada Lovelace. Sie ist der direkte Nachfolger der RTX A6000 und der Quadro RTX 6000. Die RTX 6000 Ada kombiniert 568 Tensor-Kerne der vierten Generation und 18.176 next-gen CUDA®-Kerne mit 48 GB Grafikspeicher für beispiellose Leistung für Rendering, Grafik und KI.

Bis zu 4x NVIDIA RTX 5000 Ada 32GB

Die RTX ™ 5000 Ada basiert auf der neuesten NVIDIA GPU-Architektur: Ada Lovelace. Sie ist die direkte Nachfolgerin der RTX A5500. Die RTX 5000 Ada kombiniert 400 Tensor Cores der vierten Generation und 12.800 CUDA® Kerne der nächsten Generation mit 32 GB Grafikspeicher für eine überzeugende Rendering-, KI-, Grafik- und Rechenleistung.

Bis zu 4x NVIDIA RTX A6000 48GB

Die NVIDIA RTX A6000 ist das Ampere-basierte Nachfolgemodell der NVIDIA Quadro Reihe. Sie verfügt über den selben GPU-Prozessor (GA-102) wie die RTX 3090, allerdings sind alle Kerne des GA-102 Prozessors aktiviert. Mit Ihren 10752 CUDA und 336 Tensor-Kernen der 3. Generation übertrifft sie die RTX 3090. Ausgestattet mit 48 GB GDDR6 ECC, die doppelten Menge an GPU-Speicher, im Vergleich zum Vorgänger der Quadro RTX 6000 und der RTX 3090. Sie eignet sich für speicherintensive Anwendungen die ausreichend Computeleistung benötigen.

Bis zu 4x NVIDIA RTX 3090 Turbo 24GB

Die GeForce RTX ™ 3090 basiert auf der NVIDIA Ampere RTX-Architektur der 2. Generation und verdoppelt die AI-Leistung mit 10496 CUDA-Kernen und 328 Tensorkernen. Sie bietet die Leistung die vorher nur von GPUs der NVIDIA Titan Klasse erreicht wurden. Die RTX 3090 verfügt über 24 GB GDDR6X-Speicher. Beim AIME A4000 werden serverfähige Turbo Versionen der RTX 3090 verbaut.

Bis zu 4x NVIDIA RTX A5000 24GB

Die NVIDIA RTX A5000 ist mit Ihren 8,192 CUDA und 256 Tensor-Kernen der 3. Generation weniger leistungsfähig als eine RTX 3090. Allerdings ist sie mit Ihrer 230 Watt Stromverbrauch und 24 GB Speicher eine sehr effiziente Beschleunigerkarte, insbesondere für Inferenz-Aufgaben noch immer eine sehr interessante Option.

Alle angeboten NVIDIA GPUs unterstützen NVIDIAs CUDA-X AI SDK inkl. cuDNN und TensorRT und werden damit von allen gängigen Deep-Learning-Frameworks unterstützt.

EPYC CPU-Leistung

Die High-End AMD EPYC Server-CPU arbeitet mit bis zu 64 Kernen und insgesamt 128 Threads pro CPU. Die 128 verfügbaren PCI 4.0-Lanes der AMD EPYC-CPU ermöglichen es, dass alle vier GPUs mit der maximalen Anzahl von PCI Lanes angebunden werden. Hierdurch wird die höchste Datenübertragungsrate zwischen der CPU und den GPUs erreicht.

Der Datendurchsatz kann durch die hohe Anzahl verfügbarer CPU-Kerne erheblich verbessert werden, da hierdurch die GPUs optimal mit Aufgaben versorgt werden können, wenn diese für das Preprocessing und die Bereitstellung von Daten genutzt werden.

Bis zu 32 TB High-Speed-SSD-Speicher

Beim Deep Learning müssen hohe Datenmengen verarbeitet und gespeichert werden. Ein hoher Datendurchsatz und schnelle Zugriffszeiten auf die Daten sind daher für schnelle Turnaround-Zeiten unerlässlich.

Der AIME A4000 kann mit bis zu vier wechselbaren U.2 NVMe Tripple Level Cell SSDs mit einer Kapazität von jeweils bis zu 8 TB konfiguriert werden. Was sich im Vollausbau zu einer Gesamkapazität von 32 TB schnellsten SSD Speicher addiert.

Jede der SSDs ist über PCI-4.0-Lanes direkt mit der CPU und dem Hauptspeicher verbunden und erreicht dadurch konstant höchste Lese- und Schreibraten von 3000 MB/s.

Wie im Serverbereich üblich haben die SSDs eine MTBF von 2,000,000 Stunden und 5 Jahre Garantie des Herstellers.

Höchste Konnektivität mit Managment Interface

Mit der 100 Gbit/s QSFP28 Option sind die schnellsten Verbindungen zu NAS-Ressourcen und Big Data Datenbanken möglich. Auch für den Datenaustausch in einem verteilten Compute Cluster ist die höchste verfügbare LAN-Konnektivität ein Muss.

Der AIME A4000 ist vollständig über ASMB9 (Out-of-Band) verwaltbar, und das ASUS Control Center (In-Band) ermöglicht eine erfolgreiche Integration des AIME A4000 in größere Servercluster.

Optimiert für Multi-GPU-Serveranwendungen

Der AIME A4000 ist energieeffizient und bietet durch seine zwei redundanten Platinum-Netzteile einen ausfallsicheren Langzeitbetrieb. Seine Wärmesteuerungstechnologie ermöglicht einen effizienten Stromverbrauch in Server-Umgebungen.

AIME liefert den A4000 einsatzbereit vorkonfiguriert, optimiert auf Multi-GPU-Dauerleistung wie sie für Deep-Learning Anwendungen benötigt wird. Hierzu gehört auch ein vorinstalliertes Linux-Betriebssystem, mit aktuellsten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und Mxnet, komfortabel verpackt in das AIME ML Container Management Framework.

Beginnen Sie sofort nach dem ersten Booten mit dem Training Ihrer Deep-Learning-Anwendung.

Technische Daten AIME A4000

Typ Rack Server 2HE, 80cm Tiefe
CPU (konfigurierbar) Milan
EPYC 7313 (16 cores, 3.0 / 3.7 GHz)
EPYC 7443 (24 cores, 2.85 / 4.0 GHz)
EPYC 7543 (32 cores, 2.8 / 3.7 GHz)
EPYC 7713 (64 cores, 2.0 / 3.6 GHz)
Rome
EPYC 7232 (8 cores, 3.1 GHz)
EPYC 7302 (16 cores, 3.0 GHz)
EPYC 7402 (24 cores, 2.8 GHz)
EPYC 7502 (32 cores, 2.5 GHz)
EPYC 7462 (48 cores, 2. GHz)
EPYC 7742 (64 cores, 2.25 GHz)
RAM 64 / 128 / 256 / 512 / 1024 GB ECC Speicher
GPU Optionen 1 bis 4 NVIDIA H100 80GB oder
2 bis 4 NVIDIA A100 80GB oder
2 bis 4 NVIDIA A100 40GB oder
2 bis 4 NVIDIA RTX 6000 Ada 48GB oder
2 bis 4 NVIDIA RTX 3090 24GB oder
2 bis 4 NVIDIA RTX A5000 24GB oder
2 bis 4 NVIDIA RTX A6000 48GB oder
2 bis 4 Tesla V100 16GB oder
2 bis 4 Tesla V100S 32GB
Kühlung CPU und GPUs mit 7 starken Hochleistungslüfter gekühlt
> 100000h MTBF
Speicher Bis zu 4 x 8TB U.2 NVMe SSD
Tripple Level Cell (TLC) Qualität
3000 MB/s lesen, 3000 MB/s schreiben
MTBF von 2,000,000 Stunden und 5 Jahre Herstellergarantie
Netzwerk 2 x 1 GBit LAN RJ45
optional: 1 x 10 GBit LAN SFP+ oder RJ45
1 x IPMI LAN
USB 4 x USB 3.0 Ports (vorne)
2 x USB 3.0 Ports (hinten)
Netzteile 2 x 1600 Watt Leistung, redundant
80 PLUS Platinum zertifiziert (94% Effizienz)
Geräusch-Pegel 80dBA
Abmessungen (BxHxT) 440mm x 88.9mm (2HE) x 800mm
17.22" x 3.5" x 31.50"
Betriebsumgebung Betriebs-Temperatur: 10℃ ~ 35℃
Nicht-Betriebs-Temperatur: -40℃ ~ 70℃

ASUS LogoNVIDIA LogoEPYC LogoAMD LogoTensorflow LogoPytorch Logo

Produktbezogene Downloads
  • AIME A4000 Front Top
  • AIME A4000 Front Top
  • AIME A4000 Front Right
  • AIME A4000 - Back
  • AIME A4000 Front
  • AIME A4000 Rack Front
  • AIME A4000 Front Left
required
required
required
required
required
required
required
required

Bitte zusätzlich um ein Angebot:

required
0,00 €
Preis exkl. MwSt.