Maximieren Sie Ihre KI-Rechenleistung und Effizienz

und genießen Sie gleichzeitig eine komfortable Systemverwaltung

Modernste IT-Hardware nach Ihren Ansprüchen

AIME Server wurden speziell für die höchsten Anforderungen im HPC-Segment entwickelt. Sie können bis zu acht High-Performance-Compute-Cards (NVIDIA oder AMD GPUs) aufnehmen und bieten in Kombination mit den neuesten AMD Server-Prozessoren eine enorme Rechenleistung und Effizienz auf kleinstem Raum für den 24/7-Einsatz unter Dauerlast.

Kundenvertrauen in ganz Europa

In ganz Europa verwenden Forscher und Ingenieure an Universitäten, in Start-Ups, großen Unternehmen, Behörden und nationalen Labors etc. AIME-Produkte für ihre Arbeit zur Entwicklung künstlicher Intelligenz.

und viele weitere...
Multi-GPU / HPC Server
2HE Server
AIME A4000
Der Vorgänger des AIME A4004 mit der EPYC Rome and Milan CPU Gerneration, hohe PCIe 4.0 Geschwindigkeit und bis zu 100 GBE Netzwerk-Konnektivität. Ihr effizienter High Performance Compute Knoten, der rund um die Uhr zuverlässig performt.
  • GPU: 1-4 x NVIDIA A100 80GB oder
    1-4 x NVIDIA L40 48GB oder
    1-4 x NVIDIA L40S 48GB oder
    1-4 x NVIDIA RTX 6000 Ada 48GB oder
    1-4 x NVIDIA RTX A6000 48GB oder
    1-4 x NVIDIA RTX 5000 Ada 32GB oder
    1-4 x NVIDIA RTX 4500 Ada 24GB oder
    1-4 x NVIDIA RTX A5000 24GB oder
    1-4 x NVIDIA RTX 4000 Ada 20GB
  • CPU: 1x EPYC 16-64 Cores (Milan)
  • RAM:64 GB-1 TB ECC
  • SSD:1-75 TB NVME 2.5"/M.2 SSD
2HE Server
AIME A4004
Der Deep-Learning-Server AIME A4004 angetrieben mit der neusten EPYC Genoa CPU Generation mit bis zu 4 GPUs oder Beschleunigerkarten. Verpackt in kompakten 2HE, höchste PCIe 5.0 Geschwindigkeit und bis zu 100 GBE Netzwerk-Konnektivität. Zuverlässigstes High Performance Multi-GPU-Computing für Ihr Rechenzentrum oder Co-Location.
  • GPU: 1-4 x NVIDIA H100 94GB NVL oder
    1-4 x NVIDIA H100 80GB oder
    1-4 x NVIDIA L40S 48GB oder
    1-4 x NVIDIA RTX 6000 Ada 48GB oder
    1-4 x NVIDIA RTX A6000 48GB oder
    1-4 x NVIDIA RTX 5000 Ada 32GB oder
    1-4 x NVIDIA RTX 4500 Ada 24GB oder
    1-4 x NVIDIA RTX A5000 24GB oder
    1-4 x NVIDIA RTX 4000 Ada 20GB
  • CPU: 1x EPYC 16-96 Cores (Genoa) oder
    1x EPYC 112-128 Cores (Bergamo)
  • RAM:64 GB-1 TB DDR5 ECC
  • SSD:1-60 TB NVME 2.5" SSD
  • RAID: 2-4x 8-20 TB SATA RAID 0/1/10/5 oder
    2-4x 4-15 TB NVME RAID 0/1/10/5
4HE Server
AIME A8000
Mit dem AIME A8000 steigen Sie ein in den Peta FLOPS Bereich des Deep-Learning HPC-Computings: Mit bis zu acht GPUs oder Beschleunigern, dualer EPYC-CPU, 128 PCIe 4.0 Lanes-Busgeschwindigkeit und bis zu 100 GB Netzwerkkonnektivität erhalten Sie ein Multi-GPU-Arbeitspferd für den Einsatz in Ihrem Rechenzentrum oder Ihrer Co-Location.
  • GPU: 1-8 x NVIDIA A100 80GB oder
    1-8 x NVIDIA H100 80GB oder
    1-8 x NVIDIA L40S 48GB oder
    1-8 x NVIDIA RTX 6000 Ada 48GB oder
    1-8 x NVIDIA RTX A6000 48GB oder
    1-8 x NVIDIA A100 40GB oder
    1-8 x NVIDIA RTX 5000 Ada 32GB oder
    1-8 x NVIDIA RTX A5000 24GB
  • CPU: 2x EPYC 16-64 Cores (Milan)
  • RAM:128 GB-2 TB ECC
  • SSD:1-60 TB NVME 2.5" SSD
  • RAID: 2-6x 8-20 TB SATA RAID 0/1/10/5/50 oder
    2-4x 4-15 TB NVME RAID 0/1/10/5
4HE Server
AIME A8004
Der AIME A8004 ist der ultimative Multi-GPU-Server: Mit dualen EPYC Genoa oder Bergamo CPUs, schnellster PCIe 5.0 Busgeschwindigkeit, bis zu 90 TB RAID NVMe SSD Speicher und 400 GBE Netzwerkkonnektivität ist er optimiert auf maximale Deep-Learning Inferenzleistung, und für die höchsten Anforderungen im GPU-Computing prädestiniert.
  • GPU: 1-8 x NVIDIA H100 94GB NVL oder
    1-8 x NVIDIA H100 80GB oder
    1-8 x NVIDIA L40S 48GB oder
    1-8 x NVIDIA RTX 6000 Ada 48GB oder
    1-8 x NVIDIA RTX A6000 48GB oder
    1-8 x NVIDIA RTX 5000 Ada 32GB oder
    1-8 x NVIDIA RTX 4500 Ada 24GB oder
    1-8 x NVIDIA RTX A5000 24GB
  • CPU: 2x EPYC 16-96 Cores (Genoa) oder
    2x EPYC 112-128 Cores (Bergamo)
  • RAM:256 GB-3 TB DDR5 ECC
  • SSD:1-75 TB NVME 2.5"/M.2 SSD
  • RAID: 2-6x 8-15 TB NVME RAID 0/1/10/5
beraten wir Sie gerne persönlich.
AIME Sales Team

Manuel Glende

AIME Sales Team
+49 30 459 54 380

Mit jahrelanger Erfahrung und fundiertem Know-how unterstützen wir Sie bei komplexen Anwendungen der Künstlichen Intelligenz sowie anderen spezifischen Anwendungsfällen.

Unser Management und unsere Inhouse-Entwickler sind auf HPC-Hardware und die Entwicklung von KI-Modellen spezialisiert, wodurch wir eine praxisorientierte und fachkundige Beratung bieten können.

3 Jahre Garantie
für alle Rackserver
AIME Rack Servers Warranty

Wir bieten einen Send-In & Return-Service mit erweitertem Ersatzteilaustausch.

Dieser Service ist auf Pick-Up & Return erweiterbar.

Während der Garantiezeit stellen wir Ersatzteile für alle defekten Komponenten bereit und kümmern uns um etwaige Hardwareprobleme.

Bei Fehlern die sich durch einen Austausch von Teilen (wie etwa eine defekte GPU, Netzteil oder RAM Riegel) lösen lassen, würden wir Ihnen das entsprechende Teil zum Vorabtausch zuschicken. Bei Fehlern, die sich nicht eindeutig lokalisieren lassen, senden Sie das Gerät ein und wir senden das System repariert zurück.

Bei nicht eindeutig identifizierbaren Mängeln schicken Sie das Gerät ein und wir schicken Ihnen das reparierte System zurück.

GPU Rack Workstations
2HE Server
AIME RS524
Der AIME RS524 auf Basis des ASUS ESC520A-E12 ist die Rack-GPU-Workstation der nächsten Generation, konfigurierbar mit bis zu 2 der leistungsfähigsten GPUs für die anspruchsvollsten Rendering-, Inference- und GPU-Computing-Aufgaben.
  • GPU: 1 x Onboard VGA oder
    1-2 x NVIDIA RTX 6000 Ada 48GB oder
    1-2 x NVIDIA RTX A6000 48GB oder
    1-2 x NVIDIA RTX 5000 Ada 32GB oder
    1-2 x NVIDIA RTX 4500 Ada 24GB oder
    1-2 x NVIDIA RTX A5000 24GB oder
    1-4 x NVIDIA RTX 4000 Ada 20GB oder
    1-4 x NVIDIA RTX A4000 16GB
  • CPU: 1x EPYC 16-96 Cores (Genoa) oder
    1x EPYC 112-128 Cores (Bergamo)
  • RAM:64 GB-3 TB DDR5 ECC
  • SSD:1-75 TB NVME 2.5"/M.2 SSD
  • RAID: 3-10x 30-138 TB NVME RAID
2HE Server
AIME RS724
Der AIME RS724 ist eine rackfähige GPU-Workstation auf Basis des ASUS RS720A-E12 Barebones. Es kann mit zwei AMD EPYC CPUs der neuesten Generation und mit bis zu zwei High-End NVIDIA-GPUs ausgestattet werden.
  • GPU: 1 x Onboard VGA oder
    1-2 x NVIDIA RTX 6000 Ada 48GB oder
    1-2 x NVIDIA RTX A6000 48GB oder
    1-2 x NVIDIA RTX 5000 Ada 32GB oder
    1-2 x NVIDIA RTX 4500 Ada 24GB oder
    1-2 x NVIDIA RTX A5000 24GB oder
    1-4 x NVIDIA RTX 4000 Ada 20GB oder
    1-4 x NVIDIA RTX A4000 16GB
  • CPU: 2x EPYC 16-96 Cores (Genoa) oder
    2x EPYC 112-128 Cores (Bergamo)
  • RAM:128 GB-3 TB DDR5 ECC
  • SSD:1-75 TB NVME 2.5"/M.2 SSD
  • RAID: 2-12x 20 TB SATA RAID 0/1/10/5/50 oder
    2-8x 4-107 TB NVME RAID 0/1/10/5
Ihre individuelle Konfiguration
für maßgeschneiderte Lösungen
AIME Multi GPU Server

Fehlt Ihre Konfiguration? Wir bieten auch maßgeschneiderte Lösungen an.

Wir haben Hardwarelösungen für:

  • Entwicklungsteams
  • Inhouse Unternehmensdienstleistungen
  • Modell-Deployment und Service-Bereitstellungen
  • Datenzentren
  • Cloud Hosting

Sollten Sie bestimmte Komponenten, ein anderes Betriebssystem oder andere spezifische Konfigurationen benötigen, zögern Sie bitte nicht, uns zu kontaktieren!

CPU Server
1HE Server
AIME RS504
Der AIME RS504 ist ein kompakter, effizienter und leistungsfähiger Rack-Server auf Basis des ASUS RS500A-E12 Barebones. Es kann mit einem leistungsstarken AMD-EPYC-Prozessor der neuesten Generation konfiguriert werden und mit bis zu 12 NVMe-SSD-Laufwerken ausgestattet werden um auch als Hochleistungs-Storage-Server eingesetzt zu werden.
  • CPU: 1x EPYC 16-96 Cores (Genoa) oder
    1x EPYC 112-128 Cores (Bergamo)
  • RAM:64 GB-3 TB DDR5 ECC
  • SSD:1-75 TB NVME 2.5"/M.2 SSD
  • RAID: 2-10x 4-138 TB NVME RAID 0/1/10/5
1HE Server
AIME RS704
Der AIME RS704 ist ein Enterprise-Rack-Server auf Basis des ASUS RS700A-E12 Barebones. Es kann mit zwei leistungsstarken EPYC-Prozessoren der neuesten Generation konfiguriert werden und erzielt maximale CPU-Leistung mit bis zu 256 CPU Kernen. Der Server unterstützt bis zu 4 TB DDR5-Arbeitsspeicher und 12 NVMe-SSDs, insgesamt 180 TB Storage-Speicher.
  • GPU: 1 x Onboard VGA oder
    1 x NVIDIA RTX 4000 Ada 20GB oder
    1 x NVIDIA RTX A4000 16GB
  • CPU: 2x EPYC 16-96 Cores (Genoa) oder
    2x EPYC 112-128 Cores (Bergamo)
  • RAM:128 GB-3 TB DDR5 ECC
  • SSD:1-75 TB NVME 2.5"/M.2 SSD
  • RAID: 2-10x 4-138 TB NVME RAID 0/1/10/5
Flexible Kaufoptionen
Kaufen, leasen, Konfigurieren & Mieten oder Kaufen & Hosten
AIME Buy & Host

Sie können einen Server kaufen oder leasen und ihn in Ihrem eigenen Rechenzentrum betreiben oder ihn bei AIME hosten und uns die Verwaltung Ihrer Hardware überlassen.

Erhalten Sie erstklassige Leistung und Sicherheit, indem Sie Ihre Server in der AIME Cloud Colocation hosten. Genießen Sie zuverlässige Betriebszeiten, skalierbare Infrastruktur und Expertenunterstützung – alles darauf ausgerichtet, Ihre Investition zu maximieren.

Kaufen & Hosten: Hosten Sie die Server, die Sie bei uns gekauft haben, in der AIME Cloud Colocation.

Konfigurieren & Mieten: Konfigurieren Sie Ihr Wunschsystem und mieten es in der AIME Cloud.

Storage Server
2HE Server
AIME RS520H
Der AIME RS520H ist ein Storage-Rack-Server auf Basis des ASUS RS520H-E11 Barebones. Mit Unterstützung für 12x HDD/SSD-Laufwerke kann er bis zu 240 TB HDD Raid-Speicherplatz bereitstellen.
  • CPU: 1x EPYC 16-64 Cores (Milan)
  • RAM:64 GB-2 TB ECC
  • SSD:1-15 TB NVME M.2 SSD
  • RAID: 2-12x 8-20 TB SATA RAID 0/1/10/5/50
2HE Server
AIME RS524S
Der AIME RS524S ist ein Enterprise-Rack-Storage-Server auf Basis des ASUS RS520A-E12 Barebones. Mit Unterstützung für 24x native NVMe-SSDs kann er bis zu 360 TB schnellsten NVMe-SSD-Speicher mit sehr schnellen Zugriffszeiten und konstant hohem Datendurchsatz bereitstellen.
  • CPU: 1x EPYC 16-96 Cores (Genoa) oder
    1x EPYC 112-128 Cores (Bergamo)
  • RAM:64 GB-1 TB DDR5 ECC
  • SSD:1-15 TB NVME M.2 SSD
  • RAID: 3-24x 30-353 TB NVME RAID
Für individuelle Cluster-Lösungen
AIME Cluster Solution

oder größeren Projekten beraten wir Sie gerne persönlich. In Fällen wie

  • speziellen Konfigurationen
  • ein anderes Betriebsystem
  • ein spezielles Cluster Netzwerk
  • oder andere spezielle Konfigurationen

zögern Sie nicht, uns zu kontaktieren!

GPU Tower Workstations
Rackfähiger Tower
AIME G400S
Die perfekte Workstation für die Multi-GPU-Entwicklung von Deep Learning Modellen. Nutzen Sie die Leistung von bis zu vier GPUs und bleiben Sie flexibel bei der Entscheidung, ob Sie diese in Ihrem Büro oder in einem Rechenzentrum betreiben möchten. Die AIME G400S Workstation kann mit einem optionalen SlideRails-Kit in ein Standard-Rack eingebaut werden.
  • GPU: 1-4 x NVIDIA RTX 6000 Ada 48GB oder
    1-4 x NVIDIA RTX A6000 48GB oder
    1-4 x NVIDIA RTX 5000 Ada 32GB oder
    2 x NVIDIA RTX 4090 24GB Triple Fan oder
    1-4 x NVIDIA RTX A5000 24GB
  • CPU: 1x Threadripper Pro 16-64 Cores (59xxWX)
  • RAM:64 GB-512 GB ECC
  • SSD:2-100 TB NVME M.2, SATA SSD
Rackfähiger Tower
AIME G500
Der AIME G500 ist als wartungsfreundlich High-End-GPU Workstation konzipiert, mit eine herausragende Kühlleistung und Netzteil-Kapazität, um bis zu vier High-End-GPUs zu betreiben. Der G500 ist die AIME-Workstations der 5. Generation, mit Unterstützung für die neueste AMD-Threadripper-CPU-Generation, einschließlich DDR5-Speicher und PCIe-5.0-Bus-Technologie.
  • GPU: 1-4 x NVIDIA RTX 6000 Ada 48GB oder
    1-4 x NVIDIA RTX A6000 48GB oder
    1-4 x NVIDIA RTX 5000 Ada 32GB oder
    1-2 x NVIDIA RTX 4090 24GB Triple Fan oder
    1-4 x NVIDIA RTX 4500 Ada 24GB oder
    1-4 x NVIDIA RTX A5000 24GB
  • CPU: 1x Threadripper Pro 16-96 Cores (79xxWX)
  • RAM:64 GB-1 TB DDR5 ECC
  • SSD:1-88 TB NVME 2.5"/M.2 SSD
The AIME Software Stack
kostenlos & vorinstalliert
icon_box

Neben dem nicht unerheblichen Aufwand, die Systemkomponenten optimal aufeinander abzustimmen, bieten wir auch auf der Softwareseite einige Mehrwerte.

Im Gegensatz zu normalen Systemanbietern haben wir uns auf HPC-Server spezialisiert, die für die Entwicklung und Inferenz von KI-Modellen optimiert sind.

Zusätzlich zu unseren HPC-Servern bieten wir folgende Software kostenlos zur Unterstützung von Training und Betrieb Ihrer KI-Modelle:

AIME Software Stack - API Server

AIME API Server, einen leistungsstarken, skalierbaren API-Server für die KI-Modell-Inferenz und

AIME Software Stack - MLC

AIME MLC , unser Deep Learning Container Framework Management System

Dies vereinfacht und beschleunigt die Entwicklung Ihres Projekts und spart somit Kosten.

Weitere Informationen auf der Software Seite

Kontaktieren Sie uns

Wenn sie Fragen haben rufen Sie uns an oder senden Sie uns eine E-Mail. Wir helfen Ihnen gerne bei der Suche nach der am besten geeigneten Rechenlösung.

  • AIME GmbH
    Marienburger Str. 1
    10405 Berlin
    Deutschland