Der AIME Software Stack

Unterstützung der KI-Entwicklung mit Open-Source-Tools

Entfalten Sie das volle Potenzial Ihrer KI-Entwicklung mit AIME’s optimierten HPC-Servern, Open-Source-Frameworks und APIs – entwickelt, um Ihre Machine-Learning- und Deep-Learning-Projekte zu beschleunigen.

AIME ist mehr als nur ein herkömmlicher Systemanbieter: Neben der Bereitstellung von leistungsstarken HPC-Servern, die speziell für KI optimiert sind, liegt unser Schwerpunkt auf der Entwicklung von Softwarelösungen, die das Training und den Einsatz von KI-Modellen unterstützen.

Dank unseres anwendungsorientierten, praxisnahen Ansatzes bleiben wir immer über die neuesten Entwicklungen und Trends im Bereich künstlicher Intelligenz informiert. Unser tiefes Verständnis des KI-Softwareentwicklungsprozesses beruht auf Erfahrungen aus erster Hand und gibt uns aktuelle Einblicke in die wesentlichen Tools und Entwicklungs-Setups, die in diesem Bereich verwendet werden.

Die Erkenntnisse, die wir in der Softwareentwicklung, im Benchmarking von Hardwarekomponenten, KI-Modellen und Systemkonfigurationen gewonnen haben, fließen direkt in unsere Beratung ein. So unterstützen wir unsere Kunden bei der Auswahl der optimalen Hardware – von GPUs und CPUs über Speicheranforderungen bis hin zur Systemarchitektur und den passenden Software-Frameworks.

Dieses integrierte Wissen ermöglicht es uns, die Hard- und Softwareanforderungen für KI-Workloads besser zu verstehen, sodass wir unsere Kunden effektiver beraten und maßgeschneiderte Lösungen für ihre spezifischen Anforderungen bereitstellen können.

Wir unterstützen unsere Kunden softwareseitig durch folgende Projekte:

AIME API Server

AIME API Server

Flexibel und skalierbar: KI-Modelle als API bereitstellen

Um den Einsatz von KI zu vereinfachen, bieten wir den AIME API Server an. Entwickelt für maximale Flexibilität und Kontrolle, stellt er eine leistungsstarke API-Schnittstelle bereit, die individuell anpassbar, erweiterbar und skalierbar ist.

AIME API ist ein leistungsstarker und skalierbarer API-Server, der speziell für die Inferenz von KI-Modellen entwickelt wurde, um Ihnen dabei zu helfen, Ihre KI-Modelle unkompliziert als Webanwendung auszuführen und zu skalieren. Die AIME API führt Aufgaben wie den Lastausgleich von Anfragen und die Lastverteilung auf die einzelnen GPU-Knoten aus und vereinfacht so den Prozess der Bereitstellung von KI-Modellen als Dienste, um das volle Potenzial der Technologien auszuschöpfen.

Der AIME API Server wird kontinuierlich um neue Funktionen erweitert: Dazu gehören die Integration von Open-Source-Modellen, Streaming verschiedener Eingabe- und Ausgabemodalitäten sowie ein fortschrittliches Admin-Backend für eine effiziente Verwaltung.

Weitere Informationen zum AIME API Server finden sich hier:

Integrieren:
VLLM
OpenWeb UI
Llama Models
Mixtral Models
Flux Models
Stable Duffusion Models

AIME API Server

für die Inferenz von Modellen

Sie haben ein Deep-Learning-Modell, das in Ihrer Konsole oder einem Jupyter-Notebook läuft, und möchten es für Ihr Unternehmen verfügbar machen oder der Welt zugänglich machen? Der AIME API Server ist die einfache und skalierbare Lösung dafür. Er verwandelt Ihr Skript in eine sichere und robuste Web-API, die als Schnittstelle zu mobilen Geräten, Browsern und Desktop-Anwendungen dient.

Mit dem AIME API Server können Deep-Learning-Modelle (PyTorch, TensorFlow) über eine Job-Queue als API-Endpunkte bereitgestellt werden, die Millionen von Anfragen zur Modellinferenz bewältigen können.

Die Lösung basiert auf einer verteilten Serverarchitektur, bei der ein zentraler AIME API Server über eine Job-Queue mit einem skalierbaren GPU-Compute-Cluster kommuniziert. Dieser GPU-Cluster kann heterogen und an verschiedenen Standorten verteilt sein, ohne dass eine direkte Verbindung zwischen den Standorten erforderlich ist. Die Berechnung der Modell-Jobs erfolgt über sogenannte Compute Worker, die über eine sichere HTTPS-Schnittstelle mit dem AIME API Server verbunden sind. Dabei ist die physische Lokation der Compute Worker unabhängig vom API Server; sie benötigen lediglich eine Internetverbindung, um Jobs anzufordern und Ergebnisse zurückzusenden.

Auf diese Weise ermöglichen wir die einfache Entwicklung KI-basierter Softwareprodukte, indem lediglich ein Frontend erstellt werden muss, das mit der API verbunden ist. GPU-Worker-Knoten können sich flexibel und skalierbar anmelden, während das Load-Balancing zentral vom API Server übernommen wird.

Integriert in OpenWebUI, vLLM-ready

Datensouveränität und Datenschutz mit OpenWebUI- und vLLM-Integration

Um der steigenden Nachfrage nach datenschutzkonformen Integrationen von großen Sprachmodellen (LLMs), KI-Agenten und RAG-Lösungen gerecht zu werden, hat AIME das OpenWebUI-Framework um eine AIME API-kompatible Schnittstelle erweitert. Nutzen Sie OpenWebUI als modernes Chat-Frontend für LLMs, das vom AIME API-Server als skalierbares Backend unterstützt wird.

Damit können Sie Ihre eigene private Version eines ChatGPT-ähnlichen Sprachmodells betreiben – mit vollständiger Datensouveränität, ohne Kompromisse bei Leistung oder Funktionalität. Dies ermöglicht den sicheren Einsatz großer Sprachmodelle in Übereinstimmung mit höchsten Datenschutzstandards, bei gleichzeitig voller Kontrolle über Ihre Daten. Sie können dabei aus der Vielzahl von Sprachmodellen wählen, die vLLM unterstützt.

Betrieben werden kann OpenWebUI entweder als On-Premise-Lösung auf Ihrer eigenen Hardware (gerne auch bei uns gehostet) oder in Verbindung mit unseren DSGVO-konformen GPU-Cloud-Angeboten.

AIME MLC

AIME MLC

Das Deep Learning Framework Management System

Der AIME Machine Learning Container Manager (AIME MLC) ist ein Framework, das die Bereitstellung und Verwaltung von Deep-Learning-Umgebungen auf Basis von Docker deutlich vereinfacht. Notwendige Bibliotheken, GPU-Treiber und Betriebssystem-Bibliotheken für verschiedene Versionen von Deep-Learning-Frameworks werden in vorgefertigten Docker-Containern gebündelt und können mit nur einem einzigen Befehl gestartet werden. Dies bietet Forschern und Entwicklern maximale Flexibilität, insbesondere beim Experimentieren mit unterschiedlichen KI-Modellen.

AIME MLC erleichtert die Arbeit mit Deep-Learning-Frameworks wie TensorFlow und PyTorch und ist vielseitig für verschiedene Anwendungsbereiche der künstlichen Intelligenz einsetzbar. Anwender können Umgebungen individuell anpassen, z. B. durch die Auswahl bestimmter CUDA-Versionen, Treiber, Betriebssystem- und Python-Bibliotheken. So lassen sich Konfigurationen gezielt für spezifische Projekte oder Hardware-Setups definieren und schnell zwischen verschiedenen Projekten oder Benutzern wechseln.

AIME Software BG
AIME MLC
NVIDIA
AMD EPYC
TENSORFLOW
PyTorch

AIME ML Container Manager

für Training und Inferenz von KI-Modellen

Der Container Manager ist besonders nützlich für die KI-Forschung und -Entwicklung, Unternehmenslösungen im KI-Bereich sowie für alle Anwendungen, die eine intensive Nutzung von GPUs erfordern, wie z. B. das Training von KI-Modellen.

Ein zentraler Vorteil von AIME MLC ist die nahtlose Integration in Hochleistungs-GPU-Umgebungen, wie sie von der AIME Cloud-Infrastruktur bereitgestellt werden. Dies macht es besonders effektiv für Anwendungen mit hohen Rechenanforderungen, z. B. das Training von Deep-Learning-Modellen auf Multi-GPU-Systemen. Das Framework ermöglicht eine effiziente Ressourcenverteilung und -verwaltung, wodurch Leistung und Skalierbarkeit optimiert werden.

AIME-Server und -Workstations werden standardmäßig mit dem vorinstallierten AIME ML Container Manager ausgeliefert. Durch die Integration mit den Hochleistungs-GPU-Cloud-Diensten von AIME bietet er eine robuste Infrastruktur, um Deep-Learning-Projekte und Frameworks schnell einzurichten, zu beschleunigen und nahtlos zwischen ihnen zu wechseln.

Der AIME ML Container Manager erleichtert Entwicklern den Arbeitsalltag, da sie sich nicht mehr mit den typischen Problemen bei der Installation von Framework-Versionen auseinandersetzen müssen.

1

Schritt 1: Konfiguration

Melden Sie sich über ssh oder Remotedesktop bei Ihrer dedizierten Instanz an. Alles ist bereits installiert und dank des AIME ML-Containersystems kann Ihr bevorzugtes Deep Learning-Framework sofort mit einem einzigen Befehl konfiguriert werden:

> mlc create my-container Pytorch 2.5.0

2

Schritt 2: Beginnen Sie zu arbeiten!

Ihr Deep-Learning-Framework ist einsatzbereit. Sie können jetzt mit der Entwicklung, dem Training oder der Bereitstellung Ihres Modells beginnen, z. B. als AIME-API-Worker, um Ihre Anwendung zu skalieren!

> mlc open my-container
AIME Benchmarking Suite

AIME Benchmarking Suite

Leistungsanalyse mit umfassenden Benchmarking-Tools

Als Hard- und Softwareunternehmen hat AIME eine Suite von Benchmarking-Tools entwickelt, um die KI-Leistung in verschiedenen Hard- und Softwarekonfigurationen zu bewerten und zu optimieren.

Die AIME Benchmarking Suite liefert detaillierte Einblicke durch:

  • GPU-Benchmarking: Von der RTX 3090 bis zu den neuesten H200-Modellen.
  • Bewertung von KI-Modellleistung: Analyse von Inferenz und Training auf unterschiedlichen Konfigurationen und GPUs mithilfe gängiger Open-Source-KI-Modelle.
  • Framework-Tests: Benchmarking von PyTorch und TensorFlow auf Multi-GPU-Setups, voll kompatibel mit NVIDIA CUDA und AMD ROCm.

Zusätzlich bieten wir ein spezielles Benchmarking-Tool für den AIME API Server an. Dieses Tool ermöglicht es, die Leistung der angeschlossenen KI-Modelle (GPU-Worker) zu testen, zu überwachen und zu vergleichen. So können KI-Deployments gezielt optimiert werden, um maximale Effizienz und Zuverlässigkeit sicherzustellen.

Die gewonnenen Erkenntnisse fließen direkt in unsere Beratungs- und Optimierungsleistungen ein, sodass unsere Kunden fundierte Entscheidungen über ihre Hard- und Software-Konfigurationen treffen und eine optimale Leistung für ihre KI-Workloads erzielen können.

Erfahren Sie mehr über unsere Benchmark-Ergebnisse in unseren praxisnahen Blog-Artikeln, die wir regelmäßig zu aktuellen Open-Source-KI-Modellen veröffentlichen, zum Beispiel zu:

Kontaktieren Sie uns

Wenn sie Fragen haben rufen Sie uns an oder senden Sie uns eine E-Mail. Wir helfen Ihnen gerne bei der Suche nach der am besten geeigneten Rechenlösung.

  • AIME GmbH
    Marienburger Str. 1
    10405 Berlin
    Deutschland