West Palm Beach, Florida, 12. Mai 2026 – Vultr, das weltweit größte private Unternehmen für Cloud-Infrastruktur, hat in Zusammenarbeit mit SUSE und Supermicro ein strategisches Architekturkonzept vorgestellt. Es hilft Unternehmen dabei, die Komplexität für die Bereitstellung und den Betrieb von KI-Workloads in verteilten Umgebungen zu bewältigen.
KI rückt immer näher an den Ort der Datenerzeugung, von Fertigungshallen bis hin zu Ladengeschäften. Daher stehen Unternehmen vor erheblichen Herausforderungen in Bezug auf Latenz, Kosten und betriebliche Konsistenz. Die strategische Partnerschaft bietet nun eine nahtlose Cloud-to-Edge-Pipeline, die hochleistungsfähige Hardware, lokalisierte Cloud-Infrastruktur und einheitliches Kubernetes-Management integriert.
Drei Schichten für KI
Für Echtzeit-KI am Edge ist es nicht praktikabel, alle Daten an eine zentrale Cloud zu senden. Die gemeinsame Lösung gliedert die Infrastruktur in drei Ebenen:
Cloud und Near-Edge – Unternehmen können regionale, auf Kubernetes basierende KI-Cluster näher an ihren Nutzern bereitstellen, indem sie die 33 globalen Cloud-Rechenzentrumsregionen von Vultr nutzen. Mithilfe der Cluster API (CAPI) können Teams Umgebungen programmgesteuert replizieren und skalieren. Dabei lassen sich hochleistungsfähige NVIDIA-GPUs für die Inferenz einsetzen, wenn lokale Edge-Kapazitäten überlastet werden.
Metro Edge – Das umfangreiche Portfolio an CPU- und GPU-fähigen Edge-Servern und -Geräten von Supermicro wurde für vielfältige Edge-Umgebungen mit extrem niedriger Latenz und geringem Stromverbrauch entwickelt. Damit lässt sich eine individuelle Hardware- und Softwarelösung aufbauen. Dank der engen Partnerschaft von Supermicro und SUSE wurden diese Systeme mit SUSE Linux Enterprise Server und SUSE Kubernetes Engine (RKE2 und K3s) validiert, um verteilte Agenten und Inferenz auf Vultr bereitzustellen und zu orchestrieren. Die Systeme verarbeiten Echtzeit-Workloads wie Computer Vision und Sensordaten direkt an der Quelle.
Steuerungsebene – Um Tausende von Standorten ohne manuellen Eingriff zu verwalten, ermöglicht SUSE Edge (mit SUSE Rancher Prime und Fleet) einen Git-Ops-gesteuerten Workflow über Cloud- und verteilte Edge-Umgebungen hinweg. In Kombination mit SUSE AI lässt sich gewährleisten, dass der gesamte Software-Stack, einschließlich Sicherheitsrichtlinien, Modellaktualisierungen und Konfigurationen, vom zentralen Rechenzentrum bis zu den Edge-Geräten konsistent bleibt. Für industrielle Systeme erweitert SUSE Industrial Edge dieses Modell, um private Vor-Ort-Bereitstellungen mit einer tieferen Integration in Betriebsumgebungen zu unterstützen.
„In der nächsten KI-Phase sind Datenhoheit und geografische Nähe die kommenden Herausforderungen“, sagt Kevin Cochrane, Chief Marketing Officer bei Vultr. „Durch die Kombination unserer globalen Reichweite mit regionaler GPU-Beschleunigung helfen wir Unternehmen dabei, ihre primären Cloud-Regionen direkt bis an den Edge zu erweitern. Unabhängig davon, wo Daten entstehen, stellt diese Partnerschaft sicher, dass die souveräne Infrastruktur zu ihrer Verarbeitung bereits vorhanden und skalierbar ist.“
Rhys Oxenham, Vice President und General Manager für KI bei SUSE, ergänzt: „Der hochskalierte Betrieb ist die größte Hürde im Edge-Ökosystem. Durch die Nutzung des kombinierbaren und verteilten Hybrid-Infrastrukturmodells von SUSE setzen wir SUSE AI auf SUSE Edge auf. So stellen wir die Automatisierung bereit, die zur Implementierung von Modellen, Updates und Sicherheitsrichtlinien in der gesamten Architektur erforderlich ist. Gemeinsam mit unseren Partnern realisieren wir ein wirklich dezentrales, verwaltbares KI-System für moderne Unternehmen.“
„Da Unternehmen die Intelligenz immer näher an den Ort bringen, an dem Daten entstehen, wird der Edge von einer Infrastruktur zu einem operativen System“, so Keith Basil, Vice President und General Manager für Edge bei SUSE. „SUSE Edge bietet eine einheitliche Grundlage für Cloud- und verteilte Umgebungen. Mit Vultr-Infrastruktur und den speziell entwickelten Plattformen von Supermicro erweitert SUSE Industrial Edge dieses Modell auf Vor-Ort-Bereitstellungen. So können Unternehmen von Erkenntnissen zu Echtzeitmaßnahmen übergehen.“
„Der Edge ist eine anspruchsvolle Umgebung, die Hardware erfordert, welche auf Echtzeit-Ausfallsicherheit und thermische Effizienz ausgelegt ist“, erklärt Vik Malyala, President und Managing Director EMEA sowie Senior Vice President für Technologie und KI bei Supermicro. „Unsere Systeme bewältigen intensive KI-Inferenz-Workloads an Standorten, an denen herkömmliche Rechenzentren nicht möglich sind. In Zusammenarbeit mit Vultr und SUSE bieten wir eine Lösung, welche die Lücke zwischen Edge-Hardware und einem nahtlosen Cloud-Erlebnis schließt.“
Im Rahmen der Partnerschaft werden die Unternehmen zeigen, wie die Konvergenz von Kubernetes und spezialisierter Edge-Hardware groß angelegte KI-Implementierungen erstmals praktikabel macht.