Wenn sich zwei IT-Konzerne ganz, ganz lieb haben, dann schlüpfen sie unter eine gemeinsame Decke, und ein paar Monate später erblicken dann kleine KI-Agenten das Licht der Welt.
Das war die Kurzfassung. Die Langfassung: Im Juli dieses Jahres konnte HPE endlich den Abschluss der Akquisition von Juniper Networks verkünden, mit der das IT-Schwergewicht schon seit Januar 2024 schwanger gegangen war.
Der Grund für die schwere Geburt des 14-Milliarden-Dollar-Deals: Das US-Justizministerium hatte eine Anti-Trust-Klage eingereicht, um eine marktbeherrschande Stellung des geplanten Konzerns – insbesondere im WLAN-Markt – zu verhüten. Erst durch Zugeständnisse konnte HPE den Rechtsstreit beilegen. Und so wurde aus HPE Aruba Networking und Juniper Networks die neue Konzernsparte HPE Networking geboren.
HPE Discover Barcelona
Auf seiner Europakonferenz HPE Discover Barcelona Anfang Dezember konnte Antonio Neri, President and CEO des Konzerns (Bild oben), von den Fortschritten des neuen Netzwerkbusiness berichten. Genauer: berichten lassen, denn er überließ die Keynote-Bühne hierfür Rami Rahim. Der vormalige CEO von Juniper Networks ist bei HPE nun Executive Vice President sowie President & General Manager von HPE Networking. (Doch, in den verschachtelten Hierarchiestrukturen eines US-Konzerns kann man Vizepräsident und Präsident gleichzeitig sein.)
Nachdem Antonio Neri den Boden bereitet hatte – HPE werde, selbst angesichts eines Weltmarkts voller gescheiterter KI-Projekte, mittels Agentic AI (künstliche Intelligenz, die selbsttätig Aktionen auslösen kann) und Physical AI (KI-gestützten Robotern) „die Business-Transformation vorantreiben“ und durch die Vereinigung von Aruba und Juniper „das beste Networking auf dem Planeten schaffen“ –, berichtete Rami Rahim vom aufblühenden Netzwerkgeschäft.

Leitet nun das Netzwerk-Business von HPE: Ex-Juniper-Networks-CEO Rami Rahim
„Wir stehen vor einer riesigen Chance, unseren Kunden bahnbrechende Lösungen anzubieten und, ehrlich gesagt, den Status quo in der Netzwerkbranche durchzurütteln“, sagte Rahim mit Seitenblick auf Cisco, den 800-Pfund-Gorilla der Netzwerkerei, den HPE nun von der Waage schubsen will.
Netzwerke wichtig wie nie
All das plant HPE in unseren KI-begeisterten Zeiten, in denen das Netzwerk laut Rahim so wichtig ist wie nie zuvor: „Eine GPU ist perfekt für ein großartiges Gaming-Erlebnis. Aber 100.000 GPUs, die zusammenarbeiten und über ein leistungsstarkes Netzwerk mit geringer Latenz verbunden sind – da sprechen wir dann darüber, neue Wege zu finden, um Heilmittel für tödliche Krankheiten zu entdecken.“ (In den Keynotes von IT-Ausrüstern dient KI immer vorrangig dazu, tödliche Krankheiten zu heilen oder den Unternehmen neue Märkte zu eröffnen, hingegen nie dazu, aus Bequemlichkeit immer mehr Eigenverantwortung an Chatbots auszulagern oder massenweise AI Slop – schnell hingerotzten multimedialen KI-Müll – zu produzieren. Ich weiß auch nicht, wie’s kommt.)
„Die vereinte Stärke von HPE und Juniper versetzt uns in die einzigartige Lage, diese Herausforderung zu meistern“, postulierte Rahim. Den Weg dorthin sollen „Self-driving Networks“ weisen. Gemeint sind Netzwerke, die sich mittels agentischer KI selbst konfigurieren, optimieren und notfalls auch reparieren.
Rahim unterschied zwei Bereiche: KI für Netzwerke und Netzwerke für KI. Im ersten Bereich verfüge HPE Networking über gleich zwei führende Plattformen für den KI-Agenten-gestützten IT-Betrieb (AIOps): HPE Aruba Central und Juniper Mist. (Doch, in den verschachtelten Marketing-Strukturen eines US-Konzerns kann ein Produkt „Mist“ – Englisch für „feiner Nebel“ – heißen, ohne dass je ins Blickfeld gerät, dass der Produktname für den deutschsprachigen Markt Mist ist.) AIOps ermögliche es, die Zahl der Trouble-Tickets, Vor-Ort-Wartungseinsätze und manuellen Eingriffe in den Netzwerkbetrieb auf ein Zehntel zu senken, so der HPE-Manager.
Koexistenz zweier AIOps-Plattformen
Gleich zwei parallel existierende AIOps-Plattformen zu haben, stellt für einen IT-Anbieter zunächst einmal eine Herausforderung dar – es droht die Qual der Wahl. Deshalb hob Rahim die jeweiligen Stärken beider Plattformen hervor: „Aruba Central glänzt bei Private-Cloud- und On-Prem-Deployments sowie bei Virtual-Private-Cloud-Architekturen, während Mist speziell für die Cloud entwickelt wurde“, erläuterte er. Der Vorteil: „Gemeinsam können wir jede nur denkbare Bereitstellungsoption unterstützen.“

HPE hat jetzt mit Aruba Central und Juniper Mist gleich zwei AIOps-Plattformen
Zudem verfüge HPE nun über „einen der größten Data Lakes der Branche, um die nächste Generation von Netzwerkeinsichten zu schaffen.“ Das bedeutet aber nicht, dass der Datensee auch von Anfang an gleich gut geeignet ist, die jeweiligen KI-Gärten der beiden Frischvermählten zu bewässern.
Fruchtbare Zusammenarbeit
Jedenfalls betonte HPEs neuer Netzwerkchef immer wieder, wie fruchtbar die Zusammenarbeit der beiden Netzwerkorganisationen in den wenigen Monaten seit ihrer Vereinigung bereits war. Er bemühte dafür das Bild der „cross-pollination“, auf Deutsch „Fremdbestäubung“. Ihr wisst schon, das ist, wenn die Bienchen auf die Blümchen fliegen und dann … ähm … der Storch ein Baby bringt. Oder so.
„Wir übertragen per Fremdbestäubung Funktionen der einen Plattform auf die andere“, klärte Rahim das Publikum auf. „Und irgendwann wird der Unterschied zwischen den beiden Plattformen verschwinden.“
Hier habe man bereits große Fortschritte erzielt. So fließen laut Rahim zum Beispiel Mist Marvis Actions – das sind Junipers KI-Agenten- und KI-Assistenzfunktionen – in die Netzwerkmanagement-Plattform Aruba Central ein; umgekehrt wiederum wandern das KI-gestützte Client-Profiling und die AI-Insights-Funktionalität von Aruba hinüber auf die Mist-Plattform. Hier, so Rahim, sei man „nur Wochen von der allgemeinen Verfügbarkeit entfernt“.

KI-Agenten wie Marvis sollen dem IT-Team den Alltag erleichtern – letztlich bis hin zum autonomen Netzwerk
Die Folge, so der bestäubungsbegeisterte Netzwerker: „Mit agentenbasierten KI-Funktionen wie Marvis Minis, die nun im Rechenzentrum und in Weitverkehrsnetzwerken zum Einsatz kommen, bringen wir datengestützte Einsichten und Automatisierung in jeden Teil Ihres Netzwerks, vom Edge bis zur Cloud.“
Neu ist die Integration von Apstra Data Center Director (aus der Juniper-Historie) mit HPE OpsRamp. Hier verschmelzen also KI-gestütztes Netzwerkmanagement und ebenfalls KI-gestütztes IT-Operations-Management. Apstra liefere OpsRamp „echte AIOps-Einsichten“, betonte Rahim, also nicht nur nackte Alerts. Dies ebne den Weg für ein Reasoning (KI-gestütztes Schlussfolgern) vom Netzwerk bis zu den Servern und Speichersystemen.
Auch auf Hardwareseite soll zusammenwachsen, was nun zusammengehört: Nächstes Jahr soll ein WLAN Access Point auf den Markt kommen, der sowohl das Management per Mist als auch per Aruba Central unterstützt.

KI stellt hohe Anforderungen an Netzwerke
Netzwerke für KI-Infrastukturen
Zum zweiten großen Teilbereich – Netzwerke für KI – stellte Rahim eine Reihe von Neuerungen aus dem Hause Juniper – sorry: HPE Networking – vor. Der neue Switch QFX5250 dient dazu, GPUs innerhalb eines Rechenzentrums zu vernetzen, und zwar nicht per Infiniband, sondern auf Basis des UET-Standards (Ultra Ethernet Transport), einer extra für KI entwickelten Ethernet-Variante. Die Switches, als Marktneuheit bestückt mit Broadcoms Tomahawk-6-Chips, erzielen dabei laut HPE einen branchenweit unerreichten Gesamtleistung von 1.024 Tbit/s.

Der neue HPE Juniper Networking Switch QFX5250 glänzt mit über 1.000 Tbit/s Durchsatz
Der Switch ist ein heißes Eisen. Im Wortsinne. Deshalb muss er – wie künftig wohl mehr oder weniger alles im KI-Rechenzentrum – mit Flüssigkeit gekühlt werden. Hier, so Rahim, greife man auf HPEs Kompetenz beim Thema Flüssigkeitskühlung zurück. Diese hatte der Konzern 2019 mit der Akquisition des Supercomputing-Anbieters Cray ins Haus geholt.
Sehr viel KI-Betrieb (Inferenz) wird, da sind sich Branchenkenner einig, künftig nahe an den Datenquellen (am Edge) erfolgen. Auch für diesen Einsatzzweck ist der ebenfalls neue Multiservice Edge Router HPE Juniper Networking MX301 konzipiert. Er packt 1,6 Tbit/s Durchsatz auf nur eine Höheneinheit im Rack und unterstützt 400-Gbit/s-Ethernet‑Verbindungen.
Weitere Neuerungen betrafen Kooperationen mit Nvidia und AMD. HPE erweitert seine gemeinsam mit Nvidia entwickelten AI-Factory-Lösungen um Juniper-Technik. Die Router-Familien MX und PTX sollen hochskalierbare High-Performance-Verbindungen innerhalb von AI Factories ebenso ermöglichen wie zwischen entfernten KI-Clustern oder Clouds.
Außerdem verkündete der Konzern, 2026 das branchenweit erste System auf Basis von AMDs KI-Rack-Scale-Architektur Helios mit Ethernet-Scale-up-Networking einzuführen. Helios beruht auf dem „Open Rack for AI“-Design aus Metas Open Compute Project (OCP). Das System soll auf eine Bandbreite von bis zu 260 TB/s und bis zu 2,9 Exaflops KI-Performance (4-Bit Floating Point) skalieren. Kurz: ein KI-Rechenzentrum „in a Box“ auf der Basis offener Standards.
Ausblick: Staubige Zeiten
In puncto Netzwerke für KI läuft es also bei HPE. Beim Thema KI für Netzwerke wird es spannend sein zu beobachten, wie schnell und effektiv HPE seine AIOps-Plattformen zusammenführt. Der Umstand, dass beide auf Microservice-Architekturen basieren, wird es laut Rami Rahim erleichtern, neue Funktionen schnell zeitgleich in beide Plattformen zu integrieren. Kurz: HPE will seine zwei AIOps-Angebote fremdbestäuben, dass es nur so staubt.
Warten wir also mal ab, bis sich der Staub gelegt hat. Dann wird sich zeigen, wie gut es den fleißigen Bienchen bei HPE Networking gelungen ist, blühende AIOps-Landschaften herbeizubestäuben.
Hat euch dieser Text gefallen? Dann erzählt doch einem Menschen davon, den das Thema ebenfalls interessieren könnte! Denn liebevoll erstellte Inhalte verbreiten sich am besten per Mundpropaganda.
Bildquelle: HPE Live-Stream von der HPE Discover Barcelona 2025
Du muss angemeldet sein, um einen Kommentar zu veröffentlichen.