„Wir haben da schon mal was für Sie vorbereitet.“ Dieser Satz ist nicht umsonst das Mantra aller Koch-Shows. Schließlich kann kein TV-Sender und auch kein Streaming-Kanal riskieren, dass Zuschauer gelangweilt wegzappen, weil der Fernsehkoch oder Bratpfannen-Influencer erst mal stundenlang Kartoffeln schält, Gemüse schnippelt oder auf Schnitzelfleisch herumhämmert. Wer also will, dass Menschen ihm ihre Aufmerksamkeit schenken, muss seine Zutaten wohlvorbereitet und wohlgeordnet parat haben. Sonst wird das nix.
Gleiches gilt für Projekte rund um das Hypethema künstliche Intelligenz (KI): 60 Prozent der KI-Projekte werden bis 2026 scheitern, und zwar aufgrund eines Mangels an passend vorbereiteten Daten, so Datenspezialist NetApp kürzlich bei einem Presseevent in München unter Berufung auf ein Gespräch mit Gartner-Analystin Roxane Edjlali.
„Da schon mal was vorzubereiten“, ist natürlich Aufgabe der Unternehmen, die KI-Projekte in Angriff nehmen wollen (hoffentlich auf Basis einer KI-Strategie und nicht, um „auch was mit KI zu machen“). NetApp jedenfalls möchte die KI-Köche nach Kräften unterstützen. In München stellte der Storage- und Daten-Management-Ausrüster dazu eine Reihe von Neuerungen vor, die er zuvor bei seiner Kundenveranstaltung „Insight 2025“ in Las Vegas präsentiert hatte.
Disaggregierter Speicher und KI-Daten-Engine
Neu ist vor allem die disaggregierte Speicherplattform AFX. Sie erlaubt es, Bausteine für Datenspeicher und Controller-Leistung separat anzubauen, wie man dies von HPEs Plattform Alletra MP her kennt, und skaliert laut Hersteller bis in den Exabyte-Bereich.
NetApp verspricht Hochverfügbarkeit, Multimandantenfähigkeit und Schutz für Unternehmensdaten. Zudem betont der Hersteller, Daten würden nahtlos zwischen den Ressourcen verschoben, wenn man Komponenten hinzufügt oder entfernt. Schließlich sei auch AFX Bestandteil von NetApps Ontap-Portfolio, das ein flexibles Datenmanagement in der Hybrid Cloud ermöglicht. Kurz: Mit NetApp kann man KI-Projekte überall in den Backofen schieben, ob im Unternehmensnetz, in der Cloud oder hybrid, also mal hier, mal dort.
Ein Bestandteil von AFX ist der DX50 Data Compute Node. Dieser hostet die Metadaten-Engine und weitere Services, so die ebenfalls neue AI Data Engine (AIDE). Während die Metadaten-Engine das Aufspüren von Daten erleichtern soll, dient AIDE dazu, KI-Datenpipelines zu koordinieren und mittels Vorgaben (Guardrails) und Kuratierung zu optimieren. So sollen sich Daten schneller zu leckeren Erkenntnissen und knusprigen KI-Agenten verarbeiten lassen.
Ransomware-Erkennung und DLP
Unabhängig von all den vor sich hin schmurgelnden KI-Gerichten hat NetApp nun noch weitere Leckereien auf seiner Speisekarte. Besonders spannend ist ein neues Zwei-Gänge-Menü aus dem Bereich Security: NetApp erweitert mit „Ransomware Resilience“ seine Erpressungstrojaner-Erkennung um das Aufspüren von Datenexfiltration (Data Leakage Prevention, DLP).
Dies ist ein sinnvolle Ergänzung zu NetApps traditioneller Anti-Ransomware-Küche. Schließlich ziehen heutige Erpresserbanden Unternehmensdaten gerne vor dem Zwangsverschlüsseln ab, um dann mit der Drohung, Interna zu veröffentlichen, den Druck im Ransomware-Schnellkochtopf zu erhöhen („Double Extortion“ genannt). Je früher also ein verdächtiges Rumpeln in der Speisekammer auffällt, desto besser.
Ebenfalls neu: Das Shift Toolkit – ursprünglich dafür gedacht, Migrationen von Microsofts Hypervisor Hyper-V auf VMware zu beschleunigen – erfuhr einen in Software gegossenen Sinneswandel: Angesichts der unbeliebten Preispolitik der VMware-Mutter Broadcom erleichtert das Toolkit es nun, schneller in umgekehrter Richtung zu migrieren – nicht nur hin zu Hyper-V, sondern wahlweise auch zu Red Hat, Oracle, Proxmox oder KVM. Rezept rückwärts, sozusagen.
Und zu guter Letzt hat NetApp seine Zusammenarbeit mit Google erweitert: Neben den bestehenden NetApp-Angeboten für Azure und AWS gibt es nun auch Google Cloud NetApp Volumes. Dies soll die Hybrid-Cloud-Datennutzung erleichtern, und zwar per globalem Namespace über lokale NetApp-Systeme und die Plattformen der drei bekanntesten Cloud-Imbissketten hinweg.
Vorsicht vor überkochender Milch!
Nun müssen die Maîtres d’Cloud und ihre KI-Sous-Chefs nur noch höllisch aufpassen, dass der Hype-Ofen nicht überhitzt. Denn derzeit kaufen sich die KI-Kochtopfhersteller gerne für Unsummen bei den KI-Köchen ein, die dann wiederum für Unsummen KI-Kochtöpfe erwerben. Wenn das weiter hochkocht, droht der KI-Hype überzuschäumen wie heiße Milch.
Für Unternehmen, die eine klare KI-Strategie verfolgen, muss das kein Nachteil sein. Denn derzeit bauen die KI-Größen Rechenzentren, als gäbe es kein Morgen. Ist das Hype-Soufflé einmal implodiert, dürfte man KI-Kochutensilien zum Schleuderpreis ergattern können. Meine Prognose: Nach dem nächsten Bubble Burst kann man günstig Daten braten.
Schalten Sie auch nächste Woche wieder ein! Denn dann geht es um die Frage: Wenn Daten das neue Öl sind, was wird in diesem Öl dann eigentlich gebrutzelt – und wer kontrolliert die Pfanne?
Hat euch dieser Text gefallen? Dann erzählt doch einem Menschen davon, den das Thema ebenfalls interessieren könnte! Denn liebevoll erstellte Inhalte verbreiten sich am besten per Mundpropaganda.
Bild (nicht KI-generiert): Dr. Wilhelm Greiner