Berlin hat alles, was eine richtige Großstadt braucht: Millionen Einwohner, eine damit hoffnungslos überforderte Verwaltung („Wahlwiederholung“ hat in Berlin nichts mit Telefonieren zu tun), ein Wappentier (Tanzbär auf Ecstasy), ein Motto (arm, aber sexy), zudem nach 14 Jahren Bauzeit und mindestens ebenso vielen Skandalen einen neuen Flughafen – und jetzt sogar eine eigene Google-Cloud-Region. Diese heißt übrigens genauso wie der Skandalflughafen. Nein, nicht Willy Brandt, sondern Berlin-Brandenburg.
„Der Berliner hat keine Zeit“, schrieb einst Kurt Tucholsky, der seinen Mit-Berlinern wie auch umliegenden Mitnichten-Berlinern zu Zeiten der Weimarer Republik skalpellscharf auf die Finger und aufs Maul schaute, um dann zu ergänzen: „Der Berliner ist meist aus Posen oder Breslau und hat keine Zeit.“ Zwar mag das Berliner Tempo heute mitunter eher zwischen Lastenfahrrad und parlamentarischer Sommerpause changieren, der Migrationshintergrund jedoch blieb erhalten: Hunderttausende Berliner kommen ursprünglich aus der Türkei, Polen, ehemaligen Sowjetstaaten oder gar aus komplett fremdartigen Kulturkreisen wie dem Schwabenland.
Einen Migrationshintergrund hat zunehmend oft auch die IT des Berliners: Sie ist aus den USA eingewandert, haust in mächtigen Rechenzentren sogenannter „Hyperscaler“ und nennt sich „Cloud“. Der Name rührt daher, dass unsere Vorfahren die Welt jenseits des vertrauten Netzwerk-Territoriums, also das „Neuland“ des Internets, als Wolke an ihre Höhlenwände malten.
Cloud trifft auf Stirnrunzeln
„Du spukst und beißt und bist so böse,
und runzelst Stirn und Augenbraun –
und wenn ich dir das Schuhband löse,
willst du mir nicht ins Auge schaun“, reimte Tucholsky 1918 in einem Liebesgedicht an seine spätere Ehefrau Mary Gerold. Auch die Liebesbeziehung der Deutschen zur Cloud begann mit gerunzelter Stirn und erhobener Braue: Es spukte die Sorge um Datenschutz und Datenhoheit, und viele reagierten böse auf den Vorschlag, eigene Daten in ferne US-Rechenzentren ziehen zu lassen. Auch verkraftete damals manche Applikation die Cloud-bedingten Latenzen nicht und verweigerte dann bissig den Dienst.
Längst haben die Hyperscaler reagiert und in aller Welt Standorte („Regionen“) aus dem Boden gestampft. Hierzulande stampft man bevorzugt in und um Frankfurt. Denn dort steht mit dem DE-CIX Europas größter Internetknoten – ihm möchte man als RZ-Betreiber möglichst nah sein, um zärtlich das verknotete Schuhband der Latenz zu lösen. Heute gibt es im Raum Frankfurt so viele Rechenzentren, dass der örtliche Energieversorger bald nicht mehr weiß, wo ihm der Kopf steht, und Haupttreiber des RZ-Wachstums sind die Cloud-Provider.
Bewölkungsbremse
„Wir sind nicht mehr Posen, noch nicht Amerika,
sondern stehen inmitten
beider in emsiger Leere da,
halten den Verkehr auf und uns für sehr fortgeschritten“, dichtete Tucholsky mit Blick auf das Berlin der 1920er-Jahre. Was den Datenverkehr des Cloud-Fortschritts lange ausbremste, war neben Datenschutzsorgen der US-amerikanische Cloud Act von 2018: Er verpflichtet US-Provider, dortigen Behörden Zugriff auf Daten zu gewähren, selbst wenn diese außerhalb der USA – etwa in europäischen Cloud-Regionen – gespeichert sind. Hier befürchtete und befürchtet manch einer Schnüffelei seitens der US-Behörden oder gar -Wettbewerber. Heute gibt es endlich ein EU-US Data Privacy Framework, frisch von der EU-Kommission abgesegnet. Ob es trotz Kritik einer Prüfung durch den EU-Gerichtshof standhält, muss sich erst noch zeigen, und das wird wohl noch eine Weile dauern – BER lässt grüßen.
Ungeachtet dessen ist die Nachfrage nach Cloud-Services heute in Deutschland groß. Die einstmals hochgezogene Augenbraue der Berliner und umliegender Mitnichten-Berliner ist verbreitet schulterzuckender Akzeptanz gewichen, gilt die Cloud doch vielen als Synonym für Fortschritt. Für die rechtskonforme Datenverarbeitung haben die Cloud-Provider EU-Rechenzentren und Vertragsklauseln parat, und für besonders sensible Daten verweist man auf Verschlüsselungsverfahren, bei denen der Kunde die Schlüssel selbst aufbewahrt.
Und so orakelte kürzlich der IT-Branchenverband Bitkom auf Basis einer Umfrage, in fünf Jahren werde die Mehrheit hiesiger Unternehmen den Großteil (!) ihrer IT-Anwendungen aus der Cloud beziehen. Derzeit nutzen laut der Umfrage 89 Prozent der Unternehmen die Cloud zumindest auf die eine oder andere Weise; die Hälfte (54 Prozent), so die Umfrage, wolle in diesem Jahr in Cloud-Lösungen investieren, zwei Drittel (69 Prozent) planten dies für 2024 oder später.
Manchem Cloud-Verfechter geht das zu langsam: „Genauso innovativ, wie wir auf der einen Seite sind, genauso zurückhaltend sind wir aktuell, wenn es darum geht, die Digitalisierung in Deutschland voranzutreiben“, mahnt Bernd Wagner, Geschäftsführer von Google Cloud in Deutschland, auch mit Seitenblick auf die aus US-Perspektive leidige Dominanz des Themas Datenschutz in Europa, etwa in Form des Schrems-II-Urteils oder der EU-Datenschutz-Grundverordnung (DSGVO).

Er betont Googles Rolle als Security-Vorreiter: „Sicherheit ist ein Muss für uns, wir sind der Pionier in Sachen Cyberdefense. Wir haben auch als Erster das Thema Zero Trust entwickelt.“ In der Tat implementierte Google bereits 2009 eine Security-Architektur nach dem Prinzip „Vertraue nimmer, verifiziere immer!“, noch bevor Forrester-Analyst John Kindervag den Begriff im Jahr 2010 als Ansatz für die Cloud-Sicherheit bekannt machte.
Frisch zugezogen
Jetzt gesellt sich Google zur Berliner Immigrantenschar: Der US-Hyperscaler eröffnet nach der Region Deutschland, etabliert 2017 im Raum Frankfurt, eine zweite deutsche Region namens Berlin-Brandenburg.
„Mit unseren beiden Cloud-Regionen“, so Bernd Wagner, „stellen wir für Deutschland [eine] Cloud nach deutschen Maßstäben zur Verfügung.“ Googles Zweitregion schafft eine innerdeutsche Backup- und Failover-Option für Anwender, die ihre Services aus Frankfurt beziehen – und umgekehrt. Relevant ist dies insbesondere für Unternehmen und Behörden, die aus regulatorischen Gründen gezwungen sind, ihre Daten in Deutschland vorzuhalten – oder denen schlicht wohler dabei ist, das soll’s ja geben.
Deutschland schließt zu Italien auf
Laut Wagner ist Deutschland damit nach Italien das zweite europäische Land, in dem Google zwei Regionen unterhält. Auf die Frage, wieso allein Italien bislang dieses Privileg hatte, antwortete Google lapidar: „Zwei Regionen in einem Land (zum Beispiel in Italien, Indien oder Kanada) helfen den Kunden bei der Planung der Geschäftskontinuität und/oder bei der Erfüllung von Disaster-Recovery-Anforderungen.“ Offenbar wäre es also auf der Stiefel-Halbinsel schwierig, bei Störungen auf eine Google-Region in einem Nachbarland auszuweichen, ohne dass Anwender latenzbedingt die Stirn runzeln. Oder was der Italiener halt so macht, wenn was nicht klappt.
Zur Vermeidung unschöner Stirnfalten sind Google-Regionen ab Werk hochverfügbar konzipiert: „Eine Region“, erklärt Wagner, „ist immer eine verteilte Anlage von mindestens zwei verteilten Rechenzentrumskernen, die physisch soweit voneinander entfernt sind, dass man immer einen parallelen Betrieb gewährleisten kann.“ Das heißt: mehrere Kilometer getrennt, damit etwa eine Überschwemmung oder ein Erdbeben nicht beide Rechenzentren gleichzeitig lahmlegt.
Welchen Latenzvorteil eine Google-Region in Vorortnähe bringt, erläutert Bernd Wagner – in Berlin geradezu wagemutig – am Beispiel eines Flughafens: „Stellen Sie sich vor, Sie fliegen mit der Lufthansa von hier in den Urlaub nach Fernost und müssten in jedem Land einen Stopp machen und umsteigen. Das passiert oftmals mit vielen Datenpaketen, weil Hyperscaler versuchen, ihr Netzwerk zu entlasten“, so Wagner. „Das vermeiden wir, indem dieser Datenverkehr ununterbrochen in unserem Netzwerk bleibt.“ Sprich: Google scheut in seinem Backbone die Internet Exchanges mit Datenübergabe an fremde Weitverkehrsnetze, um wertvolle Latenz-Millisekunden zu sparen. Denn Verspätungen sind im Datenverkehr mindestens so ärgerlich wie im Flugbetrieb. Oder beim Flughafenbau.
Clouds für das KI-Zeitalter
Resiliente Rechenzentren mit hochverfügbarer, latenzarmer Anbindung sind im Geschäftsalltag schon längst mehr als nur „nice to have“. An Bedeutung gewinnen sie dieser Tage auch dadurch, dass immer mehr Unternehmen – aktuelles Beispiel: Mercedes-Benz – Prozesse in die offenen Arme künstlicher Intelligenz legen. Training und Nutzung von KI-Modellen erfordern dabei schnellen Zugriff auf sehr viel Rechenleistung.
„Das neue Zeitalter von AI [Artificial Intelligence, also KI] hat begonnen“, postuliert auch Google-Mann Wagner. Daten erachtet er dabei als wesentlich, „um überhaupt künstliche Intelligenz und generative AI zum Leben zu erwecken.“ KI-Nutzung, betont er, „macht aus unserer Sicht gerade für Deutschland mit unserer Gesetzgebung und [unserem] Datensicherheitsanspruch nur Sinn mit Sicherheit und Souveränität.“ Sprich: Der Kunde soll, ja: muss die Kontrolle über seine Interna behalten. Schließlich will kein Unternehmen seine Firmengeheimnisse als KI-Trainingsdaten für die Konkurrenz verwendet sehen.
Datensouveränität und KI
Für den datensouveränen Business-Einsatz von KI baut Google, wie auch andere Branchengrößen (siehe hier), auf unternehmensspezifische KI-Modelle. Diese basieren auf riesigen vortrainierten Basismodellen (Foundation Models), wenden deren Algorithmen aber innerhalb abgeschotteter Umgebungen für das proprietäre Training auf Daten des jeweiligen Unternehmens an.
„Wir haben es geschafft, mit Vertex AI eine geschlossene Umgebung zu bauen, die ausschließlich dem Kunden zur Verfügung steht“ sagt Bernd Wagner. „Wir trainieren die Modelle auf unseren Daten, stellen diese Modelle zur Verfügung, und der Kunde kann sie modifizieren.“ Einmal modifiziert, so Wagner, gehe das Modell in das Eigentum des Unternehmens über und niemand außerhalb des Kundenszenarios habe Zugriff auf Modell oder Daten.
Um für Behörden und datensensible Unternehmen einen etablierten lokalen Partner vorweisen zu können, kooperiert Google mit T-Systems: Der IT-Dienstleister aus der Telekom-Ecke betreibt gemeinsam mit Google eine „Sovereign Cloud“. Wettbewerber Microsoft beschritt vor Jahren schon mal einen ähnlichen Weg: Bei der„Microsoft Cloud Deutschland“ fungierte T-Systems als Datentreuhänder. Der Konzern aus Redmond stellte das Angebot aber Ende 2018 wieder ein und vermarktet seither ausschließlich eigene Cloud-Services. Begründung: Auch die Azure-Cloud sei DSGVO-konform.
T-Systems jedenfalls verkündete zum Start der neuen Google-Region, dass mit dem Berliner Startup GovMarket ein „GovTech“-Unternehmen (Government Technology) auf die Sovereign Cloud migriert: GovMarket betreibt einen Online-Marktplatz mit Lösungen für die öffentlichen Hand. Google Cloud selbst kann längst auf weit namhaftere deutsche Referenzkunden verweisen, darunter die Lufthansa. Die Fluglinie plant, in der Google Cloud einen digitalen Zwilling ihres Flugbetriebs zu erstellen, um bei Störungen Ausweichabläufe zu beschleunigen.
Womit wir wieder beim Flughafen landen. Die Berliner mussten 14 Jahre auf die BER-Fertigstellung warten. Zu hoffen ist, dass ihre neue Cloud-Region deutlich schneller abhebt, aber bitte – trotz des Hickhacks um DSGVO, Cloud Act und transatlantisches Datenabkommen – tatsächlich nach europäischen Maßstäben an Datensicherheit und Datensouveränität. Nur so kann das Vorhaben wirklich gelingen.
Fanden Berliner zu Tucholskys Zeiten etwas wirklich gelungen, nannten sie es „dufte“, „knorcke“ oder „’ne Wolke“. Das Gelingen des Verschmelzens von hochverfügbarer Rechenpower, schnellem Ressourcenzugriff und konsequenter Umsetzung deutscher und europäischer Ansprüche an die Datenhoheit wird darüber entscheiden, ob die Berliner eines Tages sagen können: „Die Cloud is‘ ’ne Wolke!“
***
Hat Ihnen dieser Text gefallen? Dann erzählen Sie doch einem Menschen davon, den das Thema ebenfalls interessieren könnte! Denn liebevoll von Hand erstellte Inhalte verbreiten sich am besten per Mundpropaganda.
Cartoon: (c) Wolfgang Traub
Du muss angemeldet sein, um einen Kommentar zu veröffentlichen.