von Jens Dittmer*, 26. September 2025
Die Cloud verändert, wie Software entwickelt und betrieben wird. Applikationen stecken dabei in virtuellen Containern, die ihre Software und Daten gegenüber anderen abgrenzen. Betriebsumgebungen, wie Kubernetes, steuern diese Container und organisieren sie so, dass die Applikationen automatisch bereitgestellt, verwaltet und skaliert werden. Diese Philosophie ist die konsequente Weiterentwicklung des in den 2000er-Jahren beliebt gewordenen Einsatzes virtueller Maschinen. Um die Vorteile der Cloud nutzen zu können, müssen Banken ihre Software zunächst „cloud-ready“ machen und dafür sorgen, dass künftige Entwicklungen „cloud-native“ passieren.
Sieben Anforderungen müssen erfüllt sein, damit eine für die Cloud angepasste Software als „cloud-ready“ gilt:
Was ein Cloud-Transformationsprojekt kompliziert macht, sind nicht zuerst die fachlichen Anforderungen, die die Applikationen zu erfüllen haben. Zwar entsteht dadurch ein umfassender Katalog an Kriterien. Der Anteil am Gesamtaufwand, um diese umzusetzen, liegt in den Projekten erfahrungsgemäß jedoch bei lediglich 30%. Alles andere ergibt sich durch nicht-fachliche Anforderungen, wie Regulatorik, Cyber-Sicherheit oder Service Level Agreements (SLA). Von der Verschlüsselung über ein IT-System für Rollen und Rechte bis hin zur „Disaster Recovery“ gibt es zahlreiche Vorgaben, die mitunter mit jeweils eigener Software umgesetzt werden. Diese muss folglich den gleichen Regeln genügen wie die fachlichen Applikationen.
Dabei wird häufig übersehen, dass sich diese zusätzlichen Anforderungen auf die gesamte Service-Architektur auswirken. Beispiel: „Disaster Recovery“. Regulatorisch vorgegeben ist, dass Bank-Systeme ausfallsicher in verschiedenen Zonen und Regionen betrieben werden müssen. Fällt eine Region aus, etwa wegen eines Hochwassers, muss die Plattform in einer anderen Region den Betrieb möglichst nahtlos fortführen (Geo-Redundanz). Die maßgeblichen Kennzahlen dafür lauten RPO (Recovery Point Objective) und RTO (Recovery Time Objective). Sie geben vor, in welcher Zeit und mit welchem Datenbestand im Katastrophenfall auf eine andere Region geschwenkt wird. RPO und RTO fließen deshalb mit in den Kriterienkatalog ein, dem alle Komponenten – insbesondere die Persistenz-Middleware – der gewählten Service-Architektur genügen müssen.
Im Betrieb hat sich bewährt, eine technische und eine fachliche Cloud-Umgebung vorzusehen, um betriebliche Vorgänge einheitlich zu normieren und gleichzeitig die bestehenden Möglichkeiten der Cloud-Provider nutzen zu können.
Die technische Umgebung umfasst dabei alles, was die Applikationen benötigen, um in der Cloud betrieben und administriert werden zu können. Dazu gehören Datenbanken, Netzwerkprotokolle, Schnittstellen wie REST-APIs – kurz: alles, was die Applikationen an Middleware voraussetzen. Je übersichtlicher diese Anforderungsliste ausfällt und je mehr davon durch den Cloud-Provider bereitgestellt wird, desto besser.
Die fachliche Umgebung wird substanziell durch die Möglichkeiten der Cloud, wie „Big Data“ (Reporting und Archivierung), begünstigt und umfasst vor allem das fachliche Betriebs-Monitoring und -Alerting, welches den Betrieb durch Real-Time-Recherchen unterstützt und dadurch erheblich erleichtert. Für Langzeitarchive gilt, dass die Recherchen über die gesamte Aufbewahrungsdauer mit gleicher Qualität und Suchzeit erfolgen können.
Ein Aspekt der technischen Betriebsumgebungen betrifft die Art, wie Infrastruktur – etwa die von den Applikationen benötigte Middleware – bereitgestellt wird. Mit „Infrastructure as Code“ (IaC) lässt sich die Zuordnung solcher Ressourcen wie Code behandeln. Damit ist gemeint, dass deklarativ über eine Software wie Terraform beschrieben wird, welche Applikationen in einem Container auf welche Middleware zugreifen sollen. Da die Anzahl dieser Definitionen in der Cloud üblicherweise groß ist, sollte das IaC-Prinzip angewendet werden. Damit wird der regulatorische Prozess des Go-Live über mehrere Umgebungen automatisch wiederholbar und damit weniger anfällig für Fehler. Darüber hinaus lässt sich dieser technische Unterbau, auch wenn er einmal entwickelt werden muss, wiederverwenden.
Diese Wiederverwendbarkeit zahlt sich spätestens beim Staging aus. Darunter wird der Übergang der Applikation von der Entwicklungs- über die Test- und Abnahmeumgebung bis zur Produktion verstanden. Regulatorisch darf zwischen Abnahmeumgebung und Produktion kein Unterschied in der Applikationsversion und der fachlichen Konfiguration bestehen. Lediglich die technischen Konfigurationen unterscheiden sich. Daraus ergibt sich jedoch enormer Aufwand und ein beträchtliches Fehlerrisiko, wenn das Staging nicht automatisiert wurde. „Infrastructure as Code“ beschleunigt diese Vorgänge spürbar. Darüber hinaus lassen sich die Vorteile eines automatisierten Stagings auch im Testmanagement nutzen.
––––––––––––––––––––
*Jens Dittmer ist Entwicklungsleiter und Lead Architect bei dem Beratungs- und Softwarehaus PPI AG. Die PPI AG gehört zu den Premium-Partnern von Finanz-Szene.de. Mehr zu unserem Partner-Modell erfahren Sie hier.
Wie die Hamburg Commercial Bank (HCOB) die Cloud-Transformation ihrer ausgelagerten Zahlungsverkehrsplattform nach der oben beschriebenen Blaupause bewerkstelligt hat, beschreibt ein Kapitel des voraussichtlich am 30. September 2025 im FCH-Verlag erscheinenden Buches „DORA & Cloud-Sicherheit: Praxisleitfaden für Banken & IT-Dienstleister“. Am 30. Oktober 2025 findet zudem ein Webinar statt, zu dem sich Interessierte hier anmelden können
Die Artikel von Finanz-Szene sind urheberrechtlich geschützt und nur für den jeweiligen Premium-Abonnenten persönlich bestimmt. Die Weitergabe – auch an Kollegen – ist nicht gestattet. Wie Sie Inhalte rechtssicher teilen können (z.B. via Pressespiegel), erfahren Sie hier.
Danke für Ihr Verständnis. Durch Ihr Abonnement sichern Sie ein Stück Journalismus!