STRATEGIE15. Mai 2026

Gini: „Digitale Souveränität beginnt nicht im Rechenzentrum – sie beginnt in der Organisation“

Schwerpunkt: Rechenzentren & Digitale Souveränität
. . Die Abhängigkeit von Hyperscalern ist kein Infrastrukturproblem, sondern ein Organisationsproblem. Digitale Souveränität ist für Banken, Versicherungen und regulierte FinTechs zu einem zentralen Thema geworden. In vielen Diskussionen wird sie jedoch zunächst auf Infrastruktur reduziert: auf Cloud Anbieter, Serverstandorte oder regulatorische Zertifizierungen. Diese Fragen sind zwar relevant, greifen aber zu kurz. von Miguel Palmer, Director Product bei Gini.. Die entscheidende Frage lautet vielmehr: Wer kontrolliert Architektur, Betrieb und Verantwortung der eigenen Systeme?In der Praxis zeigt sich, dass digitale Souveränität nicht allein durch die Wahl einer bestimmten Infrastruktur entsteht. Sie ergibt sich aus dem Zusammenspiel von Technologie, Organisationsstruktur und klar definierten Betriebsmodellen. Warum klassische Cloud Modelle an Grenzen stoßen!. . Public Cloud Plattformen haben die Entwicklung moderner Softwarearchitekturen stark geprägt. Hyperscaler bieten nahezu unbegrenzte Skalierung, eine Vielzahl an Managed Services und ermöglichen es Teams, neue Systeme sehr schnell aufzubauen.Gerade in regulierten Branchen zeigen sich jedoch zunehmend Grenzen dieses Modells.Zum einen entstehen regulatorische und marktseitige Anforderungen.“Viele Banken oder Versicherungen möchten sensible Workloads nicht in US Hyperscaler Umgebungen betreiben, da Datenschutz, Compliance Vorgaben und interne Governance Regeln eine größere Kontrolle über Datenflüsse verlangen.Zum anderen gibt es technische Anforderungen, die nicht immer optimal zu einem klassischen Cloud Setup passen.“Systeme wie Real Time OCR, Ka I basierte Dokumentenverarbeitung oder andere rechenintensive Workloads benötigen häufig stabile und vorhersehbare Ressourcen sowie teilweise dedizierte Hardwär. In solchen Szenarien wird der Betrieb auf dedizierter Infrastruktur zu einer technisch nachvollziehbaren Entscheidung.Ein Cloud Exit oder der Betrieb auf Bare Metal ist daher selten ideologisch motiviert, sondern ergibt sich oft aus einer Kombination aus regulatorischen Anforderungen, Performancebedarf und dem Wunsch nach größerer Kontrolle über kritische Systeme. Bare Metal ist kein Rückschritt!. . Der Begriff Bare Metal wird häufig mit einer Rückkehr zu früheren Infrastrukturmodellen gleichgesetzt. In der Praxis ist diese Vorstellung jedoch überholt.Moderne Plattformarchitekturen kombinieren dedizierte Hardwär mit automatisierter Provisionierung, Container Orchestrierung und deklarativen Betriebsmodellen wie GitOps.Der Unterschied zur klassischen Cloud liegt weniger in der Technologie als in der Verantwortungsverteilung.“Während Hyperscaler einen großen Teil des Infrastruktur Betriebs abstrahieren, liegt bei eigener Infrastruktur wieder mehr Verantwortung innerhalb der Organisation. Dadurch entstehen neue Freiheitsgrade, gleichzeitig aber auch neue Anforderungen an Struktur und Zusammenarbeit. Wo endet Development, wo beginnt Operations?!. . Sobald Infrastruktur nicht vollständig durch Managed Services abstrahiert wird, taucht eine klassische Frage wieder auf: Wer ist wofür verantwortlich?Typische Spannungsfelder entstehen schnell:. Wer verantwortet Production Deployments?. Wer betreibt und tuned die Datenbanken?. Wer kümmert sich um Monitoring und Incident Response?. Wer betreibt und pflegt CI/CD Pipelines?. Wenn diese Schnittstellen nicht klar definiert sind, entstehen Reibungsverluste zwischen Teams. Verantwortung wird weitergereicht, statt übernommen zu werden.Digitale Souveränität bedeutet deshalb auch, klare Verantwortungsmodelle zwischen Development und Operations zu etablieren. Entscheidend ist dabei weniger die organisatorische Struktur als die eindeutige Zuordnung von Verantwortung. Platform Engineering als organisatorische Antwort!. . Viele Unternehmen adressieren diese Herausforderungen über Platform Engineering.Dabei wird Infrastruktur nicht als Nebenprodukt der Systemlandschaft betrieben, sondern als eigenständiges internes Produkt verstanden. Ein dediziertes Platform Team stellt Entwicklerteams eine standardisierte Umgebung bereit, die zentrale Infrastruktur- und Betriebsfunktionen abstrahiert.Dazu gehören typischerweise:. Self Service Deployments. automatisierte Infrastruktur. standardisierte Toolchains. integrierte Security- und Compliance Mechanismen. Das Ziel ist eine Plattform, die Entwicklern eine konsistente Umgebung bietet und gleichzeitig den Betrieb komplexer Systeme vereinfacht.Als Basis einer Plattform bietet sich Kubernetes an.Das Plattform Engineering Team stellt fertige Kubernetes Cluster bereit, damit Entwickler Anwendungen autonom bereitstellen, betreiben und überwachen können.“Kubernetes ist selbst als Plattform ausgelegt und kann durch spezifische Schnittstellen (zum Beispiel CNI, CRI, CSI) und Operatoren genau auf die eigenen Bedürfnisse zugeschnitten werden. Darüber lassen sich unter anderem wichtige Security Governance Funktionen direkt integrieren, beispielsweise mit Kyverno für die Durchsetzung von Security Policies. Aber auch klassische Cloud Funktionen wie das Bereitstellen von Storage, lassen sich für den Entwickler fast transparent abbilden durch die Verwendung einer CSI Implementierung wie Rook Ceph.Eine wichtige Rolle für die Gesamteffizienz des Ansatzes spielt die Umsetzung der Hardwär Provisionierung.“Insbesondere das manuelle Patchen des Betriebssystems muss vermieden werden. Hier haben sich spezielle, leichtgewichtige Linux Distributionen für Kubernetes bewährt, die von Natur aus unveränderbar sind. Für jede Veränderung wird ein neues OS Image erzeugt und ausgerollt. Durch die absolute Minimierung auf das nur wirklich Benötigte ist die Häufigkeit von Patches wesentlich geringer. OS Images werden wiederum durch eigene CI/CD Pipelines erzeugt.Für das eigentliche Ausrollen der OS Images kann wiederum Kubernetes als Automatisierungs Engine verwendet werden, wenn man die Eigenentwicklung eines schlanken Operators in Kauf nimmt.“Knoten werden dabei als benutzerdefinierte Kubernetes Ressourcen beschrieben und Kubernetes übernimmt die Zustandssynchronisierung mit Hilfe des Operators.Der Einsatz von Kubernetes hängt maßgeblich davon ab, ob die Anwendungen ausreichend komplex sind, um die Komplexität von Kubernetes zu rechtfertigen. Komplexe verteilte Systeme wie zum Beispiel Systeme mit Microservice Architekturen harmonieren hier besser als einfache Monolithen. Produktivität messbar machen: DORA Metrics!. . Ob diese organisatorischen und technischen Maßnahmen tatsächlich funktionieren, lässt sich messen. In vielen Engineering Organisationen haben sich dafür die DORA Metriken etabliert.Zu diesen Kennzahlen gehören: Deployment Frequency: wie häufig werden erfolgreich Code Änderungen in die Produktion übertragen; dient als Gradmesser für die Agilität des Teams Lead Time for Changes: Zeitspanne vom ersten Commit bis zum produktiven Release, um die Effizienz des gesamten Software Lieferprozesses abzubilden Time to Restore Service: Gibt an, wie schnell die Ai Tieh Infrastruktur nach einem Vorfall im laufenden Betrieb wiederhergestellt wird, und definiert somit die Reaktionsfähigkeit Change Failure Rate: Beziffert den Prozentsatz der Deployments, die zu Fehlern oder Ausfällen führen, um die Qualität und Stabilität der Releases zu bewerten. Diese Metriken zeigen, wie effizient Softwareentwicklung und -betrieb zusammenarbeiten und wie schnell Organisationen auf Änderungen oder Störungen reagieren können. Funktionierende Plattformen und klare Verantwortungsmodelle spiegeln sich daher unmittelbar in diesen Kennzahlen wider.Platform Engineering ermöglicht eine hohe Autonomie der Entwickler.“Das eigenständige Ausrollen und Überwachen von Änderungen auf Produktion im Zusammenspiel mit einer hohen Automatisierung der Build Pipelines inklusive automatisierten Testens ermöglicht eine hohe Frequenz von Änderungen, da die Übergabe von Änderungen zwischen Teams vermieden wird.Da Entwickler die von ihnen entwickelten Anwendungen von Grund auf kennen, ist das Beheben von Fehlern wesentlich effizienter und schneller. Nicht zuletzt kann die operative Verantwortung disziplinierend für Entwickler wirken, da die Entdeckung und Behebung von Fehlern zusätzlichen Aufwand direkt bei der wahrscheinlichen Quelle verursachen. Automation first!. . Der Weg zu einer souveränen Plattform beginnt selten mit einem radikalen Neubau. In vielen Organisationen verläuft er schrittweise und evolutionär.Typische Entwicklungspfade führen von klassischen virtuellen Maschinen über Containerplattformen hin zu Kubernetes basierten Architekturen, GitOps Prozessen und Immutable Infrastructure Konzepten.Unabhängig von der konkreten Technologie bleiben die grundlegenden Prinzipien gleich:. Automatisierung ersetzt manuelle Betriebsprozesse. Standardisierung reduziert Tool Wildwuchs. Security und Compliance werden direkt auf Plattformebene integriert. Das Ziel besteht dabei nicht darin, immer neue Technologien einzuführen, sondern operative Komplexität langfristig zu reduzieren. Komplexität begrenzen!. . Ein oft unterschätzter Faktor moderner Plattformarchitekturen ist die kognitive Last für Entwicklerteams.Wenn Organisationen zu viele Programmiersprachen, Frameworks, Datenbanktechnologien oder Infrastrukturtools parallel einsetzen, steigt die Komplexität schnell über ein beherrschbares Maß hinaus.Deshalb sind bewusste technische Entscheidungen wichtig, etwa bei der Auswahl von:. unterstützten Programmiersprachen. standardisierten Frameworks. Datenbanktechnologien. Infrastruktur Provisionierungsmodellen. In vielen Fällen gilt dabei eine einfache Regel: Weniger Vielfalt führt zu stabileren Systemen. Fazit!. . Digitale Souveränität wird häufig als Infrastrukturprojekt oder als Compliance Thema verstanden. In der Praxis greift aber beides zu kurz: sie entsteht vielmehr aus dem Zusammenspiel von Architekturentscheidungen, Organisationsstruktur, Plattformdesign und Automatisierung.Oder anders formuliert: Digitale Souveränität beginnt nicht im Rechenzentrum, sie beginnt in der Organisation. Sie hörten einen Beitrag von „Miguel Palmer, Gini“

Schwerpunkt: Rechenzentren & Digitale Souveränität
Miguel Palmer, Gini GmbH, erklärt, dass es digitale Souveränität nicht als Service gibt und warum Unternehmen umdenken müssen
Miguel Palmer ist Di­rec­tor Pro­duct bei der Gi­ni Gini

Die Abhängigkeit von Hyperscalern ist kein Infrastrukturproblem, sondern ein Organisationsproblem. Digitale Souveränität ist für Banken, Versicherungen und regulierte FinTechs zu einem zentralen Thema geworden. In vielen Diskussionen wird sie jedoch zunächst auf Infrastruktur reduziert: auf Cloud-Anbieter, Serverstandorte oder regulatorische Zertifizierungen. Diese Fragen sind zwar relevant, greifen aber zu kurz.

von Miguel Palmer, Di­rec­tor Pro­duct bei Gi­ni 

Die entscheidende Frage lautet vielmehr: Wer kontrolliert Architektur, Betrieb und Verantwortung der eigenen Systeme?
In der Praxis zeigt sich, dass digitale Souveränität nicht allein durch die Wahl einer bestimmten Infrastruktur entsteht. Sie ergibt sich aus dem Zusammenspiel von Technologie, Organisationsstruktur und klar definierten Betriebsmodellen.

Warum klassische Cloud-Modelle an Grenzen stoßen

Public-Cloud-Plattformen haben die Entwicklung moderner Softwarearchitekturen stark geprägt. Hyperscaler bieten nahezu unbegrenzte Skalierung, eine Vielzahl an Managed Services und ermöglichen es Teams, neue Systeme sehr schnell aufzubauen.
Gerade in regulierten Branchen zeigen sich jedoch zunehmend Grenzen dieses Modells.

Zum einen entstehen regulatorische und marktseitige Anforderungen.“

Viele Banken oder Versicherungen möchten sensible Workloads nicht in US-Hyperscaler-Umgebungen betreiben, da Datenschutz, Compliance-Vorgaben und interne Governance-Regeln eine größere Kontrolle über Datenflüsse verlangen.

Zum anderen gibt es technische Anforderungen, die nicht immer optimal zu einem klassischen Cloud-Setup passen.“

Systeme wie Real-Time-OCR, KI-basierte Dokumentenverarbeitung oder andere rechenintensive Workloads benötigen häufig stabile und vorhersehbare Ressourcen sowie teilweise dedizierte Hardware. In solchen Szenarien wird der Betrieb auf dedizierter Infrastruktur zu einer technisch nachvollziehbaren Entscheidung.
Ein Cloud Exit oder der Betrieb auf Bare Metal ist daher selten ideologisch motiviert, sondern ergibt sich oft aus einer Kombination aus regulatorischen Anforderungen, Performancebedarf und dem Wunsch nach größerer Kontrolle über kritische Systeme.

Bare Metal ist kein Rückschritt

Der Begriff Bare Metal wird häufig mit einer Rückkehr zu früheren Infrastrukturmodellen gleichgesetzt. In der Praxis ist diese Vorstellung jedoch überholt.
Moderne Plattformarchitekturen kombinieren dedizierte Hardware mit automatisierter Provisionierung, Container-Orchestrierung und deklarativen Betriebsmodellen wie GitOps.

Der Unterschied zur klassischen Cloud liegt weniger in der Technologie als in der Verantwortungsverteilung.“

Während Hyperscaler einen großen Teil des Infrastruktur-Betriebs abstrahieren, liegt bei eigener Infrastruktur wieder mehr Verantwortung innerhalb der Organisation. Dadurch entstehen neue Freiheitsgrade – gleichzeitig aber auch neue Anforderungen an Struktur und Zusammenarbeit.

Wo endet Development, wo beginnt Operations?

Miguel Palmer, Gini
Miguel Palmer, Gini GmbH, erklärt, dass es digitale Souveränität nicht als Service gibt und warum Unternehmen umdenken müssen <q>Gini GmbHMiguel Palmer ist Di­rec­tor Pro­duct bei der Gi­ni  (Website). Er ver­ant­wor­tet die ganz­heit­li­che Wei­ter­ent­wick­lung der Pro­dukt- und Tech­no­lo­gie­or­ga­ni­sa­ti­on und treibt die Ska­lie­rung der KI-Lö­sun­gen für die Spar­ten Ban­king und In­suran­ce vor­an. Pal­mer war u.a. bei Klar­na und Rate­pay tä­tig und hat Me­di­en­in­for­ma­tik an der Beuth Hoch­schu­le für Tech­nik Ber­lin stu­diert. Er ist zer­ti­fi­zier­ter Scrum Mas­ter und Pro­duct Ow­ner so­wie aus­ge­bil­de­ter „A­gi­le Coach“ mit Schwer­punk­ten in Künst­li­cher In­tel­li­genz, UX und da­ten­ge­trie­be­ner Produktentwicklung.
Sobald Infrastruktur nicht vollständig durch Managed Services abstrahiert wird, taucht eine klassische Frage wieder auf: Wer ist wofür verantwortlich?
Typische Spannungsfelder entstehen schnell:

Wer verantwortet Production Deployments?

Wer betreibt und tuned die Datenbanken?

Wer kümmert sich um Monitoring und Incident Response?

Wer betreibt und pflegt CI/CD-Pipelines?

Wenn diese Schnittstellen nicht klar definiert sind, entstehen Reibungsverluste zwischen Teams. Verantwortung wird weitergereicht, statt übernommen zu werden.
Digitale Souveränität bedeutet deshalb auch, klare Verantwortungsmodelle zwischen Development und Operations zu etablieren. Entscheidend ist dabei weniger die organisatorische Struktur als die eindeutige Zuordnung von Verantwortung.

Platform Engineering als organisatorische Antwort

Viele Unternehmen adressieren diese Herausforderungen über Platform Engineering.
Dabei wird Infrastruktur nicht als Nebenprodukt der Systemlandschaft betrieben, sondern als eigenständiges internes Produkt verstanden. Ein dediziertes Platform-Team stellt Entwicklerteams eine standardisierte Umgebung bereit, die zentrale Infrastruktur- und Betriebsfunktionen abstrahiert.
Dazu gehören typischerweise:

Self-Service-Deployments

automatisierte Infrastruktur

standardisierte Toolchains

integrierte Security- und Compliance-Mechanismen

Das Ziel ist eine Plattform, die Entwicklern eine konsistente Umgebung bietet und gleichzeitig den Betrieb komplexer Systeme vereinfacht.
Als Basis einer Plattform bietet sich Kubernetes an.

Das Plattform-Engineering-Team stellt fertige Kubernetes-Cluster bereit, damit Entwickler Anwendungen autonom bereitstellen, betreiben und überwachen können.“

Kubernetes ist selbst als Plattform ausgelegt und kann durch spezifische Schnittstellen (zum Beispiel CNI, CRI, CSI) und Operatoren genau auf die eigenen Bedürfnisse zugeschnitten werden. Darüber lassen sich unter anderem wichtige Security-Governance-Funktionen direkt integrieren – beispielsweise mit Kyverno für die Durchsetzung von Security-Policies. Aber auch klassische Cloud-Funktionen wie das Bereitstellen von Storage, lassen sich für den Entwickler fast transparent abbilden durch die Verwendung einer CSI-Implementierung wie Rook-Ceph.

Eine wichtige Rolle für die Gesamteffizienz des Ansatzes spielt die Umsetzung der Hardware-Provisionierung.“

Insbesondere das manuelle Patchen des Betriebssystems muss vermieden werden. Hier haben sich spezielle, leichtgewichtige Linux-Distributionen für Kubernetes bewährt, die von Natur aus unveränderbar sind. Für jede Veränderung wird ein neues OS-Image erzeugt und ausgerollt. Durch die absolute Minimierung auf das nur wirklich Benötigte ist die Häufigkeit von Patches wesentlich geringer. OS-Images werden wiederum durch eigene CI/CD-Pipelines erzeugt.

Für das eigentliche Ausrollen der OS-Images kann wiederum Kubernetes als Automatisierungs-Engine verwendet werden, wenn man die Eigenentwicklung eines schlanken Operators in Kauf nimmt.“

Knoten werden dabei als benutzerdefinierte Kubernetes-Ressourcen beschrieben und Kubernetes übernimmt die Zustandssynchronisierung mit Hilfe des Operators.
Der Einsatz von Kubernetes hängt maßgeblich davon ab, ob die Anwendungen ausreichend komplex sind, um die Komplexität von Kubernetes zu rechtfertigen. Komplexe verteilte Systeme wie zum Beispiel Systeme mit Microservice-Architekturen harmonieren hier besser als einfache Monolithen.

Produktivität messbar machen: DORA Metrics

Ob diese organisatorischen und technischen Maßnahmen tatsächlich funktionieren, lässt sich messen. In vielen Engineering-Organisationen haben sich dafür die DORA-Metriken etabliert.
Zu diesen Kennzahlen gehören:
Deployment Frequency: wie häufig werden erfolgreich Code-Änderungen in die Produktion übertragen; dient als Gradmesser für die Agilität des Teams
Lead Time for Changes: Zeitspanne vom ersten Commit bis zum produktiven Release, um die Effizienz des gesamten Software-Lieferprozesses abzubilden
Time to Restore Service: Gibt an, wie schnell die IT-Infrastruktur nach einem Vorfall im laufenden Betrieb wiederhergestellt wird, und definiert somit die Reaktionsfähigkeit
Change Failure Rate: Beziffert den Prozentsatz der Deployments, die zu Fehlern oder Ausfällen führen, um die Qualität und Stabilität der Releases zu bewerten.

Diese Metriken zeigen, wie effizient Softwareentwicklung und -betrieb zusammenarbeiten und wie schnell Organisationen auf Änderungen oder Störungen reagieren können. Funktionierende Plattformen und klare Verantwortungsmodelle spiegeln sich daher unmittelbar in diesen Kennzahlen wider.

Platform-Engineering ermöglicht eine hohe Autonomie der Entwickler.“

Das eigenständige Ausrollen und Überwachen von Änderungen auf Produktion im Zusammenspiel mit einer hohen Automatisierung der Build-Pipelines inklusive automatisierten Testens ermöglicht eine hohe Frequenz von Änderungen, da die Übergabe von Änderungen zwischen Teams vermieden wird.
Da Entwickler die von ihnen entwickelten Anwendungen von Grund auf kennen, ist das Beheben von Fehlern wesentlich effizienter und schneller. Nicht zuletzt kann die operative Verantwortung disziplinierend für Entwickler wirken, da die Entdeckung und Behebung von Fehlern zusätzlichen Aufwand direkt bei der wahrscheinlichen Quelle verursachen.

Automation first

Der Weg zu einer souveränen Plattform beginnt selten mit einem radikalen Neubau. In vielen Organisationen verläuft er schrittweise und evolutionär.
Typische Entwicklungspfade führen von klassischen virtuellen Maschinen über Containerplattformen hin zu Kubernetes-basierten Architekturen, GitOps-Prozessen und Immutable-Infrastructure-Konzepten.
Unabhängig von der konkreten Technologie bleiben die grundlegenden Prinzipien gleich:

Automatisierung ersetzt manuelle Betriebsprozesse

Standardisierung reduziert Tool-Wildwuchs

Security und Compliance werden direkt auf Plattformebene integriert

Das Ziel besteht dabei nicht darin, immer neue Technologien einzuführen, sondern operative Komplexität langfristig zu reduzieren.

Komplexität begrenzen

Ein oft unterschätzter Faktor moderner Plattformarchitekturen ist die kognitive Last für Entwicklerteams.
Wenn Organisationen zu viele Programmiersprachen, Frameworks, Datenbanktechnologien oder Infrastrukturtools parallel einsetzen, steigt die Komplexität schnell über ein beherrschbares Maß hinaus.
Deshalb sind bewusste technische Entscheidungen wichtig, etwa bei der Auswahl von:

unterstützten Programmiersprachen

standardisierten Frameworks

Datenbanktechnologien

Infrastruktur-Provisionierungsmodellen

In vielen Fällen gilt dabei eine einfache Regel: Weniger Vielfalt führt zu stabileren Systemen.

Fazit

Digitale Souveränität wird häufig als Infrastrukturprojekt oder als Compliance-Thema verstanden. In der Praxis greift aber beides zu kurz: sie entsteht vielmehr aus dem Zusammenspiel von Architektur­entscheidungen, Organisationsstruktur, Plattformdesign und Automatisierung.
Oder anders formuliert: Digitale Souveränität beginnt nicht im Rechenzentrum – sie beginnt in der Organisation. Miguel Palmer, Gini

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert