Die Entwicklung von IT-Infrastrukturen war schon immer rasant und erforderte von IT-Fachkräften enorme Flexibilität. Doch kaum eine Entwicklung hat bisher so zentrale Änderungen mit sich gebracht wie die Einführung der Cloud. Ob es SaaS-Lösungen wie Microsoft 365 oder die Cloudplattformen der großen Cloud-Anbieter sind, die Einführung hat nicht nur Auswirkungen auf die Infrastruktur an sich, sondern zieht auch eine Anpassung zentraler Prozesse mit sich – sowohl innerhalb der IT- als auch in den Fachabteilungen. Aber die Erfahrung hat auch gezeigt, dass eine reine Cloudinfrastruktur nicht in allen Kundensituationen die optimale Lösung ist und zumindest auf absehbare Zeit hybride Lösungen der „way to go“ sind. Im Folgenden aber werden die Rahmenbedingungen beschrieben, welche maßgeblich für die IT-Infrastruktur der Zukunft sind.
Infrastrukturen werden als Code dargestellt
In den Umgebungen der großen Hyperscaler ist „Infrastructure as code“ längst kein neues Thema mehr. Dabei werden Ressourcen innerhalb der Cloudsysteme als Code beschrieben und an die Plattform des Hyperscalers übermittelt – diese baut dann die Infrastrukturen basierend auf den als Code übermittelten Bauplänen. Einen großen Vorteil bieten hier Herstellerunabhängige Sprachen wie Terraform, da die Vorlagen mit wenig Anpassungen unabhängig von der Cloudplattform bereitgestellt werden können.
Aber auch in lokalen Infrastrukturen wird das Thema „Infrastructure as Code“ in Zukunft an Bedeutung gewinnen. Mit Lösungen wie RedHat Ansible kann die codebasierte Bereitstellung auf Plattformen wie VMWare erweitert werden und immer mehr Netzwerkhersteller bieten Integrationen in die „Infrastructure as Code“-Lösungen. Dadurch können Infrastrukturen mit wenig Aufwand automatisiert bereitgestellt und angepasst werden. Und mit Hilfe von Codeverwaltungslösungen können Änderungen an bestehenden Infrastrukturen gleichzeitig dokumentiert werden.
Zero-Trust wird zum Standard
Im Security Bereich galt lange Zeit der eigene Perimeter als die sichere Grenze, d.h. der Fokus der Security-Bemühungen lag vor allem darauf zu verhindern, dass Angreifer Zugriffe auf das interne Netz bekommen, während Akteure innerhalb des Netzwerks weitestgehend vertraut wurde. Durch immer clever werdende Angriffsszenarien gilt dieser Grundgedanke heute nicht. Stattdessen etabliert sich seit einigen Jahren der Zero-Trust-Ansatz und wird sich in den kommenden Jahren als Standard durchsetzen.
Der Grundgedanke hinter Zero-Trust steckt dabei eigentlich schon im Namen: es wird davon ausgegangen, dass jedes Gerät potenziell kompromittiert sein könnte und daher erst einmal nicht vertrauenswürdig ist. Daher ist grundsätzlich beim Zugriff auf Ressourcen eine Authentifizierung und Autorisierung notwendig. Für letztere werden verschiedene Faktoren ausgewertet, z.B. ob das zugreifende Geräte den festgelegten Sicherheitseinstellungen entspricht oder ob für den Benutzer gerade eine aktive Risikobewertung vorliegt.
Zusätzlich kann der Ansatz durch die Verwendung von KI-gestützer Analyse unterstützt werden. Durch die Erfassung von Securityevents und Anmeldelogs können so z.B. Bewegungsmuster der Mitarbeiter innerhalb der IT erstellt werden. Diese werden dann automatisch auf Abweichungen überprüft, die auf eine Kompromittierung des Benutzeraccounts schließen lassen.
Software defined everything
In den letzten Jahren kommen verstärkt Technologien wie SD-WAN zum Einsatz und lösen klassische Konstrukte wie z.B. MPLS ab. „SD“ steht dabei für „software defined“. Anders als z.B. bei einem klassischen MPLS-Netzwerk werden die verschiedenen Standorte dabei aber nicht durch einen Provider miteinander verbunden. Stattdessen schalten sich die Router, natürlich stark vereinfach ausgedrückt, zu einem WAN zusammen und nutzen dabei die vorhandenen Anbindungen ans Internet. Dadurch wird das eigene WAN flexibler: fällt zum Beispiel die Leitung eines Providers aus, schalten die Router automatisch auf eine Fallback-Leitung. Auch im Storage und Datacenter-Bereich erhält das Prinzip software defined immer mehr Beachtung.
Monitoring und Automatisierung werden vereinheitlicht
Im Bereich Monitoring und Automatisierung wird eine Vereinheitlichung stattfinden. Gerade das Monitoring der eigenen Infrastruktur ist heute ein aufwändiger Prozess, da sich die Schnittstellen der Hersteller oft voneinander unterscheiden und wenig Standardisierung herrscht. Auch Automatisierungen, z.B. die automatisierte Installation von Updates stellen Administratoren immer wieder vor Probleme.
Die Umstellung auf „software defined“-Komponenten und Infrastructure as Code wird in Zukunft einige Dinge vereinfachen. So können z.B. Geräte über als Code definierte Konfigurationen standardmäßig in vorhandene Monitoring Lösungen integriert werden.
Mit Lösungen wie Azure ARC ist es bereits möglich Windows Server auf einer zentralen Plattform zu verwalten, unabhängig davon wo die virtuelle Maschine betrieben wird.