Load Balancer und Web Application Firewalls im Rechenzentrum passé?

Klassische Appliances im Reality-Check

Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Und sagten einige Experten vor gut zehn Jahren voraus, dass das Rechenzentrum der Zukunft vollständig in der Cloud betrieben würde, sehen wir heute, dass dies nicht eingetreten ist. Stattdessen führten Unternehmen Hybrid- und Multi-Cloud-Umgebungen ein, die ihnen die Wahl geben, ihren Anwendungen und Daten das ideale Zuhause zu geben. Doch welchen Sinn machen in diesem voll virtualisierten Szenario noch physische Appliances?

Es scheint ein Widerspruch zu sein: Obwohl die meisten Unternehmen viele ihrer Anwendungen in die Cloud migrieren, erfreut sich das klassische Rechenzentrum nach wie vor großer Beliebtheit. Seit nun mehr als einem Jahrzehnt virtualisieren Unternehmen ihre Rechenzentren und führen Cloud-Technologien ein. Mancher proklamierte in diesem Zuge gar das Ende des Rechenzentrums. Das Ende kam nicht, aber ein grundlegender Wandel: Das Rechenzentrum von heute ist eine Software-zentrierte Mini-Cloud.

Auch wenn viele Unternehmen einen Teil ihrer Workloads auf externe Cloud-Provider verlagern, bleibt die lokale Infrastruktur im Rechenzentrum ziemlich fest etabliert. Die Cloud ist oft nur eine Erweiterung des Rechenzentrums, wobei die hybride Cloud der primäre Anwendungsfall unserer Tage ist. Einer der Gründe, warum das Rechenzentrum weiter fest verankert bleibt, ist die Verschärfung der Compliance-Regeln. Vor allem in Europa hat die neue Gesetzgebung der DS-GVO dazu geführt, dass Organisationen mehr Wert auf ihr eigenes Rechenzentrum legen, das einfacher abzusichern und zu kontrollieren scheint. Die Kontrolle jeder Facette der eigenen Architektur mag aufwändig klingen, aber zumindest haben Unternehmen die volle Kontrolle darüber, was mit ihren Daten passiert. Alle großen Public Cloud-Anbieter hatten in der Vergangenheit sowohl Ausfallzeiten als auch Datenverluste. Und Technologien für eine erhöhte Verfügbarkeit im Rechenzentrum sind schon seit ein paar Jahren verfügbar.

Ein weiterer Grund, warum Organisationen ihre Daten in unmittelbarer Nähe behalten wollen, ist das relativ neue Phänomen der „Data Gravity“. Die Datenmenge wächst seit einiger Zeit exponentiell und wird weiter zunehmen, etwa indem die digitale Transformation Technologien wie das Internet der Dinge oder künstliche Intelligenz ermöglicht. Das Problem mit solch riesigen Datenmengen ist jedoch, dass sie fast nicht mehr zu bewegen sind. Selbst mit fortschrittlichen Netzwerktechnologien wie Glasfaser wird es nahezu unmöglich sein, größere Datensätze zur zeitnahen Verarbeitung an einen anderen Ort zu senden. Dies hat dazu geführt, dass Unternehmen ihre Rechenleistung für die Verarbeitung von Daten in die Nähe des Standorts der Daten verlagern. Branchenschwergewichte wie Microsoft und Amazon haben bereits auf diesen Trend reagiert und bieten Azure Stack und Amazon Outpost an, die Cloud-Technologie in das Rechenzentrum bringen. Ein weiteres Zeichen für diesen Trend ist die steigende Nachfrage nach Edge Computing. Edge Computing verarbeitet und speichert Daten dort, wo sie erzeugt werden, ohne dass sie zuerst verschoben werden müssen.

Natürlich würde niemand, der bei klarem Verstand ist, Workloads und Daten aus einer modernen Cloud-Infrastruktur in ein altmodisches, Hardware-basiertes Rechenzentrum verschieben. Seitdem Unternehmen jedoch auf eine Software-definierte Infrastruktur im Rechenzentrum umgestellt haben, um sie für Hybrid- und Multi-Clouds fit zu machen, ist es nun problemlos möglich, davon Gebrauch zu machen - und sogar Apps zurück ins Rechenzentrum zu holen. Der aktuelle Trend der Cloud-Repatriation belegt diese Entwicklung.

Aber einer der langjährigen Bewohner des Rechenzentrums passt nicht in die neue hybride und Multi-Cloud-Welt, die auf Geschwindigkeit, Flexibilität und Wahlmöglichkeiten ausgerichtet ist: die gute alte Hardware-Appliance. Zu den letzten noch vorhandenen physischen Appliances in vielen Rechenzentren gehören der Load Balancer oder die Web Application Firewall.

Appliances werden zum Engpass im Rechenzentrum

Die Server-Virtualisierung läutete einst den Aufstieg des Software-definierten Rechenzentrums ein. Heutzutage sind die meisten modernen Organisationen größtenteils virtualisiert, was ihnen eine bessere Automatisierung und Elastizität verleiht. Dennoch setzen viele Unternehmen immer noch auf physische und virtuelle Appliances für Anwendungsdienste wie Load Balancing und WAF. Das Ziel für Unternehmen ist es jedoch, dass Rechenzentren durch Software-definierte Technologie Cloud-ähnlicher werden. Aber Hardware und virtuelle Appliances bieten keine Cloud-ähnliche Funktionalität - und untergraben damit die Modernisierung. Diese Geräte befinden sich zwischen zwei Welten. Sie haben immer noch eine Funktion, die jedoch in der Vergangenheit verwurzelt ist, und funktionieren in der neuen Welt der Software-definierten Infrastruktur nicht wirklich gut.

Das klassische Beispiel ist der traditionelle Load Balancer. Er kann nicht auf die Cloud umsteigen, und seine Zeit läuft ab. Unternehmen ersetzen ihn im Rechenzentrum durch moderne Software-Load-Balancer, die in die flexiblere, Software-definierte Welt passen. Der Schritt ist längst überfällig, da Load-Balancer-Appliances inhärente Mängel aufweisen, die hauptsächlich mit ihrer begrenzten Automatisierung und Skalierbarkeit zusammenhängen - Disziplinen, in welchen Software-definierte Technologien herausragen. Die Hardware-Appliances lediglich zu virtualisieren reicht nicht aus, da die Technologie sich nicht in die Software-definierte Welt integrieren lässt.

Frei nach Mark Twain: Die Nachricht vom Tod des Rechenzentrums ist stark übertrieben. Im Gegenteil, das Rechenzentrum bleibt wo es ist, nur eben nicht so, wie wir es uns vorgestellt haben. Die Nutzung der Cloud bietet die fehlende Flexibilität und Agilität, und da Unternehmen ihr eigenes Rechenzentrum nicht so schnell aufgeben werden, ist das neue Rechenzentrum eben Cloud-ähnlich. Das bedeutet, dass das Rechenzentrum neu strukturiert werden muss, um Software-definiert zu sein. Um dies zu erreichen, müssen Unternehmen Software-definierte Lösungen begrüßen und alte Hardware und virtuelle Appliances endlich dorthin schaffen, wo sie hingehören: Auf den Schrotthaufen der IT-Geschichte.

Guntram Alffen, Avi Networks

Foto: Avi Networks Beitragsbild: peshkova/Fotolia