Cloud Computing wurde als ultimative Lösung für IT-Infrastrukturen gepriesen. Der neuerliche GAU der Amazon-Wolke wirft jedoch lange Schatten voraus.
Eine eigene IT-Abteilung kann richtig Ärger bereiten: Serverausfälle, teure Lizenzen, Netzüberlastungen, lästige Wartung von PC-Arbeitsplätzen – so wird das Leben eines CIO schnell zum Albtraum.
Das vollumfängliche Applikationshosting – landläufig als „Cloud Computing“ bekannt – bei einem kompetenten Anbieter klingt vor diesem Hintergrund nach einem Befreiungsschlag. Seine Befürworter versprechen hohe Zuverlässigkeit durch die Bündelung der Ressourcen bei einem professionellen Hoster, wodurch sich das zuvor von diversen Problemen der hauseigenen IT geplagte Unternehmen endlich seinem Kerngeschäft widmen könne.
So weit, so gut. Doch die Rechnung wird allzu oft ohne den Wirt gemacht. Wenn dieser nämlich ausfällt, dann sind Massen-Blackouts betroffener Unternehmen die Folge. Der neuerliche Totalausfall des Amazon-Cloud-Dienstes EC2 (Elastic Cloud) brachte eine Reihe äußerlich völlig voneinander unabhängiger Unternehmen in eine kritische Lage: Foursquare, Reddit und zahlreiche kleinere Startups wie Quora, Heroku (Salesforce), Hootsuite, Cydia, Discovr, Scvngr, GroupMe, Indaba, Motherboard.tv etc. Weitere Ausfälle waren bei Internetangeboten zu verzeichnen, die wiederum (teilweise) auf diesen Diensten aufbauen, wie Best Buy und Comcast. Der Blackout betraf hauptsächlich das Amazon-Rechenzentrum im US-Bundesstaat Virginia und dauerte drei Tage (!).
Es gibt durchaus gute Argumente für ein vollumfängliches Applikationshosting. Wenn ein Unternehmen nicht über eigene IT-Kompetenz verfügt zum Beispiel, oder wenn größere Investitionen in eigene Hardware nicht möglich sind.
Auf der anderen Seite weiß jeder „alte IT-Hase“, dass eine 100-prozentige Verfügbarkeit auch bei einem Cloud-Anbieter nicht gewährleistet ist. Ein kleines Gedankenspiel verdeutlicht, dass ein Vollhosting nicht unbedingt sicherer sein muss als eine eigene Lösung: Ein System mit 99,9 Prozent Verfügbarkeit wird an einen Hoster mit 99,9-Prozent-Verfügbarkeitsgarantie outgesourct. Die für die Arbeit mit den eigenen Applikationen zusätzlich benötigte Datenleitung ist ebenfalls zu 99,9 Prozent verfügbar. Da sich die Verfügbarkeiten „multiplizieren“, erhält der Kunde nun ein System mit 99,9 x 99,9 = 0,98 Prozent Verfügbarkeitserwartung – weniger also als bei der hauseigenen Lösung.
Ein weiteres Beispiel verdeutlicht die Sachlage noch weiter: Wenn ein System zu 99,9 Prozent verfügbar ist und durch eine redundante Installation eine 99,95-prozentige Verfügbarkeit angepeilt wird, bedeutet die Zwischenkomponente, die eine automatische Redundanz gewährleisten kann und die beiden Systeme bedient, ein zusätzliches Risiko in der Systemlandschaft. Damit sinkt die Verfügbarkeitserwartung wieder einmal unter den ursprünglichen Wert.
Auch wenn diese kleinen Gedankenspiele lediglich eine grundsätzliche Überlegung anregen: Die neuerlichen Zwischenfälle suggerieren, dass – trotz aller Beteuerungen verschiedener Cloud-Anbieter – ein Cloud-Outsourcing kein Selbstläufer ist. Wenn Giganten wie Google (Datenverlust in der Google-Wolke) und Amazon (Totalausfall) nicht sicher sind, wie gestaltet es sich bei kleineren Anbietern? Was tun bei einem Totalausfall eines Anbieters? Sollte man redundante Cloud-Anbieter wählen, um sich gegen einen Blackout abzusichern? Dies würde das im Cloud-Computing-Hype fest verankerte Kostenersparnisversprechen ad absurdum führen.
Cloud Computing scheint immer noch an der Spitze der Gartner-Hype-Kurve zu rangieren. PR-medial wird es momentan überbewertet. Das soll nicht bedeuten, dass Gesamthosting keinen Sinn ergäbe: In bestimmten Fällen bildet es zweifelsohne eine gute Lösung. Aber auch, wenn Cloud Computing eben nicht wie angepriesen die wundersame Lösung für alle IT-Probleme darstellt, werden sich die zurzeit massiv aufziehenden dunklen Wolken über der Cloud-Computing-Industrie mittelfristig wieder zerstreuen. Wir werden irgendwann gelernt haben, wie man diese Technologie optimal einsetzt. Bis dahin jedoch muss der CIO das Risiko für die Entscheidung tragen, was, wie und wann in die Wolke verschoben werden soll. Diese Verantwortung kann man nicht einfach pauschal an die IT-Wolke delegieren – und das ist meines Erachtens auch gut so.
Stürmische Zeiten für Cloud Computing
Cloud Computing wurde als die ultimative Lösung für IT-Infrastrukturen angepriesen. Der neuerliche GAU der Amazon-Wolke wirft lange Schatten voraus.
Eigene IT-Abteilung kann richtig Ärger machen: Serverausfälle, teure Lizenzen, Netzüberlastungen, lästige Wartung von PC-Arbeitsplätzen – so wird das Leben eines CIO schnell zum Albtraum.
Das vollumfängliche Applikationshosting – ladläufig als „Cloud Computing“ bekannt – bei einem kompetenten Anbieter hört sich vor diesem Hintergrund nach einem Befreiungsschlag an. Befürworter des Cloud Computing versprechen hohe Zuverlässigkeit durch Kompetenz und Bündelung der Ressourcen bei einem professionellen Hoster, wodurch sich das bisher durch diverse Probleme der hauseigenen IT geplagte Unternehmen endlich seinem Kerngeschäft widmen könne.
Soweit, so gut. Doch die Rechnung ist ohne den Wirt gemacht worden. Wenn dieser nämlich ausfällt, dann sind Massen-Blackouts betroffener Unternehmen die Folge. Der neuerliche Totalausfall (http://www.cio.de/was_ist_cloud_computing/2273066/index.html) des Amazon Coloud-Dienstes EC2 (Elastic Cloud) brachte eine Reihe äußerlich völlig voneinander unabhängiger Unternehmen in eine kritische Lage: Foursquare, Reddit und zahlreiche kleinere Startups wie Quora, Heroku (Salesforce), Hootsuite, Cydia, Discovr, Scvngr, GroupMe, Indaba, Motherboard.tv etc. Weitere Ausfälle fanden bei Internetangeboten statt, die auf diesen Diensten wiederum aufbauen, wie Best Buy und Comcast. Der Ausfall betraf hauptsächlich das Amazon-Rechenzentrum im Bundesstand Virginia und dauerte drei Tage (!).
Es gibt gute Argumente für ein vollumfängliches Applikationshosting. Wenn ein Unternehmen keine eigene IT-Kompetenz besitzt, zum Beispiel, oder wenn größere Investitionen in die eigene Hardware nicht möglich ist.
Auf der anderen Seite weiß jeder „alte“ IT-Hase, dass eine 100%-ige Verfügbarkeit auch bei einem Cloud-Anbieter nicht möglich ist. Ein kleines Gedankenspiel verdeutlicht, dass ein Vollhosting nicht unbedingt sicherer sein muss als eine eigene Lösung: ein System mit 99,9% Verfügbarkeit wird an einen Hoster mit 99,99%-verfügbarkeitsgarantie outgesourct. Die für die Arbeit mit den eigenen Applikationen zusätzlich benötigte Datenleitung ist ebenfalls zu 99,99% verfügbar. Da sich die Verfügbarkeiten „multiplizieren“, erhält der Kunde nun ein System mit 99,99 x 99,99 = 0,98% Verfügbarkeitserwartung – weniger also als im Falle der hauseigenen Lösung.
Ein weiteres Beispiel verdeutlich die Sachlage noch weiter: wenn ein System 99,9% verfügbar ist, und durch eine redundante Installation eine 99,95%-ige Verfügbarkeit angepeilt wird, ist die Zwischenkomponenten, die eine automatische Redundanz gewährleisten kann und diese beiden Systeme bedient, ein zusätzliches Risiko in der Systemlandschaft. Damit sinkt die Verfügbarkeitserwartung wieder einmal unter den ursprünglichen Wert.
Auch, wenn dieses kleine Beispiel lediglich eine grundsätzliche Überlegung anregt, die neuerlichen Zwischenfälle suggerieren, dass – trotz aller Beteuerungen verschiedener Cloud-Anbieter – ein Cloud-Outsourcing kein Selbstläufer ist. Wenn Google (Datenverlust in der Google-Wolke) und Amazon (Totalausfall) nicht sicher sind, wie gestaltet es sich im Falle von kleineren Anbietern? Was tun bei einem Totalausfall eines Anbieters? Sollte man redundante Cloud-Anbieter wählen, um sich gegen einen Ausfall abzusichern? Dies würde die im Cloud-Computing-Hype fest verankerte Kostenersparnisversprechung ad absurdum führen.
Ich habe den Eindruck, dass sich das Cloud Computing immer noch an der Spitze der Gartner-Hype-Kurve befindet. Cloud Computing wird schlicht PR-medial überbewertet. Dies soll nicht bedeuten, dass Gesamthosting keinen Sinn ergibt: in bestimmten Fällen ist das eine gute Lösung. Aber Cloud Computing ist eben nicht wie angepriesen die wundersame Lösung für alle IT-Probleme. Die zur Zeit verstärkt aufziehenden, dunklen Wolken über der Cloud Computing-Industrie werden sich mit der Zeit wieder zerstreuen. Wir werden irgendwann gelernt haben, wie man diese Technologie optimal einsetzt. Bis dahin muss der CIO das Risiko für die Entscheidung tragen, was, wie und wann in die Wolke verschoben werden soll. Diese Verantwortung kann man nicht einfach pauschal an die IT-Wolke delegieren – und das ist meines Erachtens auch gut so.
Ob Cloud-Computing oder eigener Server: Ein Ausfallsrisiko gibt es immer. Tatsächlich sind die Ängste bei Cloud-Computing unbegründet. Professionelle Services wie Amazon haben ein relativ geringes Ausfallsrisiko.
Wer mehrfach sichert, hat es natürlich in allen Fällen leichter: Wir nutzen für unsere Zeiterfassungssoftware TimeTac Amazon, sichern aber gleichzeitig laufend alle Daten selbst. So sind unsere Kunden in jedem Fall auf der sicheren Seite. Und sie ersparen sich Installations- und Wartungskosten – ein nicht unerheblicher Vorteil der Cloud.
Es geht gar nicht um Ängste. Ängste sind hier so falsch wie falsche Hoffnungen.
Jeder sollte Vorteile und Nachteile abwägen. Unkritische Anwendungen können ruhig in der Wolke laufen – wie Webseiten oder eben Zeiterfassung. Andere sollte man kritisch hinterfragen. Das geht natürlich nur, wenn man dazu in der Lage ist.