IT-Systeme : Sieben Mythen der Hochverfügbarkeit

Hochverfügbarkeit
© Fotolia/lynea

Im Zeitalter von Always-On ist eine hohe Verfügbarkeit der IT-Systeme für Unternehmen lebenswichtig. Ohne IT funktionieren die Geschäftsprozesse nicht. Trotzdem sind viele beim Thema Hochverfügbarkeit überaus zurückhaltend. Patrick-Steeven Skwara ist Marketing Manager bei Stratus Technologies GmbH und kennt die Trugschlüsse der Unternehmen. „Einige meinen, das Thema würde sie nicht betreffen, andere erkennen zwar grundsätzlich die Risiken nicht hochverfügbarer Systeme, sehen aber nicht, wie sie sich als kleinere oder mittlere Unternehmen dagegen absichern könnten.“ Zusammen mit Martin Madlo, Operations Manager bei Interxion Österreich, klärt Skwara über die gängigsten Mythen rund um die Hochverfügbarkeit von IT-Systemen auf.

1. Der Server-Mythos

Normale Server bieten heute ausreichend Sicherheit.

Tatsächlich sind Server in den letzten Jahren wesentlich zuverlässiger geworden. Allerdings sind auch die Anforderungen gestiegen. „Viele Unternehmen betreiben heute unternehmenskritische Anwendungen auf Standard-Servern“, warnt Skwara. „Solche Anwendungen müssen aber kontinuierlich verfügbar sein, sonst können hohe Verluste entstehen, die sogar die Existenz des Unternehmens gefährden.“ Dem stimmt auch Madlo zu. Beide sind sich einig: Standard-Server unter Linux und Windows erreichen zwar eine Verfügbarkeit von etwa 99,9 Prozent. Was allerdings einer durchschnittlichen Ausfallzeit von 8,7 Stunden pro Jahr entspricht. „Für unternehmenskritische Aufgaben sind jedoch mindestens 99,99 Prozent, in der Regel sogar 99,999 Prozent erforderlich“, so Skwara. „Damit fallen die Server nur mehr fünf Minuten pro Jahr aus.“

2. Der Größen-Mythos

Hochverfügbarkeit ist nur für große Unternehmen relevant.

Ausnahmslos – und da sind sich sowohl Madlo als auch Skwara einig - alle Unternehmen sind heute von ihrer IT abhängig und müssen daher Risikovorsorge betreiben. „Fehlertolerante Server oder hochverfügbare Software-Lösungen, wie Virtualisierungs- Software und Cloud Applikationen, sind aufgrund des geringen Aufwands auch für kleinere und mittlere Unternehmen geeignet“, erklärt Madlo. Er sieht vor allem „Software-as-a-Service“ als den Trend schlechthin. „Diese Entwicklung ist nicht aufzuhalten und wird sowohl Anbieter als auch Anwender zu Anpassungen ihrer Geschäftsprozesse motivieren“, so Interxion-Mann. „Das beständige Datenwachstum wird die IT-Infrastruktur weiterhin an die Kapazitätsgrenzen bringen und damit Innovationen beschleunigen.“

3. Der Datenklau-Mythos

Wer mit seiner IT in ein externes Rechenzentrum geht, verliert die Hoheit über seine Daten.

In vielen österreichischen Unternehmen gibt es noch immer eine gewisse Scheu davor, die Server in ein externes Rechenzentrum zu verlegen. Diese ist für Madlo unbegründet. „In einem carrier-neutralen Rechenzentrum wie Interxion bleiben die Daten noch immer in der Hand des Kunden“, bekräftigt der Operations Manager. „Mit einer intelligenten Colocation-Lösung können KMUs so von entscheidenden Einsparungen auf Seiten der Investitions- und Betriebskosten profitieren.“ Auch die Sicherheitsebenen in solchen externen Rechenzentren sind laut Madlo wesentlich höher als in kleinen Inhouse-Rechenzentren.

4. Der Geld-Mythos

Hochverfügbarkeit ist teuer und aufwändig zu administrieren.

„Die Kosten von Hochverfügbarkeits-Lösungen müssen im Verhältnis zum möglichen Schaden gesehen werden“, beschwichtigt Skwara die Sorge vieler Unternehmen, dass Hochverfügbarkeit viel zu teuer sei. Tatsächlich ist heute Hochverfügbarkeit auch für kleinere Unternehmen erschwinglich. „Fehlertolerante Server kosten unterm Strich weniger als entsprechende Cluster-Lösungen“, so Skwara. Warum? Es fallen keine zusätzlichen Kosten für Software- Anpassung, zusätzliche Lizenzen oder eine aufwändige Administration an.

5. Der Ersatz-Mythos

Virtualisierung macht Hochverfügbarkeit überflüssig.

Das Gegenteil ist laut Skwara richtig: „Werden auf einem physischen Server mehrere virtuelle Umgebungen betrieben, so sind von einem Hardware-Ausfall immer gleich mehrere Server mitsamt den Anwendungen betroffen.“ Damit kann ein einziger defekter physischer Server eine ganze virtuelle Server-Gruppe mit sich ziehen. „Für jedes System müssen dann mehr oder weniger aufwändige Maßnahmen zur Wiederherstellung des Betriebs vorgenommen werden“, warnt er. Wichtige Anwendungen sollten daher – gerade auf virtuellen Servern – auch eine hochverfügbare Hardware-Plattform haben. Dem stimmt Madlo nur zum Teil zu. „Es gibt Maßnahmen, die dafür sorgen, dass virtuelle Server-Gruppen redundant verfügbar sind und somit das Ausfallrisiko minimiert wird.“

6. Der Zwillings-Mythos

Disaster Recovery und Hochverfügbarkeit sind dasselbe.

Madlo macht Schluss mit diesem gängigen Irrtum. „Disaster Recovery hilft einem Unternehmen nach einem schwer wiegenden Ereignis wieder so rasch wie möglich in den Normalbetrieb überzugehen und die Auswirkungen zu minimieren“, so der Operations Manager bei Interxion. Während also Business Continuity Maßnahmen und Disaster Recovery sozusagen Katastrophenschutz bieten und die IT der Unternehmen vor den Auswirkungen von Bränden, Erdbeben, Flugzeugabstürzen oder Anschlägen schützen, sorgt Hochverfügbarkeit für den Schutz bei internen technischen Störungen. „Verantwortungsvolle Unternehmen werden daher immer beides in ihrem Sicherheitskonzept berücksichtigen“, so Madlo.

7. Der Backup-Mythos

Wir machen regelmäßige Backups und sind damit hochverfügbar.

Für Skwara ist das ein besonders hartnäckiger Mythos. „Viele Unternehmen verwenden unterschiedliche Technologien, um ihre IT abzusichern. Aber der Einsatz einer USV oder die Durchführung regelmäßiger Backups sind zwar unerlässlich, machen ein System aber keineswegs hochverfügbar“, so der Stratus-Mann.