IT-Sicherheit 17.04.2019

SLA 2.0 – Datenverfügbarkeit bedeutet mehr als nur Backup.

Im Zeitalter der Digitalisierung kommt es darauf an, immer Zugriff auf seine Daten zu haben. Gewinner dieses Zeitalters werden die Unternehmen sein, die zur richtigen Zeit Zugriff auf die richtigen Daten haben. Aber wie macht man das?

Zu Beginn wenig bis keine Relevanz.

Als Konrad Ernst Otto Zuse 1941 den ersten funktionstüchtigen Rechner baute, lag der Fokus darauf, ein, wie er es nannte "mechanisches Gehirn", zu entwickeln. Verfügbarkeit und Datenmenge spielten damals keine Rolle. Selbst als der Apple I 1977 als offiziell erster Personal Computer und später im Jahr 1991 der erste Server im World Wide Web im Forschungszentrum CERN ihren Betrieb aufnahmen, dachte wohl kaum jemand an dieses Thema und seine weitreichenden Entwicklungen.

 

Zu Beginn des digitalen Zeitalters in den 90er Jahren tasteten sich viele Kunden an das Thema heran, führten die ersten Automatisierungen und PC- bzw. Serversysteme ein, aber nach wie vor basierte sehr viel des täglichen Business auf manuellen und systemunabhängigen Tätigkeiten. Je mehr die Digitalisierung Einzug in die Rechenzentren hielt, desto mehr stellte man aber auch fest, dass damit eine sehr große Abhängigkeit von selbigen Systemen und Daten einherging und man sich einen Verlust oder eine Unverfügbarkeit bald nicht mehr leisten konnte, weshalb erste Möglichkeiten der Datensicherung, Datenaufbewahrung und natürlich auch Wiederherstellung entwickelt wurden.

 

 

Im Laufe der Zeit kristallisierte sich heraus, dass die Anforderungen in Bezug auf die Datenverfügbarkeit immer weiter stiegen und heutzutage nahezu kein Unternehmen mehr über längere Zeit geschäftsfähig ist, wenn der Zugriff auf die IT-Dienste und Daten verloren geht. Die manuellen Tätigkeiten und Eingriffe wurden und werden immer häufiger durch digitale Dienste und künstliche Intelligenz (KI) ersetzt, wodurch der Bedarf an einer 24/7 Verfügbarkeit dieser, über alle Industriezweige hinweg, auf nahezu einhundert Prozent steigt. Damit einher geht natürlich auch, dass Datensicherungsstrategien, welche zu Beginn des digitalen Zeitalters sehr gut funktioniert haben, heute nahezu keinerlei Relevanz mehr haben.

 

Im digitalen Zeitalter liegt der Fokus auf Verfügbarkeit.

Heute erwarten nicht nur CEOs und CIOs eine dauerhaft verfügbare IT-Landschaft. Durch immer mehr Apps, Smart-Life und KI im privaten Umfeld erwarten vor allem auch Mitarbeiter und Kunden eine Verfügbarkeit, welche mindestens genauso gegeben ist, wie sie es auch aus dem Privaten kennen. Die Akzeptanzgrenze für Ausfälle oder noch schlimmer Datenverlust, ist vor allem in den letzten Jahren massiv gesunken. Deshalb kann man mittlerweile durchaus von SLAs 2.0 sprechen.

 

Unter SLA versteht man das englische Service Level Agreement, welches einen Rahmenvertrag zwischen Auftraggeber und Dienstleister für wiederkehrende Dienstleistungen bezeichnet. Im Zusammenhang mit Datenverfügbarkeit bezeichnet dies vor allem die vertragliche Definition von RTOs und RPOs im Falle von Systemausfällen und Datenverlusten.

 

Der RTO (Recovery Time Objective) bezeichnet hierbei die Zeit, wie lange es dauert, bis Daten nach einem Ausfall wieder verfügbar sind. Sei es mittels Wiederherstellung aus einem Backup oder durch den Zugriff auf Datenkopien. Der RPO (Recovery Point Objective) definiert zusätzlich, ob und wie viele Daten maximal verloren gehen dürfen, also den Punkt, zu dem bei einer Wiederherstellung zurückgekehrt wird. Im Idealfall sind sowohl der RTO als auch der RPO bei Null (0), also eine nahtlose, transparente Umschaltung im Fehlerfall, ohne Daten zu verlieren.

 

 

Aus diesem Grund steht und fällt alles mit der Definition der SLAs durch Entscheidungsträger. Ohne eine saubere Definition entsprechen in der Regel auch Design und Konzept nicht den Erwartungen; diese werden im Fehlerfall nicht erfüllt. Solch eine Definition sollte sich im Bestfall auch damit beschäftigen, was eine Stunde Ausfall und noch viel wichtiger, eine Stunde oder ein GB verlorene Daten kosten.

 

Zu unterscheiden gilt es bei dem Thema Datenverfügbarkeit vor allem zwischen dem klassischen Backup & Wiederherstellen, welches hohe SLA-Anforderungen praktisch nie vollständig abdecken kann, und einem Desaster-Recovery-Konzept, welches anhand der gegebenen Anforderungen entwickelt und abgestimmt wird.

 

 

Für die zahlreichen Anforderungen gibt es verschiedene Mittel und Wege, um die gewünschte Verfügbarkeit zu erreichen. Von klassischem Backup bis hin zu Applikationsspiegeln bieten sich heutzutage viele Möglichkeiten, um perfekt für Ausfälle abgesichert zu sein. Letztlich ist jeder Invest in dieses Thema eine Versicherung, welche man hoffentlich nicht oft oder besser nie nutzen muss. Neben den Daten und Systemen bedarf es aber auch einer genauen Betrachtung weicher Faktoren wie z.B. Dokumentationen, Alarmketten und Zugängen, um im Falle eines Desasters gerüstet zu sein. Wichtig ist eine ganzheitliche Beratung und Information, die das aktuelle Konzept unter die Lupe nimmt, Potenziale aufzeigt und hebt, sodass künftig allen Anforderungen entsprochen werden kann.

 

Mehr zu IT-Security bei Bechtle

Mehr zu Datacenter bei Bechtle

 

stefan-renner.png
Stefan Renner
Solution Architect