Fachartikel aus PROTECTOR 4/2018, S. 72 bis 73

Moderne Konzepte für Rechenzentren Dezentral und ausfallsicher

Datenverluste und Systemausfälle für Unternehmen und Behörden sind allgegenwärtig. Laut einer Studie kostet jeder Datenverlust Unternehmen im Schnitt eine halbe Million Euro. Die rasanten Entwicklungen in einer Welt mit immer mehr vernetzten Geräten bedeuten immer mehr Gefahrenquellen für den Verlust wichtiger Daten. Daher muss die Entwicklung von Datensicherheits-maßnahmen für Institutionen und Unternehmen höchste Priorität haben, um diese Gefahren zu bannen.

Bild: Cloud&Heat
Darstellung einer verteilten und dezentralen Cloud-Infrastruktur. Hier wird durch den Geolokalisator ermittelt, dass der Standort A nun näher ist als der vormals genutzte Standort C. (Bild: Cloud&Heat)

Trotz aller Sicherheitsbedenken ist die Lagerung (sensibler) Daten und deren Verarbeitung in der Cloud fast unvermeidlich. Das zeigt auch der globale Trend: Wurden im Jahre 2016 noch etwa 6,8 Zettabyte Daten in der Cloud verarbeitet, soll sich die Datenmenge bis zum Jahr 2020 auf 20,6 Zettabyte mehr als verdreifachen. Viele Gründe sprechen dafür, Cloud-Dienste zu nutzen: Unternehmen und Institutionen aller Art bleiben so flexibler und müssen weniger finanzielle und personelle Ressourcen für den Aufbau, die Bereitstellung und die Wartung interner Lösungen binden. Trotz der bekannten Vorteile scheuen sich viele Unternehmen davor, ihre Daten den großen Cloud-Anbietern anzuvertrauen. Bei weit entfernten Rechenzentren ist es schlicht nicht kontrollierbar, wie und wo die Daten verarbeitet und welche Sicherheitsmaßnahmen getroffen werden.

Unerwünschte Verzögerungen

Einer der Hintergründe für den zu erwartenden steigenden Cloud-Traffic bis zum Jahre 2021 ist die rasante Entwicklung in den Bereichen IoT, Künstliche Intelligenz und Industrie 4.0. Sie werden in den nächsten Jahren immer mehr Einfluss auf unseren beruflichen und privaten Alltag nehmen. Doch sobald diese Technik Einzug in die Produktion oder Logistik hält, spielt automatisch auch die Verfügbarkeit der Daten eine große Rolle. Im Alltag kaum beachtet und bemerkt, sind dabei die Strecken, die bei der Datenverarbeitung in der Cloud zurückgelegt werden. Die Verzögerungszeit zwischen einem Ereignis und der gewünschten Reaktion des Systems wird als Latenz bezeichnet. Ist beispielsweise das Rechenzentrum 600 Kilometer entfernt lokalisiert, bedingt das eine Leitungslänge von ungefähr 1.000 Kilometer hin und wieder zurück. Dies ergibt eine Verzögerung von rund zehn Millisekunden. In vielen Bereichen ist aber bereits eine verzögerungsfreie Datenverarbeitung (in Echtzeit) unerlässlich. Eine Möglichkeit, Latenzzeiten möglichst gering zu halten, ist die Datenlagerung und -verarbeitung nicht in großen, zentralen Rechenzentren beispielsweise in Skandinavien oder den USA vorzunehmen, sondern in dezentralen und verteilten Rechenzentren, am besten in unmittelbarer lokaler Nähe zum Nutzer. Diese dezentralen Rechenzentren bieten noch weitere Vorteile: Beispielsweise lassen sich bestehende Problemstellungen in Bezug auf die Ausfallsicherheit von Systemen lösen. Schließlich sind Unternehmen aller Branchen schlicht handlungsunfähig, sollten die IT-Systeme nicht verfügbar sein. Solche Ausfälle können für Unternehmen innerhalb einer Stunde Kosten im fünfstelligen Bereich verursachen. Im schlimmsten Falle sind die Daten komplett verschwunden, wenn es kein physisch getrenntes Backup-System gibt, das regelmäßig aktualisiert und gewartet wird.

Datenverfügbarkeit gewährleisten

Eine Möglichkeit für die Datensicherung in solchen Situationen wäre ein intelligentes Backup-System zur Datenreplikation, das nicht, wie heutzutage oftmals üblich, die gesamte Datenmenge eines Systems aufs andere überträgt. Das könnte im schlimmsten Falle dazu führen, dass die Daten noch gar nicht vollständig am redundanten Standort angekommen sind, während das Rechenzentrum ausfällt. Verfahren, die die Daten in kleinste Einheiten-Blöcke unterteilen und somit jeweils nur kleine Datenmengen in das physisch getrennte Backup-Rechenzentrum replizieren, sind beispielsweise denkbar. Durch diese kleinen Datenbausteine geschieht der Transfer der Daten besonders schnell, und diese sind so wiederum besonders schnell verfügbar, da der zweite, redundante Standort schnell einspringen kann, falls ein System ausfällt.

Durch diese „synchrone“ Replikation könnte in Zukunft die benötigte Zeit für das Backup um über 50 Prozent gesenkt werden. Die physische Trennung des eigentlichen und redundanten Rechenzentrums ist dabei enorm wichtig, da nur so im Falle eines Ausfalls die Verfügbarkeit der Daten gewährleistet werden kann. Ein weiterer Vorteil dezentraler und re dundanter Lösungen ist die bereits erwähnte lokale Nähe zum jeweiligen Unternehmen oder Nutzer: Sind Augmented-Reality-Anwendungen noch kein essenzieller Bestandteil unseres Alltags, leben wir ansonsten schon längst in einer mobilen, digitalisierten Welt. Wir wollen und müssen unabhängig von unserem Standort gleichermaßen auf die internen IT-Systeme unseres Unternehmens zugreifen und per E-Mail erreichbar sein.

Mehr auf Sicherheit.info

Dank neuer Technologie kann nun ermittelt werden, wo genau sich der Standort des jeweiligen Nutzers befindet. Dieser „Geolokalisator“ erkennt, welches der verteilten Rechenzentren gerade das mit der schnellsten Verfügbarkeit ist und überträgt automatisch die Daten von diesem aus – schließlich sind dank des intelligenten Backup-Systems immer mindestens zwei Systeme auf den aktuellsten Stand synchronisiert und können so auch unabhängig voneinander genutzt werden. Das Forschungsprojekt „fast realtime“ zum Beispiel, eingebettet in das Förderprogramm „fast“ des Bundesministeriums für Bildung und Forschung (BMBF) „Zwanzig20 – Partnerschaft für Innovation“, hat sich dieser Perspektive gewidmet. Für verschiedenste Anwendungsgebiete wie Industrie oder Logistik sollten innovative Echtzeitsysteme entwickelt werden, die den jeweiligen Nutzern hohe Sicherheitsstandards und gleichzeitig schnellste Datenverarbeitung garantieren. Dafür fanden sich Projektpartner aus Wissenschaft, wie etwa der TU Dresden und TU Chemnitz, aber auch Praxispartner mit Branchen-Know-how wie Siemens oder Cloud&Heat zusammen. Diese Punkte zeigen auf, dass es sich für Unternehmen und Behörden durchaus lohnen kann, sich mit dem Thema dezentrale Rechenzentren auseinanderzusetzen, da diese gegenüber den großen Mega-Rechenzentren einige Vorteile in Bezug auf die Verfügbarkeit und Ausfallsicherheit aufweisen können. Kleinere Cloud-Provider sind nicht unbedingt die schlechtere Wahl im Vergleich zu den Global Playern der Branche, deren extrem große Rechenzentren oft keinen redundanten Standort für die Datenlagerung unterhalten. Somit hat der Markt für kleinere, dezentrale und verteilte Rechenzentren durchaus eine Berechtigung, die nicht unterschlagen werden sollte und in Zukunft gute Chancen hat, eine echte Konkurrenz für die Mega-Rechenzentren zu werden.

Franziska Leitermann, PR& Marketing-Manager der CLOUD & HEAT Technologies GmbH

Kontakt- und Firmen-Infos im Branchenverzeichnis