Direkt zum Inhalt
Mobile Edge Computing 26. September 2018

Am Rand des Netzwerks

Die gesamte Industrie schaut gebannt auf die fünfte Mobilfunkgeneration: 100 Milliarden Geräte sollen binnen fünf Jahren über 5G miteinander kommunizieren, darunter viele Überwachungskameras. Das verzögerungsfreie, taktile Internet entsteht. Doch notwendig dafür ist ein Paradigmenwechsel in der Technik, und auch die Anwender müssen umdenken.

Cloud war gestern – die Zukunft heißt Edge-Cloud. Die mobile Variante verwendet den kommenden Mobilfunkstandard 5G und bekämpft effizient den durch hochauflösende Videokameras drohenden Daten-Tsunami. Auf der Security in Essen gewähren Anbieter einen Blick auf die mobile Videoüberwachung der Zukunft. Moderne CCTV-Kameras liefern gestochen scharfe Bilder. Gefährder sind auch dann noch klar zu identifizieren, wenn sie nur am Rand im Bild erscheinen und starke Ausschnittsvergrößerungen nötig sind. So viel Qualität hat allerdings auch ihren Preis: Jede Videokamera belastet das dahinter liegende Netzwerk mit zehn Megabits pro Sekunde und mehr. Höchste Zeit also, über entsprechende Lösungen nachzudenken, denn die Zahl der angeschlossenen Kameras hat sich in den letzten Jahren verzehnfacht und steigt ständig weiter.

Am stärksten geschieht dies in den Millionenmetropolen Asiens – doch gerade in Großstädten ist es besonders aufwendig und teuer, neue Kabel zu verlegen, die Städte drängen daher auf flexible und kostengünstigere Lösungen und setzen verstärkt auf eine Anbindung über das Mobilfunknetz. Dies kann schon heute zu Problemen führen, denn die vorhandenen Mobilfunknetze stoßen rasch an ihre Grenzen. Zudem können sie aufgrund des inneren Aufbaus keine unterbrechungs- und verzögerungsfreie Datenübermittlung garantieren. Das alles wird sich ab 2020 ändern: Weltweit hat man sich auf den Aufbau der fünften Mobilfunknetz-Generation geeinigt. Während die Technik bereits weitgehend steht, wird die Weltfunkkonferenz (World Radiocommunication Conference, WRC) erst nächstes Jahr festlegen, welche Frequenzbereiche für 5G zur Verfügung stehen.

Die Bänder im Bereich 700, 1.800 und 2.600 Megaherz (MHz) sowie zwei, drei und sechs Gigaherz (GHz) sind fast überall bereits für den Mobilfunk reserviert. Anders sieht es im Bereich von 26 GHz und darüber aus. Der Frequenzbedarf ist so riesig, dass 5G nach Meinung der Analysten eine neue industrielle Revolution auslösen wird. Milliarden von Maschinen sollen untereinander verzögerungsfrei und eigenständig kommunizieren. Latenzzeiten von wenigen Millisekunden werden angestrebt. Dies ermöglicht direkte Interaktion zwischen Mensch und Maschine über viele Kilometer hinweg – ein ganz neues Einsatzgebiet auch für CCTV. Zudem sollen die Nutzer die Möglichkeit erhalten, bestimmte Bandbreiten fix buchen zu können. Der Netzbetreiber garantiert Schnelligkeit und Zuverlässigkeit der Datenverbindung. Dieses auch als „Slicing“ bekannte Feature steht bei 3G und 4G nicht zur Verfügung. Slicing ermöglicht eine Anbindung per Funk mit der Zuverlässigkeit einer drahtgebundenen Vernetzung. Im Gegensatz zu den Vorgängern verfügt 5G kaum über fixe Eigenschaften. Das ungeheuer mächtige und flexible Kernnetz teilt jedem Kunden abhängig von seinen Bedürfnissen und seinem Geldbeutel eine Scheibe (Slice) vom Netz zu. Bandbreite, Zuverlässigkeit und Frequenz sind Teil des Vertrages – darüber müssen sich die Anwender im Klaren sein. Man muss kein Prophet sein, um vorherzusagen, dass jeder, der eine kurze Latenzzeit in seinem „Slice“ haben will, dafür auch tief in die Tasche greifen muss. Das gilt erst recht, wenn auch noch eine Ausfallgarantie verlangt wird. Auch die kann 5G im Gegensatz zu den Vorgängern liefern, denn der neue Standard unterstützt die Mehrfachübertragung wichtiger Daten – so gehen Alarmmeldungen nie verloren. Es handelt sich allerdings um technisches Neuland, das erst noch erobert werden muss. 5G erfordert eine spezielle Antennentechnik, die noch Gegenstand der Forschung ist.

Auflösung des Megastaus

Schon heute verfügen viele Kommunen weltweit sowie die meisten modernen Unternehmen über Hunderte von Überwachungskameras, die brillante Aufnahmen in HD-Qualität liefern. Die Resultate sind deutlich besser als die Bilder aus den Zeiten der Flimmerkiste in den 60er und 70er Jahren – und die Auflösung steigt weiter: 4K-Kameras (4.096 mal 2.160 Pixel, 10,2 Gigabit pro Sekunde) sind schon auf dem Markt, sie liefern eine Auflösung wie im Kino, 8K-Kameras (7.680 mal 4.320 Pixel) sind in der Entwicklung. Edge- Cloud will den Megastau beseitigen, bevor er bei den Anwendern zu Problemen führt. Für alle Beteiligten ändert sich viel. „MEC (Multi-Access Edge Computing) hat das Potenzial, die Landschaft der Videoüberwachung grundlegend zu verändern.

Anzeige

Neue Geschäftsfelder werden entstehen, alte werden sich wandeln und anpassen. Die Grundidee von MEC ist es, die Speicherung und Verarbeitung von Daten möglichst nahe an die Quelle zu verlagern, um das Mobilfunknetz nicht unnötig zu belasten. Jede hoch aufgelöste Videokamera beansprucht die Netze mit einer Datenrate von circa zehn Megabit pro Sekunde. Schon heute übernehmen zunehmend automatische Bildanalysesysteme die Voranalyse der eingehenden Videoströme. Nur im Gefahrenfall oder bei Auffälligkeiten werden Bildströme weitergeleitet und Menschen aktiv. Die Auswertung wird möglichst nahe an die Kamera wandern, und zum Beispiel auf der Hardware der Telekommunikationsanbieter laufen – auch in so genanten Micro- oder Pico-Rechenzentren“, erläutert Andreas Conrad, Marketing Direktor der auf Videomanagement-Software spezialisierten SeeTec GmbH.

Auf die Hersteller der Videomanagement und Bildanalysesysteme kommen also erhebliche Veränderungen zu: Die Videobilder werden eben nicht mehr „on premise“ im Rechenzentrum des Nutzers analysiert, sondern in einem Rechenzentrum des Mobilfunkbetreibers. Dieser ermittelt, welches seiner Zentren sich ausreichend nahe an der Kamera befindet. Anschließend stellt er die Software in diesem Zentrum bereit. Auch dies ist technisches Neuland für die Mobilfunkunternehmen. Eine große Zahl an Geräten muss optimal zusammenarbeiten, organisiert von einem schlauen Netzwerk. Dazu werden intelligentere Router mit einer zusätzlichen Software benötigt, eventuell auch eine Erweiterung des Betriebssystems. Von großer Bedeutung ist der Edge-Controller.

Er ähnelt einer Speicherprogrammierbaren Steuerung (SPS) und rückt die Verarbeitungselemente näher an den Sensor, wodurch die Sensordaten schnell analysiert und gefiltert werden können. Wechselt eine CCTV- Kamera den Ort oder schaltet sich neu hinzu, muss das Netzwerk nicht nur den Teilnehmer verwalten, sondern die von ihm benötigten Programme finden und in die nächstgelegene Edge-Cloud transportieren. Dem Mobilfunkbetreiber obliegt es, Leistungsfähigkeit und Kapazität dieser Rechenzentren zu bewerten und vorzuhalten. Für den Nutzer ergeben sich eine Reihe von Vorteilen: Er kann flexibel reagieren, und sehr schnell und ohne große Investitionen CCTV-Infrastrukturen nutzen. Große Volksfeste sind ein beliebtes Beispiel für typische Anwendungen, neben dem Oktoberfest in München gibt es hier weltweit zahllose Anwendungsfälle. Auch kulturelle oder politische Großveranstaltungen wie Konzerte oder Wahlveranstaltungen erfordern erhöhten Sicherheitsaufwand mit einer entsprechen Anzahl von CCTV-Kameras. Oft dauern diese Veranstaltungen nur wenige Stunden oder Tage, mobilisieren aber große Menschenmengen. Mobile Kameras, die sich eigenständig vernetzen, sind hier in Zukunft das Mittel der Wahl. Bevor sich alles wie von selbst organisiert, gilt es, einige Vorarbeiten zu leisten. „Entscheidend ist die Projektierung. Man soll in diesem Zusammenhang die Komplexität nicht unterschätzen. Vor allem auf die Netzbetreiber kommt viel Verantwortung zu: Er muss die geeignete Hardware für unsere Softwareprodukte finden, und zwar genau an der richtigen Stelle des Netzwerks. Aber auch wir als Software-Lösungsanbieter müssen natürlich unsere Hausaufgaben erledigen“, so Andreas Conrad. Rechenzentrum ist nicht gleich Rechenzentrum. Einige werden ganz dediziert auf die Bedürfnisse von CCTV vorbereitet sein, um Bildströme zu verwalten und rasch Auffälligkeiten zu detektieren. Künstliche Intelligenz mit neuromorphen Chips sollen hier Einzug halten.

Die Zukunft hat begonnen

5G und Edge sind keine ferne Utopie. Im Juni 2018 veröffentlichte das Open Fog Consortium nach zweijähriger Arbeit die „Fog Reference Architecture”, die inzwischen von der Standardisierungsorganisation IEEE unter der Bezeichnung IEEE 1934 akzeptiert wurde. Das Referenzmodell basiert im Wesentlichen auf den Vorarbeiten von Cisco. Das ist kein Zufall. Denn die Begriffe „Fog“ beziehungsweise „Edge“ wurden von Cisco geprägt. „Wir verschwenden Zeit und Bandbreite, wenn wir alle Daten von IoT-Devices erst in die Cloud und dann die Antworten wieder zurück ins Netz spielen“, erklärte Cisco die Ausgangslage. „Viel sinnvoller wäre es doch, zumindest einige Verarbeitungsaufgaben direkt vor Ort von intelligenten Routern erledigen zu lassen.“ Eine breite Phalanx arbeitet am selben Thema. Google, Apache und Docker – alle sind an Bord. Der Name spielt in diesem Zusammenhang nur eine untergeordnete Rolle. Je nach Anbieter spricht man von „Fog-Computing“, „Fog-Networking“, „Edge-Computing“, oder eben der „Edge- Cloud“. Alles steht für verteiltes Rechnen oder „Distributed Cloud Computing“. Auch am Begriff „Multi“ sollte man sich nicht stören. Ursprünglich hieß es treffender „Mobile“, die Europäische Telekommunikationsorganisation ETSI (European Telecommunications Standards Institute) ersetzte ihn durch „Multi-Access“, wohl um zu betonen, dass die Daten auf dem „Edge“ nicht in einer Sackgasse stecken, sondern von vielen Anwendungen und Systemen über das Netzwerk genutzt werden können. ETSI arbeitet intensiv an der automatisierten Verteilung von Rechenlast im Netz und subventioniert mit dem „Multi-Access Edge Computing“ (MEC) ein offenes Application Framework.

Kampf mit der Physik

Neben der hohen Datenlast haben die Ingenieure aber noch ein weiteres Problem im Auge, das sie mit der Edge-Architektur lösen wollen – die Latenzzeit. Verzögerungen von mehr als zehn Millisekunden (ms) werden von Menschen bei Videosignalen als störend empfunden. Bei Arbeiten mit Datenbrillen gelten fünf ms als Grenze, sonst stellt sich Schwindel ein, denn der Gleichgewichtssinn wird durch das Auseinanderlaufen von Kopfbewegung und Videobild gestört. Für normale CCTV-Anwendungen ist das bedeutungslos. Aber in Zukunft sollen Überwachungskameras auch zur Fernwartung eingesetzt werden. Dann sind sie Teil des Produktionsprozesses und unterliegen weit höheren Anforderungen, was die Latenzzeiten betrifft. So oder so kämpfen die Ingenieure mit der Physik. Informationen rauschen schnell durch die Netze, doch schneller als die Lichtgeschwindigkeit können auch die Bits nicht wandern. In der Glasfaser schrumpft die Lichtgeschwindigkeit auf circa 200.000 Kilometer pro Sekunde. Dazu kommen Schaltzeiten in den Routern. Wird eine Latenzzeit von einer ms gefordert, dürfen Steuerrechner und Sensor nur circa 100 km voneinander entfernt sein. Für „normale“ CCTV-Anwendungen sind die Forderungen nicht so streng. Trotzdem sollten sich Kameras und Rechenzentren in derselben Region befinden, um Flaschenhälse zu vermeiden. Es sind die harten Gesetze der Physik, die zur Edge-Cloud zwingen. 2020 sollen die ersten kommerziellen 5G Netze in Betrieb gehen. Die ersten Provider üben aber schon heute. Sie verwenden 5G Technik auf LTE Frequenzen. Die Zukunft hat also längst begonnenzum Beispiel im Herbst in Essen. „Auf der Security Essen werden die Besucher am Stand von Seetec Gelegenheit haben, einen Testaufbau auf Basis von LTE zu begutachten. Dieser wird im Kontext von Videoanwendungen zur Sicherung des öffentlichen Bereichs – also zum Beispiel zur Stadtüberwachung – gezeigt,“ erläutert Andreas Conrad.

Bernd Schöne, freier Journalist in München, www.schoene-texte.de

Passend zu diesem Artikel