Direkt zum Inhalt

Ebenen der Effizienz

Der Effizienzgedanke spielt heute in nahezu allen Anwendungen des täglichen Lebens eine Rolle. Die Videotechnik bildet hier keine Ausnahme. Höhere Auflösungen und steigende Kamerazahlen fordern einerseits stärkere Kompression und smarte Codecs sowie andererseits optimale Nutzung von Bandbreiten und Speichern. Wie man in der Praxis realistisch plant und wo sich moderne Alternativen anbieten, diskutierten die Experten beim Videoforum 2017.

Moderator Dirk Ostermann leitet den Themenkomplex mit grundsätzlichen Fragen ein: „Wie entwickeln sich aktuell Netzwerkbandbreiten und Speicherkapazitäten in der Videotechnik? Welche cleveren Lösungen gibt es, um die Effizienz der Systeme zu gewährleisten? Und was macht außer diesen Faktoren ein effizientes Videosystem noch aus? Oder sind dank moderner Codecs heute mehr oder weniger alle Kameras effizient?“ Dass dem nicht so ist, wird in der folgenden Diskussion schnell klar – es gebe große Differenzen in der benötigten Bandbreite, abhängig von Lichtsituation, Codec, Bildverarbeitung und anderen Faktoren. Mike Plötz von Accellence berichtet: „Wir haben erst kürzlich wieder einen Test für einen Kunden durchgeführt, bei dem diverse Kameras hinsichtlich Lichtempfindlichkeit und Bandbreitenbedarf verglichen worden sind. Dabei haben wir festgestellt, dass die Bandbreite bei einer identischen Szene um den Faktor zehn differiert. Das war für uns sehr erschreckend, denn es herrschten die gleichen Bedingungen für alle zwölf Kameras von acht unterschiedlichen Herstellern. Das bezieht sich nicht nur auf die Lichtsituation, sondern auch auf die Parameter: alle waren auf Full-HD in H.264 bei variabler Bitrate eingestellt.“

Schwierige Planbarkeit

Albert Unterberger von Seetec kennt das Phänomen schon länger: „Das Problem der stark variierenden Bandbreiten besteht grundsätzlich bei den meisten Kompress ionsverfahren (H.263, H.264 und H.265). Bei sehr guten Bildern ist die Bandbreite zum Teil extrem niedrig. Im Gegenzug explodiert sie förmlich, wenn die Videobilder plötzlich zu rauschen beginnen, was beispielsweise bei schlechter Witterung oder ungünstiger beziehungsweise fehlender Beleuchtung passiert. Für die Planung der Netzwerke und der Server-Kapazitäten ist das teilweise eine große Herausforderung – entweder man begrenzt die Bandbreite entsprechend, was auf Kosten der Qualität geht, oder man lässt sie eben zu, was sich dann massiv auf die Kosten auswirken kann. Kritisch wird es bei Systemen, bei denen weder das eine noch das andere berücksichtigt ist – ein solches System kommt schnell an die Betriebsgrenze.“ Martin Scherrer kann die Erfahrungen in diesem extremen Ausmaß nicht bestätigen: „Bei derartigen Kameravergleichstests wird von uns neben der Bildqualität auch die Bandbreite bei wenig und bei viel Beleuchtung gemessen. Das Ergebnis zeigt: Bei guten Lichtverhältnissen sind alle namhaften Hersteller sehr ähnlich, plus/minus 500 Kilobit in der Bandbreite. Bei der Reduzierung auf eine geringe Lux-Zahl und sobald nur noch Restlicht vorhanden ist, wird plötzlich deutlich, wie bei den Kameras das Bildrauschen einsetzt und der Videostrom stark ansteigt, das ist nicht bei allen so. Hier bewegen wir uns um den Faktor zwei bis drei bei der Bandbreite.“

Mike Plötz, Produktmanager vimacc Videosysteme, Accellence Technologies GmbH
Albert Unterberger, Head of Product, Seetec GmbH
Anzeige
Torsten Anstädt, Geschäftsführer, Aasset Security GmbH

Hilfsmittel zur Berechnung

Kester Brands findet, dass Bandbreite und Speicherbedarf heute sehr wichtige Kriterien bei der Produktauswahl sein sollten: „Das sind für den Endkunden wichtige Merkmale, über die er informiert werden soll, denn Bandbreite und letztlich auch der Speicherbedarf werden in der Folge zu Kostenfaktoren, die sich bis hin zu den Wartungskosten der Infrastruktur fortsetzen. Vor diesem Hintergrund muss man auch beachten, dass man Datenblätter kritisch lesen sollte, denn sie werden oft so konzipiert, dass einzelne Punkte immer als Maximalwerte gesehen werden. Hier sind für den Errichter die entsprechenden Berechnungstools für die Bandbreiten eine Hilfe. Aber auch die unterscheiden sich von Hersteller zu Hersteller. Letztlich bräuchten wir ein Tool, das gleiche Bedingungen für alle schafft.“ Stefan Dörenbach von Genetec berichtet von seinen Erfahrungen in dieser Richtung: „Ich war einmal selbst für ein solches generalistisches Tool verantwortlich, in das die Werte verschiedener Kameras unterschiedlicher Hersteller eingeflossen sind. Die Erfahrung hat hier gezeigt, dass alle Kameras bei gleichen Lichtverhältnissen unterschiedliche Werte liefern. Dennoch ist das alles sehr theoretisch. Werden die Kameras an einem bestimmten Standort verbaut, kann es maßgeblich sein, wie viel Bewegung im Bild vorhanden ist und welches Szenario die Kamera aufnimmt. Eine Kamera kann beispielsweise im Labor eher schlechte Werte liefern, in der Praxis aber überzeugen oder umgekehrt, daher können Tools auch bestenfalls Richtwerte liefern. In der Praxis helfen da nur Erfahrungen und Teststellungen.“

Gespür für die Anwendung

Michael Bölsterl von Schmid Alarm sieht es ähnlich und kennt als Errichter die Seite der Praxis ganz genau: „Wir nutzen für die Projektierung auch Tools der Hersteller, trotzdem sind diese kein Ersatz für jahrelange Erfahrung. Wenn man über das Jahr sehr viele Installationen umsetzt, bekommt man ein Gespür für die Anwendungen und kann einschätzen, ob beispielsweise eine berechnete Bandbreite in einem speziellen Szenario stimmen kann oder nicht. Denn die realistische Kalkulation von Bandbreite und Speicher ist in den Projekten heute enorm wichtig.“ Für Christof Knobloch von IPS ist dies ebenfalls essenziell: „Man muss dem Kunden eine solide Basis geben, trotz der recht großen Varianz, die die neuen Codecs erzeugen können. Denn die deutlichen Unterschiede in der Bandbreite hängen stark vom Maß der Bewegung ab, was die Bandbreitendynamik verschärft. Die Varianz war bei den früheren Codecs nicht so hoch wie heute.“ Christian Zens von Ingram Micro kennt die Anforderungen, sieht dies aber nicht so dramatisch, wenn man den richtigen Ansatz verfolgt: „Ich werde vom Kunden ganz oft gefragt, wie viel Bandbreite brauche ich denn? Da muss ich sagen: Bei der Projektierung mit vernünftigen Kameras ist das nicht so schwer zu berechnen. Ich kenne es nicht, dass die tatsächliche Bandbreite um den Faktor zehn von der vorab errechneten Bandbreite abweicht. Faktor zwei ist in aller Regel ausreichend und damit bin ich immer gut gefahren. Und falls man wirklich einmal etwas zu wenig Speicher berechnet hat, kann recht unkompliziert eine Festplatte nachgerüstet werden. Aber bisher ist noch nie jemand zu mir zurückgekommen hat gesagt: Die Berechnung passt nicht.“

Codecs und Co

Eine gewisse Varianz in den Bandbreiten ist wohl dem Konzept heutiger Codecs geschuldet und der Art wie sie eingesetzt werden. Dennoch geht die benötigte Bandbreite seit einiger Zeit generell nach unten. Martin Scherrer erklärt: „Man muss sich nur die letzten zehn Jahre ansehen, welche Veränderung bei den Kompressionsverfahren stattfand. Sie wurden stetig effizienter und sorgten trotz höherer Auflösungen für einen geringeren Bandbreitenbedarf. Und so werden immer neue Codecs veröffentlicht, die aber – das ist die Kehrseite – mehr Rechenleistung benötigen. Die Rechenleistung verdoppelt sich mit jedem neuen Codec, während sich die Bandbreite bei gleicher Auflösung halbiert. Glücklicherweise besitzen die Kameras heute mehr Rechenleistung, so dass wir demnächst über den Nachfolger von H.265 reden können.“ Markus Groben sieht die Entwicklung auch eher gelassen: „In der Videotechnik gibt es eben diesen Kreislauf: Man hat mehr Rechenleistung und kann höher aufgelöste Bilder erzeugen, braucht dann aber einen neuen Codec, damit die Bandbreite im Rahmen bleibt. In der Folge braucht man aber wieder mehr Rechenleistung. Aber nach dem üblichen Gesetz erfolgt alle halbe Jahr die Verdopplung der Rechenleistung. Und so werden wir irgendwann wohl mit H.268 in 12K arbeiten.“ Christof Knobloch merkt darüber hinaus noch generelle Unzulänglichkeiten an, die im Nachgang ausgeglichen werden: „Bei all diesen Codecs muss man auch sehen, dass diese Standards hauptsächlich für den Consumer- oder Broadcast-Bereich entwickelt wurden. Deshalb setzen die Hersteller der Security-Industrie hier auch ihre speziellen Erweiterungen auf. Im Grunde wäre es besser, gleich von vornherein einen Codec auch für die Sicherheitsanwendung zu erarbeiten, zu dem alle Anbieter kompatibel sind. Dieser Weg scheint mir aber eher unwahrscheinlich.“

Algorithmen und Clients

Die bereits angesprochenen Erweiterungen versprechen oft auch eine weitere Reduzierung der Bandbreite. Das wiederum sei problematisch, wie Mike Plötz findet: „Wir haben schon öfter festgestellt, dass die von manchen Herstellern verwendeten Erweiterungen, heißen sie nun H.264+ oder anders, zwar eine Reduktion der Daten schafft, aber gleichzeitig die Bildfrequenz sinkt. Das Problem ist: viele Kameras schaffen die Berechnung nicht mehr und übertragen dann nur noch 15 Bilder statt 25. Der Algorithmus ist zwar implementiert, aber die Kameraperformance ist noch nicht immer ausreichend hoch.“ Das Phänomen gehe noch weiter, ergänzt Michael Bölsterl: „Zu Leistungsengpässen kommt es teilweise auch auf den Client-Rechnern. Denn wenn man die stark komprimierten Videos vernünftig darstellen will, braucht man leistungsfähige Systeme, die den verwendeten Algorithmus wieder zurückrechnen können.

Wenn einmal vier oder fünf solche Videoströme auf dem System in höherer Auflösung parallel dargestellt werden sollen, stößt man mit falsch dimensionierter Hardware schnell an Grenzen. Und solche Erweiterungen werden auch nichts an der Varianz ändern. Der Kamerahersteller A schafft es die benötigte Bandbreite um zehn Prozent zu reduzieren und den Kamerahersteller B schafft eine Reduzierung um 20 Prozent.“ Torsten Anstädt von Aasset plädiert für einen weiteren Ansatz: „Jetzt haben wir viel von der Kamera und von Codecs gesprochen, aber eine Kamera ist letztlich nur ein Sensor. Es kommt aber auch stark auf die Managementsoftware an, wie effizient etwas ausgestaltet wird. Eine Kamera kann so gut sein, wie sie will, aber die ganzen Videoströme müssen auch effizient gespeichert und visualisiert werden. Da gibt es erhebliche Unterschiede. Ich kenne Flughäfen, die haben für dieselbe Kameraanzahl drei Server oder eben 200.“ Christian Zens stimmt zu: „Natürlich muss man die ganze Kette bedenken, auch die Dekodierung auf dem Client, die in angemessener Qualität stattfinden muss. Das wird natürlich heute nicht oft genug bedacht – und auch nicht jeder Hersteller bietet hier eine vernünftige Lösung an.“

Markus Groben, Geschäftsführer, Groben, Ingenieure GmbH
Christof Knobloch, Leiter Produktmanagement IPS Intelligent Video Analytics, Securiton GmbH
Dirk Ostermann, Moderator des PROTECTOR & WIK Forums Videosicherheit

Anders ansetzen

Moderator Dirk Ostermann lenkt die Diskussion in eine andere Richtung: „Seit einiger Zeit sind immer häufiger flexible Lösungen im Gespräch, die eine aufwändige Berechnung und Installation von Netzwerk infrastruktur und Speicher beim Kunden überflüssig machen sollen. Doch sind Cloudlösungen und Konzepte zu Video-asa-Service wirklich der Ausweg?“ Stephan Roth von PCS kann sich das vorstellen, jedoch nicht für jede Anwendung: „Ich denke, dass Cloud-basierte Lösungen gerade für kleinere Installationen sehr interessant werden, etwa für Filialisten, wie etwa Bäckereien und ähnliches. Im Grunde ist es für alle, die Videosysteme in irgendeiner Form brauchen, sich aber wenig auskennen und sich nicht groß darum kümmern wollen. Da ist es ideal, man überlässt es einem, dem man vertraut, der zusichert, dass die Lösung zuverlässig funktioniert und man wenig Aufwand hat. Ich glaube, hier kann sich ein enormer Wachstumsmarkt auftun. Bei den großen Anwendern sehe ich das eher skeptisch, auch weil man sich nicht abhängig machen und seine Daten aus der Hand geben will.“ Doch auch für diese könnte es Sinn machen, meint Martin Scherrer: „Bei größeren Kunden ist es das Wichtigste, dass man eine private Cloud nutzt, die von der firmeneigenen IT im Rechenzentren betreut wird. Dort kann man die gleiche Technologie nutzen, aber eben nicht in einer öffentlichen Cloud. Es kann sich lohnen, denn die Rechenleistung haben sie prinzipiell, den Speicher auch.“

Cloud „verkaufen“

Die Hindernisse für den flächendeckenden Einsatz effizienter Cloud-Lösungen scheinen nicht unbedingt in der Technik zu liegen, wie Torsten Anstädt anmerkt: „Die Frage ist doch: Ist es wirtschaftlich, eine Cloud-Lösung zu verkaufen oder lohnt sich aus Sicht der Anbieter doch eher ein Server? Die klassischen Business-Modelle sind heute von der Vermarktung noch attraktiver und problemloser als Cloud- Konzepte. Auch muss man sehen, dass nicht überall die nötige Bandbreite zur Verfügung steht. Aber wenn wir über die Zukunft sprechen und die richtigen Weichen stellen, kann es schon sein, dass innerhalb von drei bis vier Jahren überall die nötige Breitbandverkabelung zur Verfügung steht, die wir für die Cloud brauchen.“ Einschränkungen sieht auch Albert Unterberger: „Ich kenne einen Fall, bei dem ein Serviceprovider versucht hat, europaweit eine Video-Cloud auszurollen und damit Schwierigkeiten hatte, dass er die Meta-Daten zentral in einem Land speichern wollte. Hier haben diverse Länder, vor allem auch Deutschland, aufgrund datenschutzrechtlicher Vorgaben geblockt, weshalb dann wieder Insellösungen geschaffen wurden. Cloud-basierte Systeme werden sich dann durchsetzen können, wenn sie für alle Beteiligten signifikante Vorteile gegenüber konventionell in stallierten Systemen haben und die Datenschutzfrage respektive die Vertrauensfrage gelöst ist.“ Torsten Anstädt ergänzt: „Das Pro blem ist, wir haben momentan kein wirklich attraktives Cloud-Konzept, das auch die Errichter überzeugt. Hätten wir ein solches, würde am Ende des Jahres der Errichter daran mehr verdienen als an der Hardware jetzt.“ Dem kann Albert Unterberger nur zustimmen: „Ich glaube auch, das ganze Thema wird dann wirklich Fahrt aufnehmen, wenn auch der Errichter Freude daran hat und damit ein Geschäft macht. Er ist derjenige, der die Anlagen dort draußen verkauft, und solange er nicht mitzieht, wird es sich nur schwer durchsetzen.“

Attraktive Services

Michael Bölsterl ist noch zurückhaltend: „Für den klassischen Integrator oder Errichter ist es aktuell noch nicht attraktiv, Cloud Services zu verkaufen. In der Regel versuchen die Anbieter die Skalierungseffekte zu nutzen, der Nutzen für den Systemintegrator oder Errichter vor Ort ist meistens überschaubar. Somit fehlt der Anreiz zum aktiven Verkauf. Darüber hinaus stehen die Bandbreiten oft nicht zur Verfügung oder nur zu Kosten, die das Projekt dann wieder unattraktiv machen. Wir werden sehen, welche Konzepte sich zukünftig zum Thema „Video-Cloud durchsetzen werden.“ Martin Scherrer ist aber zuversichtlich: „Wie so oft, bergen neue Technologien Chancen und Risiken. Sobald die richtigen Cloud-Anbieter mit den entsprechenden Applikationen und Services auf den Markt kommen, wird sich das durchsetzen, vielleicht schon schneller als gedacht. Eine Folge der Digitalisierung ist auch, dass neue Geschäftsmodelle nicht mehr Jahre brauchen, sondern Monate oder Wochen. Deshalb ist es wichtig, den Markt genau im Blick zu behalten.“

Michael Gückel

Passend zu diesem Artikel