Direkt zum Inhalt

Intelligenz um jeden Preis?

Die intelligente Videoanalyse bekommt gerade einen neuen Schub: Deep-Learning, Machine-Learning und Künstliche Intelligenz halten fast überall Einzug.

Moderator Dirk Ostermann führte die Teilnehmer des Forums mit eben dieser kritischen Frage ins Thema ein: „Durch Videoanalyse lassen sich zweifelsfrei Mehrwerte generieren, doch war der Einsatz bislang oft mit genauer Parametrierung und Anpassung verbunden. Das Schlagwort Künstliche Intelligenz suggeriert nun, das künftig alles ganz einfach oder eben fast wie von selbst geschieht. Es entsteht der Eindruck, dass ein System selbst lernt, was wichtig ist. Aber hält das Schlagwort KI das, was es verspricht? Oder wird es im Sinne des Marketings einfach zu inflationär gebraucht?“

Stefan Dörenbach vom Software-Anbieter Genetec greift einen Aspekt direkt heraus: „An der Diskussion um Künstliche Intelligenz stört mich vor allem das Wort selbstlernend. Es heißt dabei immer, die Software würde ihre Fehler selbst erkennen und beim nächsten Mal besser machen. Das stimmt aber nur bedingt, denn vorher muss sie trainiert werden. Die Nummernschilderkennung setzt beispielsweise voraus, dass der Algorithmus weiß, wie Nummernschilder überhaupt aussehen. Das muss dem Algorithmus erst einmal beigebracht werden. Oft wird aber suggeriert, der Algorithmus sei mittels Deep-Learning-Prozess selbst in der Lage, bei den gigantischen Datenmengen zu erkennen, ob er ein Nummernschild sieht, obwohl ein LKW-Fahrer lediglich seinen Namen auf einem Schild hinter der Windschutzscheibe stehen hat.“

Verschiedene Ausprägungen

Uwe Gleich vom Errichterbetrieb Gleich GmbH sieht die Unterschiede in der Datenverarbeitung: „Wenn wir an Künstliche Intelligenz denken, dann besteht der Unterschied eigentlich nur in der Architektur des Algorithmus. Bei der klassischen Videoanalyse gibt es einen festen Algorithmus, der auf das Video angewendet wird. Bei der Künstlichen Intelligenz schafft man ein neuronales Netz und muss nach bestimmten Kriterien und unter verschiedenen Lern-Szenarien den Algorithmus selbst immer mehr trainieren, um die Entscheidung immer fundierter und damit genau zu machen.“

Martin Scherrer von Siemens schlägt den Bogen zu den Anfängen der Videoanalyse: „Der Videosensor kommt ursprünglich aus der einfachen Motion Detection, danach hat man eine Vordergrund-Hintergrund-Segmentierung mit Hilfe statistischer Methoden durchgeführt. Das sind Algorithmen, die auch heute im Perimeter-Umfeld noch zum Einsatz kommen. Der nächste Schritt ist die merkmalsbasierte Analyse, bei der man auch nach der Objektform sucht. Jetzt kommen mehr und mehr Klassifikatoren zum Einsatz. Es ist ähnlich wie bei einer Suchmaschine im Internet. Wenn man dort eingibt, es soll nach „roten Flugzeugen“ gesucht werden, dann erfolgt die Suche nicht nur nach den Schlagworten „rot“ und „Flugzeug“, sondern nach den grafischen Merkmalen eines „roten Flugzeugs“ im Bild. Diese Klassifikatoren beziehungsweise merkmalsbasierten Analysefunktionen werden verstärkt in den Produkten genutzt, und so ergeben sich intelligente Lösungen. Auch werden Metadaten, die parallel zum Videostrom in einer Datenbank gesammelt werden, immer wichtiger. Diese Metadaten liefern eine Vielzahl neuer Möglichkeiten ergänzend zu der Videoaufzeichnung.“

Anzeige

Christof Knobloch von IPS rät dazu, genau zu definieren, auf was man Algorithmen anwendet: „Künstliche Intelligenz hat verschiedene Ausprägungen. Einmal bezieht man sich nur auf das Videomaterial selbst. Oder man bezieht sich auf Metadaten, die aus Videodaten generiert wurden oder aus anderen Quellen massenweise vorliegen. Analyse kann auf beiden betrieben werden. Aber diese Unterscheidung wird meistens einfach nicht gemacht. Vielmehr verbinden sich Video und Künstliche Intelligenz zu einer Art Wolke, die bei vielen diffus in den Köpfen herumspukt und große Hoffnungen weckt.“

Lernen wie ein Mensch?

Uwe Gleich zieht in Sachen Intelligenz den Vergleich zum Menschen: „Egal, ob wir es Künstliche Intelligenz oder Artificial Intelligence nennen, im Kern geht es um die Konstruktion rund um einen Algorithmus. Er ist in einem neuronalen Netz angesiedelt, das quasi wie unser Gehirn funktioniert. Und von diesem sagt man, dass es unsere Intelligenz prägt. Der Mensch musste seit seiner Geburt unglaublich viel lernen Und vieles ist eben auch kontextabhängig, wie beispielsweise eine Flasche mit klarer Flüssigkeit. Hier in einem Besprechungsraum ist davon auszugehen, dass Wasser darin ist, in einer Gaststätte oder Disco könnte es aber genauso gut Alkohol sein. Diesen Unterschied muss man lernen. Und ein Algorithmus muss es auch.“

Stefan Dörenbach findet die Analogie zwischen dem menschlichen im Gehirn und künstlichen neuronalen Netzen weniger passend: „Natürlich lernt ein Computer auch, dass Flüssigkeiten in Flaschen Wasser sein können. Dass man diese Flüssigkeit aber in ein Glas und vielleicht auch wieder zurück in die Flasche füllen kann, darauf kommt er nicht. Ein Computer wird auch nicht auf die Idee kommen, dass man Wasser abfüllen kann, um es zu transportieren. Der Mensch hat eben Kreativität, die dem künstlichen neuronalen Netz abgeht.“

Dass ein Lernen von Neuem nicht ohne Hilfestellung geht, findet auch Wilfried Joswig vom Verband für Sicherheitstechnik: „Natürlich werden der Maschine Rahmenbedingungen und Methodik vorgegeben. Das erfindet ein Algorithmus nicht selbst. Nehmen wir einmal das Thema Gesichtserkennung, hier gibt es heute schon sehr viele Algorithmen und Lösungen, darunter auch ein System, das mit 1,8 Milliarden Gesichtern trainiert wird, um sicherzustellen, dass alle Gesichter erfasst werden. Das ist aber nichts anderes als Machine-Learning. Wenn das System selbst erkennen würde, dass ihm die 1,8 Milliarden Gesichter nicht reichen und es noch weiteren speziellen Input anfordern würde, um alle zu erkennen, dann wäre das vielleicht Künstliche Intelligenz. So ist es nur Machine-Learning.“

Intelligenz oder Maschinenlernen?

Katharina Geutebrück ist in Anbetracht der heute verfügbaren und sich abzeichnenden künftigen Lösungen überzeugt: „Ich bin überzeugt, dass künftig Deep-Learning und Machine-Learning noch eine viel größere Rolle spielen werden. Es geht um mehr, als generell nur Bilder mit Metadaten auszustatten. Je nachdem in welcher Anwendung man die Technik einsetzt, gibt es sehr spezifische Objekte, die so möglichst genau voneinander getrennt werden und differenziert werden müssen. Trotzdem sollte man definieren, ob man in Bezug auf die Systeme, die aktuell eingesetzt werden, von Künstlicher Intelligenz sprechen möchte.“

Christof Knobloch findet: „Die Branche ist momentan immer noch in den frühen Stadien der Künstlichen Intelligenz. Jetzt gilt es, erst einmal eine Menge an grundsätzlichem Know-how zu sammeln. Und in dieser Phase sind die meisten Algorithmen beziehungsweise Produkte momentan. Man braucht wahnsinnig viele Beispiele, um die neuronalen Netze anzulernen. Bei früheren Algorithmen hat ein Mensch sein Vorwissen genutzt und eine Prägung extrahiert, die er der Maschine beigebracht hat. Diese Schritte werden nun letztendlich mehr und mehr übersprungen. Und das geschieht, indem man sehr viele Beispiele in ein ex-
trem komplexes Netzwerk einspeist, ohne dass der Mensch die Zwischenschritte selber versteht. Daraus folgen dann manchmal abstruse Fehlentscheidungen solcher Netze, die es abzustellen gilt “

Stetige Weiterentwicklung

Thomas Fritz von Kentix sieht großes Potenzial für Deep-Learning und Künstliche Intelligenz: „Wir haben in den letzten Jahren zusammen mit einigen Hochschulen ein Forschungsprojekt zur datenschutzrelevanten Erkennung von Innentätern umgesetzt. Das ist ein Thema, welches geradezu prädestiniert für Deep-Learning ist. Dort sammelt man intern Daten über die verschiedensten Systeme, von der IT über Zutritt, Video und einigem mehr. Diese Daten korreliert man dann, um letztendlich gewisse Muster zu erkennen. Solche Projekte sind sehr spannend. Auf der anderen Seite ist es auch so: Wenn wir gewisse Analyseformen als Künstliche Intelligenz benennen, steckt darin auch eine planerische Zieldefinition. Zudem gehört zur Debatte auch der Faktor Marketing. Ich finde es absolut legitim heute zu sagen, die heutigen Systeme nutzen in einer gewissen Weise Künstliche Intelligenz. Wir bleiben auch nicht beim jetzigen Stand stehen, die Entwicklung wird schnell einen Schritt weiter gehen.“

Auch Mike Plötz glaubt an immer intelligentere Technik: „Aus Sicht des Marketings wird ja manchmal die Frage gestellt: Kann man „dumme“ Kameras noch verkaufen oder ist Intelligenz hier im Sinne eine Analyse der Bilder in der Kamera schon Grundvoraussetzung? Ich denke, es wird bald keine Kameras mehr geben, die nicht eine gewisse Intelligenz an Bord haben. Eine Vorverarbeitung in den Kameras entlastet die nachfolgenden Ressourcen wie Netzwerk und Server. Die Anforderungen werden weiter steigen und der Mehrwert zählt immer mehr. Also müssen die Kameras auch immer intelligenter werden.“

Nur so gut wie die Parametrierung

Bei aller Intelligenz der Maschinen und Algorithmen braucht es nach wie vor den Menschen, um die Technik an die jeweiligen Anforderungen im Projekt anzupassen. Jede Videoanalyse ist nur so gut, wie die entsprechende Anpassung durch fachkundige Experten. Martin Scherrer meint: „Die individuelle Einstellung eines Algorithmus und die Kenntnis der internen Arbeitsweise sind dabei elementar wichtig. Sind Szenenbeurteilung, Kamerapositionierung und Parametrierung mit entsprechendem Sensor-Know-How erfolgt, kann sogar ein von Haus aus weniger leistungsfähiger Algorithmus überlegene Ergebnisse gegenüber einem prinzipiell weiterentwickelten, aber schlecht eingestellten Algorithmus liefern. Hierzu müssen auch die Rahmenbedingungen und Gegebenheiten vor Ort bekannt sein, unter denen die Videoanalyse arbeiten soll. Äußere Einflüsse, wie Wetter, Beleuchtung, Tiere oder Vegetation, können ebenfalls die Ergebnisse beeinflussen.“

Mike Bussmann von Milestone Systems erzählt: „Je nach Analytics sind mir Hersteller bekannt, die auch bei uns in der Video Management Plattform tief integriert sind und aus Gründen der Komplexität der Inbetriebnahme diese selbst begleiten und diese Leistung auch mit in ihr Angebot aufnehmen. Sie verkaufen nichts, wenn sie nicht mit vor Ort sind und die Anpassung an die örtlichen Gegebenheiten übernehmen. So kann man sicherstellen, dass alles wie vorgesehen funktioniert und die Analyse die Ergebnisse bringt, die erwartet werden.“

Für Uwe Gleich ist entscheidend, welches Maß an Komplexität ein Videoanalyse-Projekt hat: „Es ist in der Videoanalyse in den letzten Jahren einfacher geworden, ein gewisses Grundlevel an Know-how zu erreichen. Vieles kann man als Errichter gut einstellen. Aber man muss als Errichter auch ehrlich sein und seine Grenzen kennen. Wenn es um wirklich komplexe Projekte geht, dann braucht man den Hersteller, der mitarbeitet. Man kann nie so tief in der Materie drin stecken wie der Entwickler. Für die korrekte Einstellung muss man aber verstehen, wie der Algorithmus funktioniert und warum er in gewissen Konstellationen vielleicht auch nicht funktioniert.“

Passend zu diesem Artikel