Foto: Genetec

Kiwisecurity

Meister der Verschleierung

Vor zehn Jahren noch weitgehend unbekannt, ist Verpixelung inzwischen eine wichtige Funktion in der intelligenten Videoanalyse. PROTECTOR & WIK sprach mit Florian Matusek, Gründer und Geschäftsführer des Unternehmens Kiwisecurity, das die Technik in die Videoüberwachungsbranche einführte.

PROTECTOR & WIK: Herr Matusek, 2008 gründeten Sie als Student gemeinsam mit Ihren Kommilitonen Stephan Sutor und Klemens Kraus das Start-up Kiwisecurity. Welche Geschäftsidee hatten Sie, und wie kam es eigentlich zum Namen des Unternehmens?

Florian Matusek: Dazu müssen wir zurück ins Jahr 2005. Damals haben wir alle drei an der Technischen Universität Wien studiert und im Bereich Videoanalyse geforscht, die noch in den Kinderschuhen steckte. Es gab noch keine Produkte in diesem Bereich, und wir haben uns gesagt: das ändern wir. Was den Unternehmensnamen betrifft, waren wir damals alle große Apple-Fans, wir hatten den ersten „iPod“, das erste „iPhone“ und haben die Bücher von Steve Jobs verschlungen. Für unser Unternehmen wollten wir auch den Namen einer Frucht, weil er auch einfach einprägsamer ist, als „xyz IT“. Da Apple aber bereits vergeben war, mussten wir uns nach einer anderen Frucht umschauen. Die Wahl fiel dann auf die Kiwi, weil es auch ein Tier mit diesem Namen und Eigenschaften gibt, die zu uns passen. Außerdem lässt sich daraus ein schönes Akronym bilden: „Künstliche Intelligenz Wien“.

Haben Sie sich im Sicherheitsmarkt von Anfang an auf Verpixelung spezialisiert?

Wir haben schnell begriffen, dass zu einem Produkt auch eine konkrete Anwendung gehört. Begonnen haben wir mit allgemeinen Algorithmen zur Personenverfolgung und Objekterkennung, also eher die klassischeren Themen in der Videoüberwachung. Die Verpixelung entstand dann eigentlich durchs Herumspielen. Ein Kollege legte über die Gesichter aller Personen im Bild einfach mal eine Farbe, das nannten wir damals „Ghosting“, weil die Personen danach wie Geister wirkten, erst später realisierten wir, dass diese Idee genial war, da gerade im deutschsprachigen Raum der Datenschutz ein Riesenthema ist. Uns wurden als Start-up in der Anfangsphase auch oft Fragen nach dem Datenschutz und der Ethik unseres Business gestellt, und darauf war Verpixelung eine Antwort. Wir begannen also, uns intensiver damit zu beschäftigen und starteten mit der TU Wien ein weiteres Forschungsprojekt, in dessen Verlauf wir auch erstmals mit der Zertifizierung „EuroPriSe“ (European Privacy Seal) in Berührung kamen, an deren Entwicklung die Universität wesentlich beteiligt war. So kam es, dass unser Produkt von Anfang an nach den Kriterien der Zertifizierung entwickelt wurde. 2009 kam dann die erste Version des „Privacy Protector“ gemeinsam mit dem Patent und der Zertifizierung heraus.

In der Branche wird teilweise die Auffassung vertreten, Verpixelung sei technisch kein Problem und leicht umzusetzen. Welche Eigenschaften unterscheiden den „Privacy Protector“ von anderen Ansätzen?

Als wir 2009 unser Produkt auf den Markt brachten, war Verpixelung noch überhaupt kein Thema in der Branche. Erst vor einigen Jahren haben auch andere Firmen damit begonnen. Dabei gibt es aber sehr große Unterschiede. Typisch ist, dass oft auf der Benutzeroberfläche ein „Overlay“ über Personen gelegt wird, also eine Art Maske. Aus Sicht des Datenschutzes ist das eher ein Marketinggag, weil darunter noch immer das Originalvideo liegt, das natürlich auch gespeichert wird. Ein sehr wichtiges Kriterium für die Zertifizierung war dagegen, dass im Videostream selbst alle personenbezogen Daten gelöscht beziehungsweise komplett zerstört werden müssen. Wenn wir verpixeln, gibt es keine Möglichkeit mehr, die Videodaten zurückzurechnen. Um das Originalvideo wieder frei schalten zu können, wird ein zweiter Videostream hoch verschlüsselt abgespeichert. Und nur wenn eine entsprechende Legitimation vorliegt, kann dieser eingesehen werden. Das ist auch der Grund dafür, warum wir nach wie vor der einzige Anbieter sind, dessen Verpixelungslösung zertifiziert ist.

Sie konnten also auch den verschärften Bedingungen der Datenschutzgrundverordnung (DSGVO), die Ende Mai 2018 in Kraft getreten ist, gelassen entgegen sehen?

Genau, konkret muss die Zertifizierung ja alle zwei Jahre erneuert werden. Das ist ein ziemlich langwieriger Prozess, weil nicht nur der rechtliche Rahmen, sondern bis hinunter zum Quellcode geprüft wird, ob es noch irgendeine Möglichkeit gibt, an die Originaldaten zu kommen. Auch jede Software wird einzeln zertifiziert, das heißt, wir können diese danach nicht mehr ändern. Seit der letzten Zertifizierung 2017 wird das Produkt auch nach den strengeren DSGVO Kriterien regelmäßig geprüft und zertifiziert.

Wie lösen Sie den scheinbaren Widerspruch zwischen Datenschutz und intelligenter Videoanalyse, die auf große Datenmengen angewiesen ist?

Das ist aus unserer Sicht kein wirklicher Widerspruch. Denn Daten können ja gesammelt werden, solange dies mit dem Einverständnis der betroffenen Personen geschieht. Wenn man sich daran hält, und das tun wir, ist das grundsätzlich in Ordnung.

Ein weiteres aktuelles Thema ist das Schlagwort Künstliche Intelligenz. Was halten Sie von diesem Begriff, und kann man die Algorithmen, auf denen Ihre Lösungen basieren, als solche bezeichnen?

Also wir sind eher skeptisch gegenüber diesem Begriff, den es bereits seit den 1940er Jahren gibt, und der etwa alle 20 Jahre wellenartig wieder auftaucht. Heute werden auch selbständig arbeitende Rasenmäher als „intelligent“ bezeichnet. Statt über „AI“ (Artificial Intelligence) sprechen wir lieber von „IA“ (Intelligent Automation), das heißt, wir entwickeln Algorithmen, die Dinge automatisieren. Natürlich verwenden wir dabei im Hintergrund auch „Machine Learning“ oder „Deep Learning“, aber wir vermeiden es, dabei von Intelligenz zu sprechen, da der Begriff sehr inflationär verwendet und als Marketinglabel benutzt wird, um Produkte zu verkaufen.

Im Consumer-Bereich gibt es inzwischen Programme, die sich beispielsweise Schach selbst beibringen, und in kürzester Zeit den Weltmeister bezwingen. Sind solche Anwendungen, die sich selbst optimieren auch in der Videoanalyse vorstellbar, und beschäftigen Sie sich damit?

Es ist immer schwierig, diese Frage in wenigen Worten zu beantworten, aber ja, das machen wir auch, zum Beispiel mit der neuesten Version unserer Personenzählung, die bald auf den Markt kommt. Hier speisen wir ein System mit hunderttausenden von Bildern, und lassen es automatisch lernen, um eine sehr genaue Personenerkennung zu bekommen. Der Lernprozess wird aber nur bei uns im Labor vollzogen. Sobald das Programm ausgeliefert wird, ist es dazu nicht mehr in der Lage. Andreas Albrecht