Direkt zum Inhalt
IT-Sicherheit 24. August 2020

Wie KI-Teams Cyberangriffe stoppen können

Christopher Thissen, Data Scientist bei Vectra AI, erläutert wie KI-Teams und Experten für Data Science Cyberangriffe stoppen und zu mehr Sicherheit beitragen.

Bei Vectra werden Teams von Datenwissenschaftlern und Sicherheitsforschern in Künstlicher Intelligenz (KI) geschult, die dann die enormen Datenmengen für die Cybersicherheit analysieren, die für Unternehmensnetzwerke und Cloudumgebungen typisch sind. Gemeinsam sorgen diese Analysten-KI-Teams für eine schnellere und gründlichere Cyberverteidigung, als dies entweder der Analytiker oder die KI allein leisten könnte. Dieser Ansatz hat sich für viele Unternehmen als wertvoll erwiesen, und das Data-Science-Team bleibt weiterhin wachsam bei der Identifizierung neuer, effektiver Wege zur Nutzung der KI.

Cybersicherheit sollte nicht ausschließlich einer Künstlicher Intelligenz (KI) überlassen werden

Problematisch ist nämlich, dass KI auch Fehler auf eine Weise macht, die von Tests nicht erfasst wird. Die bekanntesten Beispiele verwenden nicht wahrnehmbare Änderungen, um überraschende Bildbeschriftungsfehler zu erzeugen. Es gibt hoch entwickelte KI, die in der Lage ist, professionelle menschliche Spieler in komplexen Spielen wie Dota II und Starcraft II zu besiegen. Es hat sich jedoch gezeigt, dass auch weniger erfahrene menschliche Spieler Schwachstellen ausnutzen können. Im Cyberbereich hat Skylight Cyber kürzlich einen KI-Malware-Detektor umgangen, indem es Strings an bekannte bösartige Binärdateien angehängt hat.

Diese Beispiele fallen unter ein im Entstehen begriffenes Gebiet des maschinellen Lernens, das als „Adverserial Attacks“ bezeichnet wird, definiert als „Eingaben in Modelle des maschinellen Lernens, die ein Angreifer absichtlich so gestaltet hat, dass das Modell einen Fehler macht“. Es gibt zwei allgemeine Antworten auf derartige Angriffe: Erstens die Erhöhung der Robustheit einer KI gegenüber Cybersichereit gegnerischen Samples und zweitens die Ergänzung der KI durch „Defense in Depth“. Eine faszinierende Idee ist, dass einige menschliche Fähigkeiten die Fähigkeiten der KI ergänzen und dass menschliche KI-Teams Vorteile gegenüber einer der beiden Entitäten allein bieten.

Cybersicherheit sollte als Aufgabe der Zusammenarbeit verschiedener Teams begriffen werden

Anzeige

Interessanter sind daher die Fortschritte, die nur möglich sind, wenn Menschen und KI auf neue Art und Weise zusammenarbeiten. Es ist immer noch unklar, wie genau sich eine solche Zusammenarbeit manifestieren würde oder welche Fähigkeiten sie freisetzen könnte, aber in anderen Bereichen entstehen provokative Beispiele. Autodesk hat zum Beispiel kürzlich ein neues Rennwagen-Chassis mit Hilfe eines menschlichen KI-Design-Teams entwickelt. Das als Hack Rod bezeichnete Team verwendete Daten, die von einem Experten-Rennteam in der kalifornischen Mojave-Wüste gesammelt wurden, darunter detaillierte Belastungen des Autos, die von über 200 Sensoren erfasst wurden, sowie ein 3D-Modell des Terrains. Ein Team aus menschlichen Konstrukteuren und generativen KIs nutzte die Daten, um ein neues, optimiertes Fahrgestell zu entwerfen, das sich dramatisch von herkömmlichen Konstruktionen unterscheidet.

Passend zu diesem Artikel