Direkt zum Inhalt
IT-Sicherheit

Wettbewerb zu vertrauenswürdiger Künstlicher Intelligenz

Zwei Forschungsteams der TU Darmstadt konnten in einem Wettbewerb zu vertrauenswürdiger Künstlicher Intelligenz (KI) mit ihren Forschungsprojekten punkten.

Ziel der Forschungsteams der TU Darmstadt ist es, mit der Förderung von Grundlagenforschung Technologien zu entwickeln, welche die Sicherheit in dezentrale Künstliche Intelligenz (KI) stärken.
Ziel der Forschungsteams der TU Darmstadt ist es, mit der Förderung von Grundlagenforschung Technologien zu entwickeln, welche die Sicherheit in dezentrale Künstliche Intelligenz (KI) stärken.

Die Cryptography and Privacy Engineering Group unter Leitung von Professor Thomas Schneider und das System Security Lab unter Leitung von Professor Ahmad-Reza Sadeghi aus dem Profilbereich Cybersicherheit der TU Darmstadt überzeugten mit ihren Forschungsideen zu vertrauenswürdiger KI im Rahmen eines international ausgeschriebenen Wettbewerbs. Renommierte Universitäten waren aufgefordert, Forschungsideen für das von Intel, Avast und Borsetta initiierte Private AI Collaborative Research Institute einzureichen. Neun Forschungsteams, darunter zwei der TU Darmstadt, konnten sich im Konkurrenzfeld behaupten. Im Vordergrund der Forschungsarbeiten steht das sogenannte Federated Machine Learning, um exakte, vertrauenswürdige und sichere Algorithmen in Software und Hardware für KI zu etablieren.

Forschung zu KI-Fähigkeiten für Kameras
IDS ist seit Juli 2020 mit einer eigenen Niederlassung in Serbien vertreten und betreibt als Hersteller digitaler Industrie-Kameras Forschung speziell im Bereich KI.

Forschungsprojekt zu vertrauenswürdiger Künstlicher Intelligenz

Täglich werden enorme Datenmengen erzeugt, gesammelt und weiterverarbeitet. Es werden neue Methoden der angewandten Kryptographie für Privatsphäre-schützende KI-Systeme benötigt, um so den Schutz sensibler Daten zu gewährleisten. Das Forschungsprojekt von Thomas Schneider, Leiter des Fachgebiets Cryptography and Privacy Engineering (Encrypto) beschäftigt sich insbesondere mit Methoden zur sicheren Mehrparteienberechnung und der Anwendung von Hardware-beschleunigter Kryptographie im Kontext von dezentraler KI. Die Kooperationspartner aus wissenschaftlicher Forschung und Industrie wollen unter dem Dach des Private AI Collaborative Research Institute Herausforderungen bewältigen, die durch die Ausbreitung von KI in nahezu alle Lebensbereiche und Industriezweige entstehen.

Das Private AI Collaborative Research Institute ist eine Forschungskooperation mehrerer Unternehmen. Das ursprünglich von Intel initiierte Zentrum baut sein Forschungspotenzial aus, indem es mit Avast, einem weltweit führenden Sicherheitsunternehmen, und Borsetta, einem Start-up für Edge-Computing, eng zusammenarbeitet.

Anzeige

Passend zu diesem Artikel