Forschungsgruppe - Verantwortungsvolle KI für Biometrie

Biometrische Systeme erfreuen sich weltweit großer Beliebtheit und wirken sich zunehmend auf unser tägliches Leben aus. In Smart Homes wird beispielsweise Stimmerkennung eingesetzt, am Flughafen werden Gesichtsbilder verwendet, um die behauptete Identität einer Person zu überprüfen, oder Fingerabdrücke werden zum Entsperren von Smartphones verwendet. Die hohe Leistungsfähigkeit aktueller biometrischer Systeme basiert auf Entwicklungen im Bereich des Deep Learning. Der Erfolg bei der Adaption dieser Techniken für die Erkennung geht jedoch auf Kosten von wichtigen Diskriminierungsfaktoren wie Fairness, Privatsphäre, Zuverlässigkeit und Erklärbarkeit. Da biometrische Systeme zunehmend auch in kritische Entscheidungsprozesse einbezogen werden, etwa in der Forensik und der Strafverfolgung, besteht ein wachsender Bedarf in der Entwicklung verantwortungsvoller KI-Algorithmen für biometrische Lösungen.

  • Fairness - Viele biometrische Lösungen beruhen auf Lernstrategien, die die gesamte Erkennungsleistung optimieren. Da diese Lernstrategien stark von den zugrundeliegenden Eigenschaften der Trainingsdaten abhängen, ist die Performance der erlernten Lösungen auch stark von den Eigenschaften des Datensatzes abhängig, z. B. von demografischen Aspekten. Dies kann zu starken diskriminierenden Effekten führen, z. B. bei forensischen Untersuchungen oder der Strafverfolgung.
  • Datenschutz - Die erlernte biometrische Repräsentation eines Individuums enthält mehr Informationen als nur die Identität des Individuums. Datenschutzrelevante Informationen wie Geschlecht, Alter, ethnische Zugehörigkeit und Gesundheitszustand sind aus einer solchen Darstellung ableitbar. Da bei vielen Anwendungen davon ausgegangen wird, dass die Vorlagen nur zu Erkennungszwecken verwendet werden, wirft das Vorhandensein weiterer Informationen erhebliche Datenschutzbedenken auf. So kann beispielsweise der unbefugte Zugriff auf datenschutzrelevante Informationen einer Person zu einer ungerechten oder ungleichen Behandlung dieser Person führen.
  • Zuverlässigkeit - Die Entscheidung biometrischer Systeme hat oft starke Auswirkungen auf die Benutzer. Zudem können falsche Entscheidungen mit hohen finanziellen und gesellschaftlichen Folgen verbunden sein. Daher ist es wichtig, Algorithmen zu entwickeln, die nicht nur in der Lage sind, genaue Entscheidungen zu treffen, sondern auch ihr eigenes Vertrauen in eine Entscheidung genau angeben können. In der Praxis kann dies dazu beitragen, ungerechtfertigte Handlungen auf der Basis von Fehlentscheidungen zu vermeiden. Darüber hinaus kann die Wahrscheinlichkeit eines Fehlers weiter verringert werden, wenn Entscheidungen mit geringem Vertrauen vollständig vernachlässigt werden oder stattdessen ein System mit größerem Vertrauen oder ein menschlicher Bediener hinzugezogen wird.
  • Erklärbarkeit - Die derzeitigen biometrischen Erkennungssysteme liefern dem Benutzer hauptsächlich Vergleichswerte und Übereinstimmungsentscheidungen, ohne zu begründen, wie die Entscheidung zustande gekommen ist. Dies wird durch den Black-Box-Charakter der derzeitigen KI-basierten biometrischen Lösungen noch verstärkt. Der Mangel an Transparenz hindert Menschen daran, die Gründe für ein System und die Art und Weise, wie bestimmte Entscheidungen getroffen werden, zu überprüfen, zu interpretieren und zu verstehen. Die erklärbare Biometrie zielt darauf ab, den Erkennungsprozess für den Menschen verständlich zu machen und gleichzeitig dessen hohe Leistung beizubehalten.

 

Head

business-card image

Dr.-Ing. Philipp Terhörst

Responsible AI for Biometrics

Forschungsgruppenleiter im Bereich "Responsible AI for Biometrics"

E-Mail schreiben +49 5251 60-6657