For­schungs­grup­pe - Ver­ant­wor­tungs­vol­le KI für Bio­me­trie

Biometrische Systeme erfreuen sich weltweit großer Beliebtheit und wirken sich zunehmend auf unser tägliches Leben aus. In Smart Homes wird beispielsweise Stimmerkennung eingesetzt, am Flughafen werden Gesichtsbilder verwendet, um die behauptete Identität einer Person zu überprüfen, oder Fingerabdrücke werden zum Entsperren von Smartphones verwendet. Die hohe Leistungsfähigkeit aktueller biometrischer Systeme basiert auf Entwicklungen im Bereich des Deep Learning. Der Erfolg bei der Adaption dieser Techniken für die Erkennung geht jedoch auf Kosten von wichtigen Diskriminierungsfaktoren wie Fairness, Privatsphäre, Zuverlässigkeit und Erklärbarkeit. Da biometrische Systeme zunehmend auch in kritische Entscheidungsprozesse einbezogen werden, etwa in der Forensik und der Strafverfolgung, besteht ein wachsender Bedarf in der Entwicklung verantwortungsvoller KI-Algorithmen für biometrische Lösungen.

  • Fairness - Viele biometrische Lösungen beruhen auf Lernstrategien, die die gesamte Erkennungsleistung optimieren. Da diese Lernstrategien stark von den zugrundeliegenden Eigenschaften der Trainingsdaten abhängen, ist die Performance der erlernten Lösungen auch stark von den Eigenschaften des Datensatzes abhängig, z. B. von demografischen Aspekten. Dies kann zu starken diskriminierenden Effekten führen, z. B. bei forensischen Untersuchungen oder der Strafverfolgung.
  • Datenschutz - Die erlernte biometrische Repräsentation eines Individuums enthält mehr Informationen als nur die Identität des Individuums. Datenschutzrelevante Informationen wie Geschlecht, Alter, ethnische Zugehörigkeit und Gesundheitszustand sind aus einer solchen Darstellung ableitbar. Da bei vielen Anwendungen davon ausgegangen wird, dass die Vorlagen nur zu Erkennungszwecken verwendet werden, wirft das Vorhandensein weiterer Informationen erhebliche Datenschutzbedenken auf. So kann beispielsweise der unbefugte Zugriff auf datenschutzrelevante Informationen einer Person zu einer ungerechten oder ungleichen Behandlung dieser Person führen.
  • Zuverlässigkeit - Die Entscheidung biometrischer Systeme hat oft starke Auswirkungen auf die Benutzer. Zudem können falsche Entscheidungen mit hohen finanziellen und gesellschaftlichen Folgen verbunden sein. Daher ist es wichtig, Algorithmen zu entwickeln, die nicht nur in der Lage sind, genaue Entscheidungen zu treffen, sondern auch ihr eigenes Vertrauen in eine Entscheidung genau angeben können. In der Praxis kann dies dazu beitragen, ungerechtfertigte Handlungen auf der Basis von Fehlentscheidungen zu vermeiden. Darüber hinaus kann die Wahrscheinlichkeit eines Fehlers weiter verringert werden, wenn Entscheidungen mit geringem Vertrauen vollständig vernachlässigt werden oder stattdessen ein System mit größerem Vertrauen oder ein menschlicher Bediener hinzugezogen wird.
  • Erklärbarkeit - Die derzeitigen biometrischen Erkennungssysteme liefern dem Benutzer hauptsächlich Vergleichswerte und Übereinstimmungsentscheidungen, ohne zu begründen, wie die Entscheidung zustande gekommen ist. Dies wird durch den Black-Box-Charakter der derzeitigen KI-basierten biometrischen Lösungen noch verstärkt. Der Mangel an Transparenz hindert Menschen daran, die Gründe für ein System und die Art und Weise, wie bestimmte Entscheidungen getroffen werden, zu überprüfen, zu interpretieren und zu verstehen. Die erklärbare Biometrie zielt darauf ab, den Erkennungsprozess für den Menschen verständlich zu machen und gleichzeitig dessen hohe Leistung beizubehalten.

 

Pro­ject Groups

Mehr erfahren

Lei­tung

Philipp Terhörst

Nachwuchsgruppenleiter -

Büro: F2.104
Telefon: +49 5251 60-6657
E-Mail: philipp.terhoerst@uni-paderborn.de
Web: Homepage

Do­k­to­ran­­den

Rouqaiah Al-Refai

Wissenschaftliche Mitarbeiterin

Büro: F2.308
E-Mail: rouqaiah.al.refai@uni-paderborn.de

Sushil Kumar Ammanaghatta Shivakumar

Wissenschaftlicher Mitarbeiter

Büro: F2.311
E-Mail: sushil@mail.uni-paderborn.de

Bhavesh Wani

Wissenschaftlicher Mitarbeiter

Büro: F2
E-Mail: bhavesh.wani@uni-paderborn.de

Se­kre­tä­ri­at

Lydia Kreiss

Sekretärin - Sekretariat Dr.-Ing. Philipp Terhörst

Büro: F2.303
Telefon: +49 5251 60-6665
E-Mail: lydia.kreiss@uni-paderborn.de

Sprechzeiten:

Montag - Donnerstag: 09:00 - 16:00 Uhr


Pu­bli­ka­ti­o­nen

A Comprehensive Study on Face Recognition Biases Beyond Demographics

P. Terhörst, J.N. Kolf, M. Huber, F. Kirchbuchner, N. Damer, A.M. Moreno, J. Fierrez, A. Kuijper, IEEE Transactions on Technology and Society 3 (2022) 16–30.


Verification of Sitter Identity Across Historical Portrait Paintings by Confidence-aware Face Recognition

M. Huber, P. Terhörst, A.T. Luu, F. Kirchbuchner, N. Damer, in: 26th International Conference on Pattern Recognition, ICPR 2022, Montreal, QC, Canada, August 21-25, 2022, IEEE, 2022, pp. 938–944.


An Attack on Facial Soft-Biometric Privacy Enhancement

D.O. Roig, C. Rathgeb, P. Drozdowski, P. Terhörst, V. Struc, C. Busch, IEEE Trans. Biom. Behav. Identity Sci. 4 (2022) 263–275.


Stating Comparison Score Uncertainty and Verification Decision Confidence Towards Transparent Face Recognition

M. Huber, P. Terhörst, F. Kirchbuchner, N. Damer, A. Kuijper, 33nd British Machine Vision Conference 2022 (2022).


MiDeCon: Unsupervised and Accurate Fingerprint and Minutia Quality Assessment based on Minutia Detection Confidence

P. Terhörst, A. Boller, N. Damer, F. Kirchbuchner, A. Kuijper, in: International IEEE Joint Conference on Biometrics, IJCB 2021, Shenzhen, China, August 4-7, 2021, IEEE, 2021, pp. 1–8.


Privacy-Enhancing Face Biometrics: A Comprehensive Survey

B. Meden, P. Rot, P. Terhörst, N. Damer, A. Kuijper, W.J. Scheirer, A. Ross, P. Peer, V. Struc, IEEE Trans. Inf. Forensics Secur. 16 (2021) 4147–4183.


MAAD-Face: A Massively Annotated Attribute Dataset for Face Images

P. Terhörst, D. Fährmann, J.N. Kolf, N. Damer, F. Kirchbuchner, A. Kuijper, IEEE Trans. Inf. Forensics Secur. 16 (2021) 3942–3957.


Mitigating Soft-Biometric Driven Bias and Privacy Concerns in Face Recognition Systems

P. Terhörst, Mitigating Soft-Biometric Driven Bias and Privacy Concerns in Face Recognition Systems, Technical University of Darmstadt, Germany, 2021.


On Soft-Biometric Information Stored in Biometric Face Embeddings

P. Terhörst, D. Fährmann, N. Damer, F. Kirchbuchner, A. Kuijper, IEEE Trans. Biom. Behav. Identity Sci. 3 (2021) 519–534.


Alle Publikationen anzeigen