Forschung - 30.01.2023 - 11:16 

HSG-Wissenschaftlerinnen forschen interdisziplinär zu automatisierter Gesichtserkennung

Diverse Schweizer Städte wollen automatisierte Gesichtserkennung verbieten. An der HSG forschen die Medienwissenschaftlerin Miriam Meckel und die Strafrechtlerin Monika Simmler seit Jahren zu diesem Thema. Es brauche eine gesellschaftliche Diskussion über die Technologie, die auch Schweizer Polizeikorps verwenden, sagen die HSG-Forscherinnen.
Quelle: HSG Newsroom
Face recognition and personal identification technologies in street surveillance cameras, law enforcement control.
Face recognition and personal identification technologies in street surveillance cameras, law enforcement control. crowd of passers-by with graphic elements. Privacy and personal data protection,

Automatische Gesichtserkennung kann einzelne Personen in Menschenansammlungen identifizieren – oder auch in Millionen von Bildern im Internet. 2022 wurde die Technologie in mehreren Schweizer Städten kontrovers diskutiert: So entschied das St.Galler Stadtparlament im vergangenen September, die international «facial recognition technology» (FRT) genannte Anwendung im öffentlichen Raum zu verbieten. In Basel, Lausanne oder Zürich sind ähnliche Verbote in Verhandlung. «Digitale Überwachung und ihre Regulierung ist eine der grossen politischen Fragen unserer Zeit», sagt dazu die HSG-Strafrechtsprofessorin Monika Simmler. Sie forscht seit Jahren zur Verwendung von Algorithmen in der Polizeiarbeit und in der Strafjustiz. 

Dass in der Schweizer Politik Bewegung in die Diskussion um FRT kommt, sei wichtig. «Einzelne Polizeikorps in der Schweiz wenden die Technologie bereits heute in ihren Ermittlungen zu Straftaten an. Gleichzeitig fehlen die Rechtsgrundlagen dafür.» In der Strafprozessordnung (StPO) finde sich «selbst bei grosszügiger Lesart» kein Artikel, der Aussagen zu FRT mache – im Gegensatz etwa zu DNA-Analysen, deren Anwendung klar geregelt ist. 

Dieses rechtliche Vakuum sei insbesondere heikel, weil FRT «nur der Anfang» sei, sagt Simmler. In der weltweiten Polizeiarbeit und Strafjustiz würden laufend neue digitale Tools entwickelt und in der Anwendung auch kombiniert. «Wir brauchen deshalb eine breite gesellschaftliche Debatte über die Anwendung von Tools wie FRT und über digitale Überwachung allgemein – durch den Staat sowie Private. Den Behörden allein kann man diese Entscheidungen nicht überlassen.»

Simmler arbeitet aktuell an zwei Projekten, die einerseits bestehende Rechtsgrundlagen von FRT in verschiedenen europäischen Ländern untersuchen und andererseits Trends im Bereich digitaler Ermittlungen in der Polizeiarbeit und Strafjustiz erfassen, um frühzeitig Regulierungsstrategien zu entwickeln. «Wir wollen damit dem Gesetzgeber in der Schweiz auch Anstösse geben für die Formulierung einer StPO für das digitale Zeitalter», sagt Simmler. 

Ihre Arbeit werfe auch rechtsphilosophische Fragen auf, wie etwa: «Welchen Grad der Überwachung will eine Gesellschaft im Namen der Sicherheit akzeptieren?» Für sie liege die Grenze in Bezug auf FRT beim präventiven Einsatz – also, dass Menschen ohne konkreten Anlass von Kameras erkannt werden, ohne dass sie eine Straftat begangen haben. «Das Recht auf Privatsphäre ist aus meiner Sicht in diesem Fall höher zu gewichten als die Verhinderung möglicher Straftaten.» Einem Einsatz von FRT in der Ermittlungsarbeit zur Aufklärung von schweren Straftaten könne sie jedoch zustimmen. 

Privatsphäre für Sicherheit und Bequemlichkeit?

Zu FRT forscht auch die HSG-Medienwissenschaftlerin Miriam Meckel. Sie hat im Herbst 2022 eine Studie mit dem Titel «Under big brother’s wachtful eye: Cross-country attitudes toward facial recognition technology» veröffentlicht. Dafür wurde die soziale Akzeptanz von FRT in China, Grossbritannien, Deutschland und den USA mittels Onlinebefragungen und Interviews erhoben. In China gibt es demnach die höchste Zustimmung für den FRT-Einsatz, während diese Werte in Deutschland und den USA im Ländervergleich am tiefsten waren. «In den Resultaten spiegeln sich die unterschiedlichen Traditionen in Bezug auf Datenschutz und Privatsphäre in den verschiedenen Ländern», sagt Meckel. 

Wie in der Studie ausgeführt wird, bringt FRT zudem einige Risiken mit sich: So gibt es diverse Studien, die belegen, dass die KI hinter FRT Frauen und dunkelhäutige Menschen schlechter erkennt. «KI wird auf der Basis bisheriger Daten trainiert und so reproduziert sie Verzerrungen und Stereotype», sagt Meckel dazu. Zudem setzten diverse Staaten FRT ein, um Minderheiten oder Journalisten zu überwachen. Dies sei nicht nur in China der Fall, betont Meckel.

«Die Technologie hat einen weltweiten Siegeszug hinter sich. Die Gesetzgebung hinkt dieser rasanten Entwicklung hinterher.» Den aktuell diskutierten «AI Act» der EU, der den Einsatz von KI europaweit einheitlich regulieren soll, begrüsst sie deshalb. «Es braucht nach wie vor dringend eine öffentliche Debatte über den staatlichen und privaten Einsatz von Anwendungen wie FRT und darüber, was mit den dabei generierten Daten geschieht», betont Meckel. Die zentrale Frage sei, wie viel Privatsphäre man für mehr Sicherheit und Bequemlichkeit opfern wolle. 

north