Presse-Informationen
c't

  1. heise group
  2. Presse-Informationen
  3. c't

Allgegenwärtige Biometrie:
Wie man sich vor Gesichtserkennung schützt

Hannover, 19. Juni 2020 – KI-Systeme zur Gesichtserkennung werden mit Fotos der Instagram-Story und der Facebook-Timeline trainiert. Wer nicht möchte, dass Überwachungssysteme weltweit mit den eigenen Fotos lernen, anonymisiert die Bilder oder teilt sie nur privat. Welche Anonymisierungstechniken gezielt die Schwächen der Deep-Learning-Algorithmen ausnutzen, erklärt Europas größtes IT- und Techmagazin c’t in Ausgabe 14/20.

Als im Januar öffentlich wurde, dass das bis dato unbekannte US-Start-up Clearview AI eine globale Personensuchmaschine aus Milliarden Social-Media-Fotos aufgebaut hat, schlugen Datenschützer Alarm. c’t-Redakteurin Andrea Trinkwalder kennt Tools, die ein solches Schnüffeln im Privatleben erschweren. Ihr erster Tipp: Metadaten entfernen. „Orts- und Datumsangaben sowie Gesichts- und Objekterkennung sind zwar für das Sortieren der eigenen Reisefotos hilfreich. Um diese Informationen jedoch den Dienstleistern vorzuenthalten, löscht man sie lieber mit einem kostenlosen Bildbetrachter vor dem Upload.“

Wer sich biometrischen Algorithmen entziehen möchte, muss auch das Foto bearbeiten. „Dabei entsteht zwangsläufig ein Dilemma zwischen Sicherheit und ästhetischem Anspruch, das sich nur schwer lösen lässt“, räumt Trinkwalder ein. Denn je mehr vom Original übrigbleibt, umso leichter lassen sich Personen darauf identifizieren. Effektive Anonymisierungsfilter sind Weichzeichner und Verpixeln, weil sie sich nicht rückgängig machen lassen. Doch häufig werden diese Filter in zu geringer Stärke angewendet, um den Bildeindruck nicht zu zerstören.

So wie sich Menschen von optischen Illusionen täuschen lassen, leiden auch neuronale Netze unter Wahrnehmungsproblemen. Deep-Learning-Algorithmen reagieren sensibel auf bestimmte, für den Menschen kaum wahrnehmbare Störmuster. Diese Schwäche machen sich Forscher zunutze, um Privacy-Filter zu entwickeln, die die Ästhetik von Fotos erhalten. „Allerdings wurden in diesem Bereich bislang nur Demos gezeigt, Anwendungen zum Testen gibt es noch nicht“, erklärt Trinkwalder. Forscher experimentieren auch mit Störmustern für T-Shirts, Brillen oder Käppis mit Infrarot-Gesichtsbeleuchtung, die Echtzeit-Überwachungssysteme verwirren. „Dennoch bleibt die Entwicklung von Anonymisierungsverfahren weit hinter der von Verfolgungstechnik zurück“, betont die Expertin.


Für die Redaktionen: Gerne stellen wir Ihnen die Artikelserie kostenlos zur Rezension zur Verfügung.