Fawkes – Ein OpenSource-Projekt versucht unauthorisierte Gesichtserkennung zu verhindern!


Ein Forschungsprojekt einer amerikanischen Forschungsgruppe verändert Bilder insofern, dass Gesichtserkennung verhindert wird. Diese Entwicklung richtet sich vor allem gegen eine Firma, die unautorisiert Gesichtserkennungen durchgeführt hat.

Fawkes soll Gesichtserkennung verhindern

Eine Forschungsgruppe des SAND Lab an der Universität Chicago hat ein Algorithmus entwickelt, der in der Software Fawkes arbeitet. Die Aufgabe der Software bzw. des Algorithmus ist es, Bilder mit Gesichtern so zu verzerren, dass ein Mensch keinen Unterschied erkennen kann, jedoch Programme keine Gesichter mehr erkennen können.


Deep Dive ins Darknet – Suchmaschinen, Browser und Nutzen!

Jetzt kostenfrei zum Webinar anmelden und am 29.01.2021 von 10:00 – 10:30 Uhr teilnehmen.



Um den Algorithmus näher zu verstehen müssen wir uns zunächst anschauen, wie die Gesichtserkennung generell funktioniert. Und zwar sucht die Software nach markanten Punkten, die ein Gesicht ausmacht, bspw. eine runde Form, 2 Augen, ein Mund, etc. Diese Eigenschaften haben die meisten Gesichter auf der Welt und genau diese Punkte sucht die Software auf einem Foto.

Dafür gehen die meisten Programme Pixel für Pixel über das Bild und analysieren, wie stark sich die nebeneinander liegenden Pixel unterscheiden. So schafft das Programm das Foto zu analysieren und Muster wie bspw. einen Kopf zu erkennen.

Gesichtserkennung
Dies zeigt die Gesichtserkennung einer eigenen Software (Bildquelle: Instagram AWARE7 GmbH)

Damit verhindert wird, dass Programme diese Gesichtserkennung durchführen können, hat die Forschungsgruppe einen Algorithmus entwickelt, der das Original-Bild auf der Pixelebene minimal verändert. Dadurch sieht man als Mensch keinen Unterschied zwischen dem originalen und dem bearbeiteten Bild. Die Gesichtserkennungssoftware jedoch kann keine Gesichter mehr identifizieren, dadurch, dass die Pixel so verändert wurden, dass die Software ein stark verzerrtes Bild interpretiert.

Forschungsgruppe richtet sich gegen Clearview

Wie die Süddeutsche Zeitung berichtet hat, kennt das Programm Clearview AI von dem Unternehmen Clearview Milliarden von Gesichtern. Das Unternehmen soll einen gigantischen „Staubsauger“ entwickelt haben, der diverse öffentliche Quellen, wie bspw. Facebook oder Instagram, durchsucht. Eine Software lädt unzählige Bilder herunter und versucht anschließend Gesichtserkennung darauf auszuführen und gleiche Gesichter einander zuzuordnen. Diese Zuordnung geschieht mit Hilfe einer künstlichen Intelligenz (KI). KI ist ein großes Thema im Bereich der IT-Sicherheit und das nicht erst seit gestern, bereits 2016 waren neuronale Netze in der Lage Zeichnungen zu erkennen.

Angeblich bezahlen mehrere hundert Behörden dieses Unternehmen dafür, auf diese enorme Datenbank zugreifen zu dürfen. Dieser gesamte Prozess ist äußerst fragwürdig, da das Unternehmen Clearview äußerst unbekannt ist. Die angegebenen Adressen auf der Homepage sind fehlerhaft (laut Clearview ein Tippfehler), zudem findet man keine Einträge über Mitarbeiter oder sonstige Informationen zu diesem Unternehmen.

Ein weiterer großer Kritikpunkt ist die Tatsache, dass das Unternehmen gegen diverse Nutzungsbedingungen z.B. von Facebook verstößt. Zu dieser Kritik sagte Clearview der New York Times „Viele Menschen machen das“.




Um unter anderem solche unauthorisierte Gesichtserkennung zu verhindern hat die Forschungsgruppe aus Chicago das Programm Fawkes entwickelt. Fawkes ist Open-Source und kann unter anderem auf GitHub gefunden werden. Neben dem Code soll Mitte August auf der USENIX Security Symposium ein technisches Paper zu diesem Programm vorgestellt werden.


Sevencast – der IT-Security Podcast

Von unterwegs, im Büro oder zu Hause hören und auf dem aktuellen Stand bleiben!

Sevencast bei Spotify
Sevencast bei Apple Podcast
Sevencast bei Overcast