Ein Schlüsselmoment für die Gesichtserkennung

Letztes Jahr haben wir uns in diesem Blog mit dem Stand der Gesichtserkennung befasst und sind zu dem Schluss gekommen, dass sie für ihre umstrittensten Anwendungen (insbesondere die polizeiliche Überwachung) einfach nicht genau genug war. Wenn man die Neigung der Algorithmen hinzunimmt, ethnische und geschlechtsspezifische Vorurteile zu entwickeln, dann war klar, dass der Einsatz der Gesichtserkennungstechnologie (Facial Recognition Technology oder FRT) kontrolliert und reguliert werden musste, bevor sie in der freien Natur und vor allem in öffentlichen Räumen eingesetzt werden konnte.

Seit September, als wir diesen Blog veröffentlicht haben, ist die Welt auf den Kopf gestellt worden. Wir waren Zeugen einer Pandemie und eines weltweiten Ausbruchs von Wut über den Mord an George Floyd. Einige argumentieren, dass die Unruhen, die wir gesehen haben, ein Beweis dafür sind, dass wir FRT mehr denn je brauchen (obwohl ironischerweise die notwendigen Gesichtsmasken neue Herausforderungen an die Technologie darstellen). Ausgehend von einer Reihe von Beispielen, in denen FRT missbraucht und falsch eingesetzt wurde, muss der Einsatz von FRT so schnell wie möglich reguliert und kontrolliert werden. Sehen wir uns einige Beispiele an.

Zu Beginn dieses Jahres begann sich ein Unternehmen namens ClearviewAI mit seiner Technologie zu rühmen, die von einer Reihe von Strafverfolgungsbehörden in den USA, einschließlich des FBI, eingesetzt wurde. Das Unternehmen hatte mehr als 3 Milliarden Bilder von verschiedenen Social-Media-Plattformen (Facebook, Venmo, YouTube usw.) ohne die Erlaubnis der Benutzer gescrapt und dann diesen Datensatz verwendet, um ihr Gesichtserkennungssystem zu trainieren. Beim Blick auf die heutige Situation sehen wir, dass eine Reihe von Regierungen, darunter auch Kanada, begonnen haben, die ethischen Praktiken des Unternehmens zu hinterfragen. Dies hat dazu geführt, dass ClearviewAI seine Dienstleistungen in Kanada nicht mehr anbietet. Auch in der EU gibt es Probleme mit der Rechtmäßigkeit des Systems.

Der Einsatz von Gesichtserkennungssystemen wie dem von ClearviewAI durch Polizeibehörden kann dramatische Folgen haben. Im vergangenen Monat wurde weithin berichtet, dass Robert Williams, ein unschuldiger Schwarzer, vor den Augen seiner Kinder verhaftet und 30 Stunden lang eingesperrt wurde. Seine Verhaftung beruhte auf einer falschen Übereinstimmung der Videoüberwachung eines Diebes, der eine Uhr aus einem Laden gestohlen hatte. Der Staatsanwalt hat sich inzwischen für den Fehler entschuldigt. Dieser Fall machte auch deutlich, dass Michael Oliver, der des Diebstahls eines Mobiltelefons aus einem Auto beschuldigt wurde, zuvor von der FRT falsch identifiziert worden war. Ein einfacher Vergleich der Bilder zeigt, dass es sich bei dem Dieb und Oliver um verschiedene Personen handelt, aber er wurde wegen Diebstahls angeklagt. Der Fall wurde abgewiesen, sobald er vor Gericht kam.

Viele der dem Training der Gesichtserkennungssysteme zugrunde liegenden Datensätze sind an sich grundsätzlich fehlerhaft. Bis vor kurzem bestand ein populärer Datensatz mit dem Namen „Labelled Faces in the Wild“ zu 83% aus weißen und zu fast 78% aus männlichen Gesichtern. Keine dieser Zahlen ist repräsentativ für die Weltbevölkerung. In anderen Datensätzen wurden Bilder mit abfälligen Verunglimpfungen und beleidigenden Begriffen beschriftet, wie ein Anfang des Monats veröffentlichtes Paper belegt.

Was viele von uns vielleicht persönlich betrifft: Amazons Ring-Türklingelsystem wurde von Polizeikräften zur Identifizierung von Dieben eingesetzt, und in Wohnblöcken können FRT-Systeme zur Identifizierung von „abnormalem Verhalten“ in Aufzügen verwendet werden.

Es ist die Begeisterung, diese Systeme zu nutzen, auch wenn sie eindeutig fehlerhaft sind, die im Moment das Hauptproblem darstellt. Es werden einfach nicht genügend Überprüfungen durchgeführt, um die Genauigkeit und die ethischen Überlegungen bei der Verwendung von FRT zu beurteilen. Wir sollten uns alle an das alte Sprichwort erinnern: „Nur weil man es kann, heißt das noch lange nicht, dass man es auch tun sollte“.

Tags: Gesichtserkennung, Künstliche Intelligenz