Eine Frau will einen internationalen Führerschein beantragen und braucht dafür ein biometrisches Foto. Der Fotoautomat in der zuständigen Behörde nimmt aber kein Bild auf – weil die Frau Schwarz ist. Der Fall ist ein Beispiel dafür, wie selbst Technik an der weißen Norm ausgerichtet ist.
Eigentlich sollte es nur ein kurzer Termin beim „Landesbetrieb Verkehr“ (LBV) in Hamburg sein: Audrey K. hatte Ende letzten Jahres alle Unterlagen mitgebracht, um einen internationalen Führerschein zu beantragen – nur das Passfoto fehlte noch. Das wollte K. im Fotoautomat des LBV aufnehmen.
Wie Audrey K. in der taz schildert, wies die Sachbearbeiterin sie darauf hin, dass der Automat womöglich nicht funktionieren wird: „Es könnte ein Problem mit ihrer Hautfarbe geben.“ Tatsächlich nahm der Automat kein Foto von ihr auf – er erkannte nicht einmal ihr Gesicht als Motiv.
Fototechnik, die Schwarze Menschen übersieht
Audrey K. konnte den Antrag wegen des fehlenden Fotos also zunächst nicht zu Ende stellen. In einem Brief beschwerte sie sich beim LBV über den Vorfall: „Es macht mich traurig, dass in Kauf genommen wird, dass hier Schwarze Menschen einen Termin machen, womöglich dafür vieles im privaten und/oder beruflichen Bereich koordinieren und dann noch einmal kommen müssen, ohne dass auf diese besondere Situation von Ihrer Seite eingegangen wird.“
Dass der Automat Schwarze Menschen nicht erkennt, hat mit der Fototechnik zu tun. Die Belichtungstechnologie, Entwicklungsverfahren und Farbmischungen sind auf weiße Menschen ausgerichtet, schreibt der Tagesspiegel. Da Schwarze Haut das Licht anders reflektiere als weiße, sei eine stärkere Belichtung nötig. Der Automat bräuchte also zusätzliche Lichtquellen, damit er auch bei Schwarzen Personen funktioniert.
So hat der Landesbetrieb Verkehr reagiert
Bei ihrem nächsten Termin beim LBV hatte K. ihr biometrisches Passfoto bereits dabei. Trotzdem stieg sie noch einmal in den Fotoautomaten – um zu überprüfen, ob ihre Beschwerde einen Effekt hatte. Aber wieder erkannte der Automat sie nicht, eine Sachbearbeiterin entschuldigte sich und erklärte, ihre Chefin darauf aufmerksam zu machen.
Wie die taz berichtet, erhielt Audrey K. einige Tage später per E-Mail eine Entschuldigung des Abteilungsleiters. Darin hieß es: „Dem LBV ist sehr daran gelegen, die Beleuchtung in diesem Bereich zu verbessern. […] Ich habe die berechtigte Hoffnung, dass der LBV bei Ihrem nächsten Besuch besser aufgestellt sein wird.“ Im März überprüfte K. den Automaten erneut – zwar schoss er nun Bilder, sie genügten allerdings nicht den biometrischen Anforderungen.
Warum geht es hier um Rassismus?
K. spricht wertet ihre Erlebnisse im LBV als institutionellem Rassismus: „Während für weiße Menschen meistens alles ganz einfach funktioniert, sind Schwarze Menschen im Alltag häufig mit solchen Mechanismen der Unterdrückung konfrontiert“, sagte sie der taz.
Aber weshalb ist die Rede von Rassismus– immerhin kann das LBV nichts für die technischen Eigenheiten eines Fotoautomaten? Zwei Faktoren spielen eine Rolle:
- Dass der Fotoautomat Schwarze Menschen „übersieht“, ist das Ergebnis von technischen Entwicklungen, in denen Weiße als Norm gelten – und Schwarze lange nicht berücksichtigt wurden. Ein bezeichnendes Beispiel dafür: Laut dem Tagesspiegel hat die Firma Kodak in den 50er-Jahren ihre Farben an einem elfenbeinartigen Farbton kalibriert. Um bessere Brauntöne bemühte sich Kodak erst, nachdem Kritik von der Möbel- und Schokoladenindustrie kam.
- Das LBV wusste offensichtlich schon länger von dem Problem des Automaten, eine Sacharbeiterin hatte Audrey K. selbst darauf hingewiesen. Trotzdem unternahm die Behörde nichts dagegen. Sie nahm stattdessen in Kauf, dass regelmäßig Schwarze Personen ihre Zeit in dem Automaten verschwendeten und außerdem Diskriminierungserfahrungen machen. Dass diese Situationen für Schwarze Menschen belastend sein können, spielte keine Rolle – oder war zumindest nicht Grund genug, schnell etwas daran zu ändern.
„Rassistische“ Gesichtserkennungssoftware
Im Falle des Fotoautomaten in Hamburg sind solche systematischen Fehler in der Technik ärgerlich, in anderen Fällen können sie gefährlich werden – etwa, wenn es um Gesichtserkennungssoftware geht. Laut Spiegel online wird Gesichtserkennungssoftware in Deutschland und den USA eingesetzt, um nach Kriminellen zu fahnden. Wenn die Software Bilder von asiatisch aussehenden oder Schwarzen Menschen abgleicht, passieren allerdings häufig Verwechslungen, das zeigen Studien. Die Fehlerrate ist bei ihnen bis zu hundert Mal höher als bei Weißen.
Das liegt daran, dass die Software vor allem mit Bilddatenbanken trainiert werden, in der Weiße stärker vertreten sind. Schwarze haben also ein höheres Risiko, zu Unrecht als Verbrecher*innen eingestuft zu werden – und im schlimmsten Fall zu Unrecht verurteilt zu werden.
Utopia meint: Rassismus hat viele Formen und Ausprägungen – selbst in die vermeintlich neutrale Technik hat er Eingang gefunden. Für weiße Personen ist oft nur schwer nachzuvollziehen, wie diese Tatsache den Alltag von Betroffenen prägt. Umso wichtiger ist es, zuzuhören, wenn Personen wie Audrey K. ihre Erlebnisse öffentlich machen und Missstände anprangern. Für rassistische Diskriminierung darf in unserer Gesellschaft kein Platz mehr sein.
** mit ** markierte oder orange unterstrichene Links zu Bezugsquellen sind teilweise Partner-Links: Wenn ihr hier kauft, unterstützt ihr aktiv Utopia.de, denn wir erhalten dann einen kleinen Teil vom Verkaufserlös. Mehr Infos.War dieser Artikel interessant?