Rassistische Muster erkennen

Warum wir nicht nur bei AI auf den internalisierten Rassismus achten müssen und was du aktuell tun kannst
 
Als Grundrechts-NGO machen wir uns für Grundrechte stark und stehen dort für sie ein, wo sich diese in Gefahr befinden. Es ist besonders schwer eine Grenze zu ziehen, denn viele Verstöße gegen Grundrechte passieren auf mehreren intersektional verschränkten Ebenen. In den meisten Fällen treffen Grundrechtsverstöße besonders stark Minderheiten. Denn Menschen, die diesen Bevölkerungsgruppen angehören, sind Diskriminierungen oft mehrfach ausgesetzt. Welche Herausforderungen LGBTQIA-Personen im Internet vorfinden haben wir letztes Jahr in diesem informativen Blogpost festgehalten: Pride Month: Wie herausfordernd das Internet für LGBTIAQ-Personen ist.
 
Aktuell schauen wir mit Sorge auf die Entwicklungen in den USA, und wollen helfen das Augenmerk auf rassistische Probleme in Österreich zu legen. Denn auch in Österreich gibt es Polizeigewalt. Eine ganz spezielle Form der Diskriminierung stellt allerdings Racial Profiling dar – dies wird durch technisch unterstützte Maßnahmen, wie etwa Gesichtserkennung verstärkt. 
In diesem Blogpost sind wir näher auf facial recognition und unsere Kritikpunkte daran eingegangen. Der rassistische Bias ist ein Punkt, den wir dabei immer wieder erwähnen.
 
Algorithmen vorurteilsbehaftet
 
Algorithmen, die dazu genutzt werden sollen Straftaten aufzuklären, indem sie Gesichtserkennungstechnologien anwenden, haben sich wiederholt als vorurteilshaft bewiesen. Meist werden sie auf der Basis der Fotos weißer Personen entwickelt und funktionieren dann bei PoC nicht ordnungsgemäß. Das zeigte auch die Studie der ACLU:

“Doch die Technologie steht wegen Fehleranfälligkeit in der Kritik. Eine kürzlich durchgeführte Studie der NGO American Civil Liberties Union (ACLU) bestätigte das: Bilder von den 535 Mitgliedern des Amerikanischen Kongresses (SenatorInnen und Abgeordnete) wurden mit 25.000 veröffentlichten Täterfotos abgeglichen. Der enorm leistungsstarke Algorithmus scheint vorurteilsbehaftet zu sein Dabei zeigte „Rekognition“ insgesamt 28 falsche Übereinstimmungen. Bei 40% dieser 28 falschen Identifizierungen wurden People of Colour (PoC) fälschlicherweise als TäterInnen identifiziert. Der Gesamtanteil von PoC im Kongress beträgt allerdings nur etwa 20%. Der enorm leistungsstarke Algorithmus scheint vorurteilsbehaftet zu sein.”

Das Beispiel von Brisha Borden zeigt, wie sehr Algorithmen falsch liegen können. Solche Fehlentscheidungen sind allerdings nicht nur mathematische Fehlberechnungen, es handelt sich um Schicksale und Menschenleben. Brisha Borden, damals 18, wurde vom Algorithmus als ein hohes Risiko eingestuft, es wurde also vorausgesagt, dass sie in Zukunft Straftaten begehen würde – sie hatte gemeinsam mit einer anderen Person ein Kinderfahrrad und einen Kinderscooter, die sich draußen befanden, für eine Spritztour benutzt. 
Im Vergleich dazu wurde Vernon Prater, ein Straftäter, der bereits für bewaffnete Überfälle verurteilt worden war, als ein sehr viel geringeres Risiko eingestuft. 

“Prater was the more seasoned criminal. He had already been convicted of armed robbery and attempted armed robbery, for which he served five years in prison, in addition to another armed robbery charge. Borden had a record, too, but it was for misdemeanors committed when she was a juvenile.

Yet something odd happened when Borden and Prater were booked into jail: A computer program spat out a score predicting the likelihood of each committing a future crime. Borden — who is black — was rated a high risk. Prater — who is white — was rated a low risk.”

Es gibt zahlreiche Gründe, warum Gesichtserkennung mit Rassismus zu kämpfen hat, die Funktionsweisen sind komplex. Jedoch sind die Ergebnisse eindeutig: Die Technologien sind sehr stark von intrinsischen Vorurteilen geprägt. Ihr Einsatz verstärkt Diskriminierung, ihr Einsatz ist gefährlich für PoC. 
 
Ein Beispiel, das die Absurdität des Einsatzes von Gesichtserkennung illustriert, ist in diesem Artikel nachzulesen. Der Artikel berichtet darüber, wie zwei Afroamerikaner auf einem Foto von einem Google-Algorithmus als Gorillas identifiziert wurden.
Bei diesen und zahlreichen anderen Beispielen handelt es sich um Menschen, über deren Schicksale Urteile gefällt wurden - von einer Maschine. Wenn KI zu einem immer größeren Teil unseres täglichen Lebens wird, sollten wir die Vorurteile und Diskriminierungen, die den Technologien inhärent sind, im Blick behalten und auf Ungerechtigkeiten aufmerksam machen. Denn die Konsequenzen von Fehlentscheidungen reichen von der Zerstörung von Einzelschicksalen, Gefährdung von Menschenleben zu systematischen Verfestigung bereits bestehender rassistischer gesellschaftlicher Strukturen. 
 
Neben dieser technischen Aspekten der Diskriminierung, gibt es aber auch eine Ebene, auf der wir sehr schnell und unmittelbar handeln können. Nicht nur Maschinen und Algorithmen haben Vorurteile, die wir ihnen eingespeist haben, auch wir kämpfen ALLE mit internalisierten rassistischen Denkweisen. Wenn wir überwältigt sind von der gesellschaftspolitischen Situation, der grassierenden Ungerechtigkeit und Gewalt, kann sich das Problem als zu groß für die/den Einzelne/n anfühlen. Wir fühlen uns gelähmt, ob der großen Aufgabe. Doch wir können immer auf der kleinsten Ebene, nämlich bei uns selbst, anfangen:  
 
Wir müssen daran arbeiten Situationen zu erkennen, in welchen wir unbemerkt von einer Ungleichbehandlung anderer profitieren oder wo wir Vorurteile internalisiert haben, die wir abbauen müssen. Im nachfolgenden Teil haben wir mehrere konkrete Dinge gesammelt, die wir alle tun können.

Was du tun kannst

1. Organisationen unterstützen

 ZARA bietet in Österreich Hilfe und Beratung zu Rassismus und Hass im Netz, du kannst diese Organisation und ihre wichtige Arbeit unterstützen.
Du kannst auch internationale Organisationen und Petitionen unterstützen.

2. Dich informieren 

Normalisierter Alltagsrassismus

In Österreich herrscht ein rassistischer Grundkonsens, so bezeichnete Claudia Schäfer, damals Geschäftsführerin von ZARA, die Situation in diesem Interview.

“Insgesamt scheint sich eine Art rassistischer Grundkonsens breitgemacht zu haben, der sich seinen Weg in viele Strukturen und Entscheidungsgremien gebahnt hat", sagt Zara-Geschäftsführerin Claudia Schäfer bei der Präsentation des Jahresreports.”

Rassismus sind nicht nur die einzelnen gewaltvollen Taten, es sind auch die vielen kleinen Dinge, die wir jeden Tag sagen und tun, bei welchen wir uns ihrer rassistischen Ursprünge nicht bewusst sind. Wir können alle mehr über normalisierten Alltagsrassismus lernen und ihn ansprechen. (Siehe Empfehlungen unten)

Zuhören und Gehör verschaffen

Nur weil man etwas nicht selbst erlebt, bedeutet es nicht, dass es das Problem nicht gibt. Es kann durchaus schwerfallen, die Probleme vor der eigenen Tür zu sehen, oft denken wir bei Rassismus an die USA. Doch das ist auf jeden Fall auch ein Problem in Österreich. Setze dich dagegen ein, indem du darüber sprichst:

Du kannst den Geschichten und Erzählungen von Menschen mit Rassismuserfahrung Gehör verschaffen und diese Probleme und Vorfälle nicht kleinreden und als Einzelfälle abtun, denn Rassismus hat in Österreich zugenommen
 
In diesem Beitrag schildert Anna-Maria Apata ihre Erfahrungen mit Rassismus und warum es problematisch ist, sich als farbenblind zu bezeichnen:

“Wenn sich ein Mensch mir gegenüber als „farbenblind“ deklariert, ist das für mich immer ein großes Warnsignal. Meistens bedeutet das nämlich nicht, dass diese Person all ihren internalisierten Rassismus überwunden hat, sondern einfach gelernt hat wegzuschauen, wenn es um Rassismus geht. Rassismus gibt es überall in Europa. Das ist mir klar. Es geht darum, dass in einer Stadt, die Jahr um Jahr zur Weltbesten ernannt wird, kaum jemand zuhört, wenn man von seinen negativen Erfahrungen als PoC spricht. Ich bin Wienerin, aber Wien ist nicht besonders lebenswert für mich, denn nichts ist so schmerzhaft wie in der eigenen Heimat diskriminiert zu werden.”

Es reicht nicht, sich farbenblind zu geben und nicht rassistisch zu sein, wir müssen aktiv anti-rassistisch handeln. Sich unpolitisch geben ist nur ein Privileg, das Menschen haben, die keinen Rassismus erfahren.
 
Bereits gelernte und internalisierte Vorurteile und rassistische Denkweisen abbauen
 
Dies ist keinesfalls eine vollständige Liste, aber ein Anfang. Den Stimmen derer, die nicht gehört werden, Gehör verschaffen bedeutet nicht nur mit anderen über das Thema zu sprechen. Es bedeutet auch zuzuhören. Den Geschichten von Menschen mit Rassismuserfahrung zuzuhören und sich nicht aus Unbequemlichkeit davor zu verstecken. 
1. Reni Eddo-Lodge »Warum ich nicht länger mit Weißen über  Hautfarbe spreche«
2. Kübra Gümüsay »Sprache und Sein«
3. Ta-Nehisi Coates »Zwischen mir und der Welt«
4. Tupoka Ogette »exit RACISM: rassismuskritisch denken lernen«
5. Alice Hasters »Was weiße Menschen nicht über Rassismus hören wollen: aber wissen sollten«

3. Hingehen. Laut sein. Für Grundrechte aller einstehen

Es finden zahlreiche Kundgebungen und Demonstrationen statt. Hier eine Auswahl.
 

 

Since you're here

… we have a small favour to ask. You want to keep a close eye on the government? You want to stay up-to-date on surveillance, privacy, net neutrality, and all matters related to your fundamental rights on the internet? Subscribe to our newsletter and approximately once a month, we will send you a message (in German) about everything that happens around digital policy in Austria and in Europe, about our actions, legal analyses and position papers.

Together, we defend our fundamental rights in the digital age – because civil society works! Stay informed!