Gesichtserkennung in Österreich: Woher stammen die Daten?

cc0

Ab Dezember 2019 soll die Polizei in Österreich mit Gesichtserkennung arbeiten dürfen. Diese Art der Ermittlungs- bzw. Analysemethode bedient sich einer Software, die Gesichter, die im öffentlichen Raum in Erscheinung treten und von Kameras erfasst werden, mit Fotos aus diversen Datenbanken abgleicht. Das Prinzip der Software ist es, biometrische Muster zu erkennen. Die Software, die das macht, wird in den meisten Fällen vom Staat angekauft. Am Markt gibt es einige Anbieter dafür. In einigen Ländern, wie beispielsweise in China, ist so eine Software großflächig im Einsatz und erkennt bestimmte Herkunftsgruppen angeblich sogar rein an ihrem Gang (also auch Vollverschleierung bringt nichts). In einigen Ländern, wie beispielsweise Großbritannien, liegt die Fehlerquote bei stolzen 81%. In San Francisco hat man sich - unter anderem wegen der hohen Zahl an "false positives" - darauf geeinigt, Gesichtserkennung gänzlich zu verbieten. Kurz darauf hat auch Oakland beschlossen, dieser Überwachungsmaßnahme einen gesetzlichen Riegel vorzuschieben. Die Zugänge dazu könnten also unterschiedlicher nicht sein. 

Gesichtserkennung an sich ist aus unserer Sicht ein schwerer Eingriff, denn hier werden nicht nur Daten gesammelt, sondern auch biometrische Daten analysiert und ausgewertet. Zwar betont die Polizei, dass es - im Gegensatz zu China - in Österreich keine Pläne gibt, Gesichtserkennung als Echtzeit-Tool einzusetzen, aber aus der Vergangenheit wissen wir, dass solche Eingriffe bzw. Befugnisse meist nach und nach ausgeweitet werden. Dies geschieht hier, ohne dass eine neue Rechtsgrundlage beschlossen wird.

Unsere Kritikpunkte an Gesichtserkennung:

  • Die Verwendung von Gesichtserkennung, vor allem von Bildern aus dem öffentlichen Raum, ist gefährlich und führt zu einer Einschränkung der Freiheit. Neben der Videoüberwachung selbst führt der Einsatz solcher Überwachungs- und Ermittlungsmaßnahmen zu einem sogenannten „chilling effect“: Die Menschen verhalten sich anders, wenn sie wissen, dass sie beobachtet werden. Das hat grundlegende soziale Auswirkungen.
  • Wir sind grundsätzlich dagegen, dass bestehende Befugnisse durch neue Software ausgeweitet werden. Das ist immer wieder der Fall, weil es immer mehr Daten gibt und immer bessere Analysemethoden (siehe KI, Algorithmen, etc.), womit den polizeilichen Befugnissen unter Umständen ganz neue Bedeutungen zukommen.
  • Gesichtserkennung hat starke Biases (siehe Hautfarben, Geschlechter) und hohe Fehlerquoten. Die Verwendung und Filterung nach Metadaten, die unweigerlich mit biometrischen Merkmalen verbunden sind, führt zu Racial Profiling.
  • Biometrische Bilder werden immer bedeutender. Die Vernetzung dieser Daten birgt große Gefahren und auch das Risiko zu Identitätsdiebstahl etc. (siehe Beispiel Südkorea)

Welche Software wird also in Österreich zum Einsatz kommen? Laut der Recherche des Standard stammt die Software von Atos IT Solutions bzw. dessen Subunternehmen Cognitec Systems. Eine parlamentarische Anfrage hat weiters ergeben, dass die Software rund 450.000 Euro kostet, Wartung exklusive. 

In Österreich sieht die Polizei den Einsatz der Software durch zwei Gesetze abgedeckt: Zum einen das Sicherheitspolizeigesetz (SPG) und zum anderen die Strafprozessordnung (StPO). Allerdings nur, wenn eine „unmittelbare Gefahr“ bevorsteht, also nur zur Gefahrenabwehr. Vorgesehen ist ein Abgleich mit einer „Referenzdatenbank“. Und da gelangen wir schon zum Kern des Problems. Denn, wie eine Anfrage von Mathias Huter, einem Aktivisten des Forum Informationsfreiheit, ergeben hat, soll diese Datenbank ein bis fünf Millionen Datensätze enthalten. Die Leistungsbeschreibung der Software wurde bei der Anfragebeantwortung mitgeliefert. 

Für uns ergeben sich zwei Hauptfragen, zu denen wir Theorien, aber keine konkreten Antworten haben, da sich die Behörden mit Informationen bedeckt halten. Wir werden aber versuchen, hier mehr Transparenz zu schaffen.

1. Woher stammen die Daten?

Laut Polizei aus der „erkennungsdienstlichen Evidenz“, also Fotos, die die Polizei selbst gemacht hat (zB. von Verdächtigen bei der Festnahme etc.). Dem Sicherheitsbericht 2017 zufolge befinden sich darin etwa 580.000 gespeicherte Personen. Die Daten könnten in Zukunft auch aus weiteren Quellen stammen, da es ja bis zu fünf Millionen Referenzdaten geben soll. Aus dem Führerscheinregister, zu dem es leider keine genauen Zahlen gibt, eher nicht - das war unsere ursprüngliche Theorie. 2006 wurden 3,5 Millionen Scheckkartenführerscheine ausgestellt und es gibt auch Zahlen darüber, wie viele Menschen eine Lenkberechtigung pro Jahr erwerben. Allerdings wird das Register laut Informationen von Statistik Austria nicht „gepflegt“, das heißt, Verstorbene werden nicht gelöscht, was die Vermutung aufkommen lässt, dass diese Datenbank weit mehr als fünf Millionen Lichtbilder umfasst und somit eigentlich kaum in Frage kommt als Referenzdatenbank. Unsere Theorie ist, dass es sich also um eine Kombination des nationalen Erkennungsdienstes und internationaler erkennungsdienstlicher Evidenzdatenbanken handeln muss - zum Beispiel von Europol bzw. Interpol. Laut Informationen von Interpol befinden sich in deren Datenbanken aber nur etwa zwischen 50.000 und 100.000 "Gesuchte". Bei Europol könnte der Datensatz etwas größer sein, allerdings ist nicht zu vergessen, dass dieser Datensatz steigen wird, sobald Europol die geplanten Änderungen vornimmt und mehr Befugnisse erhält. Weiters plant auch die EU, den internationalen Austausch von Daten zu Gesichtserkennung (und DNA!) auszuweiten

2. Wie anfällig ist der Einsatz solch einer Software für Diskriminierung?

Im Beschreibungs- bzw. Leistungskatalog der Software ist auch vorgesehen, dass die Daten nach Metadaten, wie unter anderem „Herkunft“ gefiltert werden können. Es werden also extrem sensible Daten (biometrische und über die Herkunft) kombiniert und analysiert. Das macht das System sehr gefährlich und anfällig für Diskriminierung. Menschen aufgrund bestimmter Merkmale zu filtern, wird immer die Gefahr bergen, dass eine Art von Racial Profiling entsteht. 

epicenter.works wird sich auch in Zukunft dafür einsetzen, dass der Einsatz solcher Massenüberwachungstools gar nicht erst zustandekommt. Im Angesicht der internationalen Thematisierung von Gesichtserkennung sehen wir, dass wir hier einen starken Fokus auf dieses Thema legen müssen und werden uns vorbehalten, hier auf verschiedenste Art und Weise (aktivistisch, juristisch) dagegen vorzugehen. 

Since you're here

… we have a small favour to ask. For articles like this, we analyse legal texts, assess official documents and read T&Cs (really!). We make sure that as many people as possible concern themselves with complicated legal and technical content and understand the enormous effects it has on their lives. We do this with the firm conviction that together we are stronger than all lobbyists, powerful decision makers and corporations. For all of this we need your support. Help us be a strong voice for civil society!

Become a supporter now!