Impfzertifikate und algorithmische Anfälligkeit

KHK Senior Research Fellow Janet Xue hat einen neuen Artikel im European Journal of Risk and Regulation (Cambridge University Press) mit dem Titel 'Algorithmic Vulnerability in Deploying Vaccination Certificates in the European Union and China' veröffentlicht. Der Artikel untersucht die oft nicht wahrnehmbaren Risiken, denen gefährdete Bevölkerungsgruppen in der EU und China durch algorithmische Datenverarbeitung im Zusammenhang mit der COVID-19-Pandemie und den damit verbundenen medizinischen und administrativen Gegenmaßnahmen ausgesetzt sind.

Der Artikel beschreibt Algorithmen als 'mathematische Optimierungstechniken, die zur Durchführung einer oder mehrerer Aufgaben wie dem Sammeln, Kombinieren, Bereinigen, Sortieren, Klassifizieren und Ableiten von Daten sowie der Auswahl, Priorisierung, Erstellung von Empfehlungen und Entscheidungsfindung eingesetzt werden' (335). Diese automatisierten Prozesse sind nicht in der Lage, die tatsächliche, nuancierte menschliche Dimension von Datensätzen zu berücksichtigen und können daher zu einer ungleichen Priorisierung und zum Ausschluss bestimmter Bevölkerungsgruppen führen, wenn sie auf reale Szenarien angewendet werden. Der Beitrag von Dr. Xue konzentriert sich auf den Einsatz von Impfbescheinigungen, ein heikles Thema, das weltweit unterschiedlich gehandhabt wird und vielfältige Folgen hat, die sowohl die nationale Rechtsprechung als auch den grenzüberschreitenden Reiseverkehr zum Zwecke der Beschäftigung und des Handels betreffen.

 

'Algorithmen lösen die Verknüpfung von Datensystemen mit Impfaufzeichnungen, COVID-19-Testergebnissen, Personenkennzeichen und Kontaktinformationen aus, die eine gezielte Ansprache von Einzelpersonen für eine Vielzahl von Ausschlusszwecken, einschließlich der Ablehnung von Arbeitsplätzen, ermöglichen können' (333).

Die EU und China stehen bei der Einführung der Zertifizierung vor ähnlichen Problemen, von denen das offensichtlichste in den regionalen Unterschieden in der Politik und den Methoden der Datenerfassung besteht. So kann beispielsweise eine bestimmte Impfstoffmarke in einer bestimmten Region zugelassen sein und den Geimpften das Recht auf Freizügigkeit und Erwerbstätigkeit vor Ort gewähren, während sie in einer anderen Region abgelehnt werden kann. Die Diskrepanzen werden noch größer, wenn der Schwerpunkt auf gefährdete Bevölkerungsgruppen gelegt wird. Die tiefgreifende und allgegenwärtige Gefahr", schreibt Xue, "besteht darin, dass die Klassifizierung, Erstellung von Profilen und Gruppierung von Personen auf der Grundlage ihrer Nationalität, die nun mit dem COVID-19-Status verknüpft ist, eine weitere soziale Schichtung der Menschen durch systematische Anfälligkeit zur Folge hat" (333). Diese systematische Anfälligkeit, so warnt sie, läuft Gefahr, sich auf der Ebene der politischen Entscheidungsfindung zu verfestigen. Überlässt man diese Art der Datenbankverwaltung der algorithmischen Verwaltung, so kann dies 'zu einer Benachteiligung von Personen beim Zugang zu Beschäftigung, Studium und Geschäftsmöglichkeiten sowie bei der Bearbeitung von Krankenversicherungsansprüchen führen' (333).

'Algorithmische Verwundbarkeit' bedeutet also eine ungerechte Behandlung des Einzelnen und kann Einschränkungen des sozioökonomischen Wohlergehens, der Autonomie, der Freizügigkeit und der unabhängigen Entscheidungsfindung zur Folge haben. Wenn die Struktur der Datensätze keine Informationen enthält, die für bestimmte rassische, ethnische und soziale Schichten repräsentativ sind, besteht die Gefahr, dass eine Gruppe wahllos benachteiligt und eine andere bevorzugt wird. Xue scheint daraus zu schließen, dass ein gewisses Vertrauen in die algorithmische Datenverwaltung besteht, das hinterfragt werden muss. Ganz gleich, ob sie als Mittel zur Beschleunigung der Datenverarbeitung oder sogar in dem fehlgeleiteten Bemühen eingesetzt werden, menschliche Fehler auszuschließen, haben Algorithmen den fatalen Fehler, dass sie den Komplex der realen menschlichen Erfahrung, einschließlich der Interessen bestimmter Gruppen und des gesamten Spektrums individueller Überlegungen, nicht berücksichtigen können - und auch nicht dafür ausgelegt sind.

Xue nennt drei große Herausforderungen, mit denen man sowohl in China als auch in der EU konfrontiert ist: ein Gleichgewicht zwischen der raschen Einführung und der Minimierung der Anfälligkeit von Algorithmen zu finden; wie Impfstoffzertifikate sowohl innerhalb als auch außerhalb der von ihnen abgedeckten Gebiete schnell eingeführt werden können; und wie die Interoperabilität erreicht werden kann, um dieselben Standards für Genauigkeit und Authentifizierung in verschiedenen Regionen zu gewährleisten.

 

'Das Worst-Case-Szenario besteht darin, dass ein automatisiertes Profiling (z. B. geimpft, nicht geimpft und COVID-19-frei, nicht geimpft, aber COVID-19-infiziert) durch einen Algorithmus ausgelöst werden kann, der bestimmte Gruppen anfälliger macht, die dann in der Datenbank fehlen und somit von dem digitalisierten Impfbescheinigungssystem nicht erkannt werden' (334).

Um dieses Risiko der automatischen Profilerstellung zu überwinden, ist eine zusätzliche Kontrolle des Impfbescheinigungsverfahrens erforderlich. Automatisch erstellte Berichte sind nicht in der Lage, Risikogruppen unter denjenigen zu identifizieren und zu priorisieren, die wirklich zuerst geimpft werden müssen, wie z. B. Grenzgänger, die in wesentlichen Diensten tätig sind, wenn diese Arbeitnehmer nicht in der Datenbank registriert sind, in der der Algorithmus Anwendung findet" (337). In China bestehen wie in der EU viele der gleichen Herausforderungen fort: "Aufrechterhaltung des Vertrauens zwischen der Öffentlichkeit und den Regierungen; Anwendung eines transparenten Ansatzes, um die faire Gestaltung des Algorithmus und der Datennutzung zu gewährleisten; und Initiierung eines Plans zur Gewährleistung der Datensicherheit während der COVID-19-Pandemie und eines Ausstiegsplans, um die Weiterverwendung der für Impfbescheinigungen erhobenen Daten zu verhindern" (339).

In beiden Regionen bleibt auch die Vorratsdatenspeicherung ein zentrales Anliegen. Jede Region hat in unterschiedlichem Maße erklärt, dass die Daten der Bürger "bis zum Ende der Pandemie" aufbewahrt werden, aber die Frage einer späteren Umsetzung ähnlicher Maßnahmen für eine künftige medizinische Krise bleibt offen. Der Datenschutz wird auch durch die algorithmische Verwaltung bedroht, und bisher gibt es nur erste Skizzen, wie dies die Politikgestaltung beeinflussen wird.

Am Ende fragt Xue: 'Sollten wir die Normalisierung dieser Art von Notfallplänen als Teil der sozio-technischen Infrastruktur in unserer zukünftigen Gesellschaft akzeptieren?' (340). Wenn ja, riskieren wir die Entwicklung einer systemischen Voreingenommenheit gegenüber bestimmten Gruppen, die zunächst nicht im Algorithmus selbst begründet zu sein scheint. Abschließend werden drei Vorschläge gemacht: Die Datenerfassung sollte auf begrenzte Zwecke und Offenlegungsszenarien beschränkt werden; die Verwendbarkeit von Zertifikaten sollte sowohl für grenzüberschreitende Reisen als auch für lokale Zwecke definiert werden; die Kontrollbehörden müssen darüber informiert werden, wie viele Informationen an bestimmten Kontrollpunkten verfügbar sind.

 

'Trotz unterschiedlicher nationaler und regionaler politischer Reaktionen auf die Pandemie sollte die Verringerung der Anfälligkeit ein gemeinsamer Wert der Menschen sein. Die künstlichen Grenzen, die durch Impfbescheinigungen geschaffen werden, die nun sowohl die Staatsangehörigkeit als auch den COVID-19-Status abgrenzen, bergen die Gefahr, dass sie zu weiterer Ausgrenzung führen, anstatt die Gefährdung zu verringern. Vielmehr sollten die regionale Zusammenarbeit und der Austausch von Erfahrungen und Praktiken zur Verringerung der Anfälligkeit die Ausgangspunkte sein, um die Welt wieder miteinander zu verbinden' (342).

Dr. Janet Hui Xue ist seit Oktober 2020 Mitglied der Forschungsgruppe "Global Cooperation and Polycentric Governance" und wird bis Ende September 2021 als Senior Research Fellow am Zentrum tätig sein. Ihr Projekt am Zentrum trägt den Titel "Governing Personal Data in the Digital Economy: A Comparative Study of the EU and China and Implications for Future Regulation" (Eine vergleichende Studie über die EU und China und ihre Auswirkungen auf die künftige Regulierung) und analysiert kritisch die Regulierungsinstrumente und Governance-Modelle, die in der EU und in China erprobt wurden, um ein Gleichgewicht zwischen Unternehmensinnovationen und dem Schutz der Verbraucherrechte im Zusammenhang mit personenbezogenen Daten herzustellen.

Lesen Sie den vollständigen Artikel hier.