Diktatur der Digitalisierung
Freiheit oder Innovation: Der Ausblick eines Pessimisten
Florian Melzer, Datenschutz Consultant bei der Patronus Services GmbH
Veröffentlicht in: DiALOG - DAS MAGAZIN FÜR DEN DIGITALEN WANDEL | 2021
Jüngst veröffentlichte das Microsoft Threat Intelligence Center (MSTIC) erst zwei Monate nach Entdeckung, den Hacking-Akteur Hafnium, der bis vor wenigen Tagen knapp 60.000 lokale Exchange-Serversysteme allein in Deutschland infiziert hatte und zeigt: wir sind abhängig und verwundbar. Fast zur selben Zeit standen Vertreter* des amerikanischen Start-Ups Clearview AI für Gesichtserkennungssoftware in der Kritik, die anhand von öffentlich zugänglichen Fotos auf Facebook, Twitter, Google und Co einen sogenannten „Faceprint“ erstellen. Die so generierte Datenbank zur Gesichtserkennung ist die größte ihrer Art in den Vereinigten Staaten – auch größer als die des FBI. Deren Interesse am Potenzial dieser technischen Innovation liegt klar auf der Hand: Technologien zur schnellen Identifizierung und Bewegungsüberwachung von Individuen vereinfachen deren Arbeit enorm, und die zugriffsbereiten Daten sind endlos, wenn soziale Medien durchforstet werden können. So kommen jedoch Behörden an Informationen von Privatpersonen, die nicht in ihrem Zuständigkeitsgebiet leben, sondern auf einem anderen Kontinent; auch europäische Bürger sind von Clearview’s Datenpolitik betroffen, obwohl die europäische Datenschutz-Grundverordnung eigentlich sicherstellen soll, dass personenbezogene Daten außerhalb der EU nicht unter Umgehung der europäischen Datenschutzstandards verarbeitet werden.
Und die Betroffenen? Für diese gibt es trotz der Regelungen und hohen Bußgelddrohungen der Datenschutz-Grundverordnung keinen Garanten dafür, dass die Datenbanken im Ausland eingesehen oder gelöscht werden können, wenn Daten ohne Zustimmung dort gespeichert wurden – oder dafür, dass sie gut gesichert sind. So wie auch jüngst im Fall des amerikanischen Videoüberwachungs-Start-Ups Verkada geschehen; die Zugangsdaten zu einem sogenannten „Super Admin“ Account zirkulierten öffentlich zugänglich im Netz, bis sie einer Hackinggruppe Zugriff auf über 150.000 Videoüberwachungssysteme und Datenbanken gewährten. Die Brisanz der politischen und wirtschaftlichen Ausnutzung dieses Potenzials zur Verhaltens- und Bewegungskontrolle, das Datensätzen solchen Ausmaßes innewohnt, macht sie letztlich nicht immun gegen kriminelle Energien oder technisches Versagen.
Andernorts scheint man sich zum Thema Datenschutz weniger Gedanken zu machen: Der Blick auf die Volksrepublik China verdeutlicht, wie weit solche digitalen Innovationen in Form der Auswertung und flächendeckenden automatisierten Erhebung personenbezogener Daten sowohl in das Privatleben als auch beispielsweise in den Kampf gegen Pandemien implementiert werden können. Das dort bereits großflächig integrierte Social Credit-System speist sich förmlich an Daten aus Steuererklärungen, Schuldscheinen, Rechnungen, sozialen Faktoren wie dem Befolgen der Straßenverkehrsregeln oder der Familienplanung, ehrenamtlichen Tätigkeiten, Vorstrafenregistern, Onlineverhalten und vielen weiteren Datenquellen. Die Corona-Warn-App Alipay Health Code, die von einem Zweig des E-Commerce-Giganten Alipay in Zusammenarbeit mit der Regierung entwickelt wurde, gibt unmissverständlich in grün, gelb, rot die eigene Bewegungsfreiheit zu verstehen – und gibt der örtlichen Polizei durch den Programmcode “reportInfoAndLocationToPolice” das Zeichen, dass ab sofort die personen- und ortungsbezogenen Daten des Smartphones von ihnen durchleuchtet werden. Bei gelb und rot ist unverzüglich die Polizei aufzusuchen. Inzwischen ist die App dermaßen integriert im alltäglichen Ablauf, dass der Zugriff auf öffentliche Verkehrsmittel, Einzelhandel etc. nicht ohne den gültigen QR-Code-Scan möglich ist. Sieht die Daten- und Informationsverarbeitung der Zukunft so aus? Können unsere Regeln zum Datenschutz mit dieser rasanten Entwicklung schritthalten? Einen Ausblick auf das Ergebnis dieses Wettrennens bietet das Gesetzgebungsvorhaben zur e-Privacy-Richtlinie der EU – diese sollte ursprünglich mit der DS-GVO in Kraft treten – die Betonung liegt auf sollte.
Die Frage danach, ob der Status Quo der voranschreitenden Digitalisierung den Selbstbestimmungsrechten der Nutzer nützt oder schadet, bleibt offen.
Angesichts der erhöhten Anwendbarkeit, Nutzenfreundlichkeit sowie der optimierten Vernetzung mit immer neueren Apps und Anwendungen erscheinen persönliche Daten wie ein kleiner Preis, der zu zahlen ist, um dank digitaler und technischer Innovationen am neuen Alltag teilhaben zu können. Bei genauerer Betrachtung wird jedoch durch die Auswertung und Anwendung der hier entwichenen Daten, Nutzer eine Hand gereicht, die ihnen zuvor abgerissen werden muss: Ortungsdaten von Endgeräten und selbstfahrenden Fahrzeugen ergeben schnell ein Bewegungsprofil, das jeden Schritt genauestens erfasst. Spätestens wenn sich diese Datensätze um die neuen Möglichkeiten der Videoüberwachung und automatischer Gesichtserkennung ergänzen lassen, nimmt das Ausmaß an verfügbaren persönlichen Daten unvorstellbare Züge an. Was, wenn die personen- und ortungsbezogenen Daten auch noch verwendet werden, um die Wahrscheinlichkeit für künftige Straftaten und Krankheitsfelder zu berechnen? Predictive Policing, Facial Recognition und Geo Tracking sind nur manche der zahlreichen Technologien, die die Zukunft für uns bereithält. Werden mit der fortschreitenden Digitalisierung Nutzern grundlegende Rechte, Ressourcen und Sicherheiten in diesem Geflecht versichert, oder erst recht dadurch entzogen? Und was ist ihnen der digitalisierte Alltag wert, wenn sie dafür Verhalten und Werte grundlegend ändern müssen, um etwa nicht negativ in einem kriminologischen Algorithmus aufzufallen – oder überhaupt erst am gesellschaftlichen oder politischen Leben teilhaben zu können?
Die Frage danach, ob der Status Quo der voranschreitenden Digitalisierung den Selbstbestimmungsrechten der Nutzer nützt oder schadet, bleibt offen. Doch in einer digitalisierten Zukunftsvision sind Tendenzen erkennbar. Liegt die Verantwortung dafür, dass dieses Potenzial zum Kontrollverlust nicht ausgeschöpft wird, letztendlich wieder bei uns? Sollten wir uns in Zukunft die Datenschutzerklärungen mehrmals durchlesen? Und was hilft es mir eine Datenschutzerklärung durchzulesen, die mir am Ende nur das Unausweichliche verrät? Was ist, wenn der Staat sich nicht an seine eigenen Regeln hält, etwa beim beständigen Vorstoß zur Vorratsdatenspeicherung? Innovation oder Freiheit? Alle entscheiden selbst oder wurden wir etwa „genudget“?
* Der Autor verwendet das generische Maskulinum, sämtliche Personenbezeichnungen gelten gleichermaßen für beide Geschlechter.
Florian Melzer ist Datenschutz Consultant und externer Datenschutzbeauftragter. Als „Schutzherr“ von Unternehmenswerten, begleitet die Patronus Services GmbH seine Kunden sicher und beständig bei der externen Archivierung ihrer Dokumente bis hin zur DS-GVO-konformen Vernichtung. Dabei spielt Datenschutz für die Patronus Services GmbH keine untergeordnete Rolle, sondern ergänzt auch in der Kundenberatung unser Angebots-Portfolio. Als inhabergeführtes Team aus Juristen, IT-Fachleuten und Unternehmern unterstützen wir so täglich unsere Kunden bei ihren Digitalisierungsprojekten. Die Vorteile für unsere Kunden liegen dabei auf der Hand: auf der einen Seite unmittelbare Einsparpotenziale durch die externe Aktenlagerung und auf der anderen Seite die Gewissheit, dass die strengen Anforderungen an Datenschutz und Datensicherheit eingehalten werden. www.patronus-datenservice.de