Ist perfekter Datenschutz ein Wunschtraum?

Vom Bankwesen bis hin zur Kommunikation wird unser modernes, tägliches Leben von Daten bestimmt, was zu ständigen Bedenken hinsichtlich des Datenschutzes führt. In einer neuen EPFL-Studie wird nun argumentiert, dass viele Versprechen, die im Zusammenhang mit Mechanismen zur Wahrung der Privatsphäre gemacht werden, niemals erfüllt werden können und dass wir diese inhärenten Grenzen akzeptieren müssen und nicht dem Unmöglichen nachjagen sollen.
Big Data, Netzwerksicherheitskonzept © iStock / EPFL 2022

Datengestützte Innovationen in Form von personalisierter Medizin, besseren öffentlichen Diensten oder beispielsweise einer umweltfreundlicheren und effizienteren industriellen Produktion versprechen enorme Vorteile für die Menschen und unseren Planeten. Ein umfassender Zugang zu Daten wird als wesentliche Voraussetzung für diese Zukunft angesehen. Doch aggressive Praktiken der Datenerfassung und -analyse stellen gesellschaftliche Werte und Grundrechte in Frage.

Daher ist die Frage, wie der Zugang zu Daten ausgeweitet und gleichzeitig die Vertraulichkeit sensibler, persönlicher Informationen gewahrt werden kann, zu einer der grössten Herausforderungen bei der Entfaltung des Potenzials datengesteuerter Technologien geworden. Eine neue Studie des Security and Privacy Engineering Lab (SPRING) der EPFL an der Fakultät für Informatik und Kommunikation zeigt auf, dass es sinnlos ist, zu versprechen, dass die Nutzung von Daten unproblematisch ist, wenn man sie richtig nutzt und die Vertraulichkeit gewährleistet ist.

Die Leiterin des SPRING-Labors und Mitverfasserin der Studie, Assistenzprofessorin Carmela Troncoso, erklärt, dass es zwei traditionelle Ansätze zur Wahrung der Privatsphäre gibt: «Es gibt den Weg der datenschutzfreundlichen Kryptografie, der die Daten in einem entschlüsselten Bereich verarbeitet und ein Ergebnis liefert. Die Einschränkung besteht jedoch darin, dass sehr gezielte Algorithmen entwickelt werden müssen und nicht nur allgemeine Berechnungen durchgeführt werden dürfen.»

Das Problem bei dieser Art von Technologien zur Wahrung der Privatsphäre ist, dass sie eines der wichtigsten Probleme für Praktikerinnen nicht lösen: Wie kann man hochwertige Daten auf individueller Ebene auf eine Art und Weise weitergeben, die die Privatsphäre wahrt, aber Analysten die Möglichkeit gibt, den vollen Wert eines Datensatzes auf äusserst flexible Weise zu nutzen?

Der zweite Weg zur Lösung dieses Problems ist die Anonymisierung von Daten, d. h. die Entfernung von Namen, Orten und Postleitzahlen, doch laut Troncoso sind oft die Daten selbst das Problem: «Es gibt ein berühmtes Beispiel von Netflix, als das Unternehmen beschloss, Datensätze freizugeben und einen öffentlichen Wettbewerb zu veranstalten, um bessere ‹Empfehlungsalgorithmen› zu entwickeln. Es entfernte die Namen der Kundinnen und Kunden, aber als die Forschenden die Filmbewertungen mit anderen Plattformen verglichen, auf denen Menschen Filme bewerten, konnten sie die Personen de-anonymisieren.»

In jüngster Zeit sind synthetische Daten als neue Anonymisierungstechnik aufgetaucht, doch die Studie legt nahe, dass sie im Gegensatz zu den Versprechungen ihrer Befürworter den gleichen Kompromissen zwischen Privatsphäre und Nutzen unterliegt wie die traditionelle Anonymisierung von Daten: «Wie wir in unserem Papier sagen, sollten Forschende und Menschen aus der Praxis den inhärenten Kompromiss zwischen hoher Flexibilität beim Datennutzen und starken Garantien für die Privatsphäre akzeptieren», so Theresa Stadler, Doktorandin im SPRING-Labor und Mitautorin des Papiers.

«Dies kann durchaus bedeuten, dass der Umfang datengesteuerter Anwendungen eingeschränkt werden muss und dass die Dateninhaber explizit entscheiden müssen, welcher Ansatz zur gemeinsamen Nutzung von Daten für ihren Anwendungsfall am besten geeignet ist», so Stadler weiter.

«Die Frage lautet: ‹Hat die Technologie Schaden vom System abgehalten oder hat sie das System nur genauso schädlich gemacht?›»      Carmela Troncoso, Leiterin des SPRING-Labors

Eine weitere Kernaussage der Studie ist die Idee einer langsameren, kontrollierteren Freigabe von Technologien. Heutzutage ist die ultraschnelle Einführung die Norm, mit einer «Wir werden es später reparieren»-Mentalität, wenn etwas schief geht – ein Ansatz, den Troncoso für sehr gefährlich hält: «Wir müssen anfangen zu akzeptieren, dass es Grenzen gibt. Wollen wir wirklich mit dieser datengesteuerten Freiheit für alle weitermachen, bei der es keine Privatsphäre gibt und die grosse Auswirkungen auf die Demokratie hat? Es ist wie beim Murmeltiertag: Wir reden seit 20 Jahren darüber, und das Gleiche passiert jetzt mit dem maschinellen Lernen. Wir setzen Algorithmen ein, sie sind voreingenommen, und wir hoffen, dass sie später korrigiert werden. Aber was ist, wenn sie nicht korrigiert werden können?»

Eine eingeschränkte Funktionalität und ein hoher Datenschutz sind jedoch nicht das Geschäftsmodell der Tech-Giganten, und Troncoso fordert uns alle auf, sorgfältiger über den Umgang mit diesem kritischen Thema nachzudenken.

«Vieles von dem, was Google und Apple tun, besteht im Wesentlichen darin, ihre schädlichen Praktiken zu beschönigen und den Markt zu blockieren. So lässt Apple beispielsweise nicht zu, dass Apps Informationen sammeln, sondern sammelt die Daten selbst auf eine so genannte ‹datenschutzfreundliche› Weise und verkauft sie dann weiter. Was wir damit sagen wollen, ist, dass es keinen Weg gibt, die Privatsphäre zu schützen. Die Frage lautet: ‹Hat die Technologie Schaden vom System abgehalten oder hat sie das System nur genauso schädlich gemacht?› Privatsphäre an sich ist kein Ziel, Privatsphäre ist ein Mittel, um sich zu schützen», so Troncoso abschliessend.