Bewertung der Risiken von Deepfakes

Das International Risk Governance Center (IRGC) der EPFL hat einen ersten umfassenden Überblick über die Risiken von Deepfakes und die möglichen Reaktionen veröffentlicht. Die Studie soll als Grundlage dienen, um der Bedrohung durch Deepfakes zu begegnen.
© iStock

Vor einigen Wochen sorgte die französische Wohltätigkeitsorganisation Solidarité Sida für Aufsehen, als sie ein gefälschtes, aber höchst realistisches Video von Donald Trump veröffentlichte, in dem sie im Rahmen einer Sensibilisierungskampagne "AIDS ist vorbei" verkündete. Es handelt sich um ein so genanntes Deepfake, eine Technik, bei der mit Hilfe des maschinellen Lernens immer realistischere Bilder und Videos sowie Audio- und Textdateien hergestellt werden.

Die Verwendung eines Deepfake-Videos durch eine Wohltätigkeitsorganisation unterstreicht die wachsende Verbreitung dieses Phänomens. Während Pornografie derzeit die überwiegende Mehrheit der Deepfake-Videos ausmacht, kann die Technik auch zum Betrug, zur Verleumdung, zur Verbreitung gefälschter Nachrichten oder zum Diebstahl der Identität von Personen eingesetzt werden.

Wachsende Bedrohungen

Im September versammelte das International Risk Governance Center (IRGC) der EPFL rund 30 Experten zu einem interdisziplinären Seminar, um dieses sich schnell entwickelnde Phänomen und seine zunehmende Verbreitung zu diskutieren. Das IRGC hat heute einen Bericht veröffentlicht, der wertvolle Erkenntnisse über die mit Deepfakes verbundenen Risiken enthält.

Die Hauptbeobachtung ist, dass diese Risiken in vielen Lebensbereichen weitreichende Schäden verursachen könnten. "Jede Unternehmensorganisation oder Aktivität, die sich auf dokumentarische Beweise stützt, ist potenziell anfällig", sagt Aengus Collins, Autor und stellvertretender Direktor des IRGC. Deepfakes können zu großer Unsicherheit und Verwirrung führen. In einem aktuellen Fall nutzten Diebe das Deepfaked-Audio der Stimme eines leitenden Angestellten, um Geld von einem Unternehmen zu stehlen. Auf gesamtgesellschaftlicher Ebene könnte eine starke Verbreitung gefälschter Inhalte die Wahrheit untergraben und das Vertrauen der Öffentlichkeit erschüttern, den Eckpfeiler der demokratischen Debatte.

Der Bericht bietet einen Rahmen für die Kategorisierung von Deepfake-Risiken. Er hebt drei wesentliche Auswirkungen hervor - Reputationsschädigung, Betrug und Erpressung sowie die Manipulation von Entscheidungsprozessen - und stellt fest, dass diese Auswirkungen einzeln, institutionell oder gesellschaftlich spürbar sind.

Bei einem so breiten Spektrum an potenziellen Schäden durch Deepfakes, wo sind Maßnahmen zur Risikoverwaltung am dringendsten erforderlich? Die Experten empfehlen, sich auf das Ausmass und die Schwere des potenziellen Schadens sowie auf die Fähigkeit des "Ziels" zu konzentrieren, um mit den Folgen umzugehen. So wird beispielsweise ein gut ausgestattetes Unternehmen mit etablierten Prozessen die Auswirkungen eines Deepfake-Angriffs besser abfangen können als ein privates Opfer von Belästigung.

Interdependente Lösungen

In dem Bericht enthält das IRGC 15 Empfehlungen zu einer Vielzahl von möglichen Reaktionen auf Deepfakes, die die von ihnen ausgehenden Risiken mindern könnten. Sie fordert auch verstärkte Forschung in allen Bereichen.

Eine der wichtigsten Kategorien von Empfehlungen ist die Technologie, einschliesslich Tools, die die Herkunft digitaler Inhalte überprüfen oder Deepfakes erkennen können. An der EPFL entwickeln die Multimedia Signal Processing Group (MMSPG) und das Startup Quantum Integrity derzeit eine Deepfake Detection-Lösung, die 2020 eingesetzt werden könnte. "Für jede Art von Verteidigung wird es Schwachstellen geben, die ausgenutzt werden können", sagt Collins. "Aber die Aufrechterhaltung und Entwicklung technologischer Reaktionen auf Deepfakes ist entscheidend, um die meisten Missbräuche zu verhindern."

Der Bericht betont auch, dass der Rechtsstatus von Deepfakes stärker in den Mittelpunkt gestellt werden muss, um klarzustellen, wie Gesetze in Bereichen wie Diffamierung, Belästigung und Urheberrecht auf synthetische Inhalte anzuwenden sind.

Generell spielt die digitale Kompetenz eine wichtige Rolle. Aber Collins warnt davor, dass es hier ein Paradoxon gibt: "Eines der Ziele der digitalen Kompetenz in diesem Bereich besteht darin, die Menschen zu ermutigen, digitale Inhalte nicht für bare Münze zu nehmen. Aber es muss auch ein positiver Fokus auf Dinge wie Bestätigung und Bewertung von Quellen gelegt werden. Andernfalls besteht Gefahr, dass Menschen, die gelernt haben, allem was sie sehen zu misstrauen, Probleme mit Wahrheit und Vertrauen bekommen."

Erweiterte Horizonte

Während sich der IRGC-Bericht auf Deepfake-Risikomanagement konzentriert, ist diese Forschung Teil eines breiteren Arbeitszweiges über die Risiken im Zusammenhang mit neuen und konvergierenden Technologien, der 2020 fortgesetzt wird. "Wir entscheiden derzeit, was unser nächster Schwerpunkt sein wird", sagt Collins. "Und es gibt keinen Mangel an Kandidaten. Wir leben in einer Zeit, in der das Verhältnis zwischen Technologie, Risiko und öffentlicher Ordnung wichtiger denn je ist."