Deepfake & Datenschutz: Wie können Nutzer:innen ihre Daten schützen?

Letztes Update:
07
.
09
.
2022
Lesezeit:
0
Min
Künstliche Intelligenz und Machine Learning lassen uns altern, jünger aussehen oder uns in Videos auftreten, von denen wir nichts wussten. All das wird Deepfake genannt. Wie sieht es hierbei mit dem Datenschutz aus?
Deepfake & Datenschutz: Wie können Nutzer:innen ihre Daten schützen?
Die wichtigsten Erkenntnisse
  • Künstliche Intelligenz erzeugt Deepfakes, die Bilder, Videos und Audio manipulieren.
  • Deepfakes bedrohen Datenschutz durch unberechtigte Verwendung personenbezogener Daten.
  • Deepfakes werden oft für Betrug, Erpressung und Fehlinformationen genutzt.
  • Schutzmaßnahmen: Privatsphäre-Einstellungen anpassen, zweifelhafte Apps meiden, Medienkompetenz stärken.
  • Mitarbeiterschulungen und Sicherheitsprotokolle helfen, Deepfake-Betrug im Geschäftsbereich zu verhindern.

Fotos zu manipulieren wird immer einfacher. Wir erinnern uns an den Hype um eine App, die Personen auf einem aufgenommenen Foto jünger oder älter machte bzw. gar ins andere Geschlecht umwandelte. Die Rede ist von FaceApp, einer App, die zweifelhaftes mit den ihr zur Verfügung gestellten Daten anstellt. Nun wird es auch immer simpler, Videos zu manipulieren. Und schon tritt Barack Obama in einem Videoclip auf und verspottet Trump – ein klassischer Deepfake, also ein künstlich erzeugtes Video, das aus einem offiziellen Video des US-Amerikanischen Expräsidenten entstanden ist. Wie funktioniert das? Und was bedeuten Deepfakes für personenbezogene Daten?
 

Was versteht man unter Deepfake?

Der Begriff Deepfake setzt sich aus den englischen Wörtern „Deep Learning“ und „Fake“ zusammen und beschreibt Fotos, vor allem aber Videos oder auch Audioaufnahmen, die mittels Künstlicher Intelligenz und Machine Learning erstellt oder manipuliert wurden. Für ein so manipuliertes Video reicht oftmals schon ein Foto einer Person, um daraus einen gefälschten Medieninhalt herzustellen. Was für die einen ein Spaß ist und mittels Deepfake-Apps in der Freizeit benutzt wird, ist vor allem im politischen Umfeld, aber auch im wirtschaftlichen und gesellschaftlichen Umfeld umstritten. Die Gefahr, gefälschte Botschaften oder Videos von z.B. Regierungsoberhäuptern zu verbreiten, die erdachte Inhalte ausplaudern, beinhaltet viel Zündstoff. Daher gibt es Bestrebungen,

  • Deepfake-Inhalte leichter identifizieren zu können,
  • die Nutzung zu beschränken oder aber
  • nicht genehmigte Erstellung unter Strafe zu stellen.

Wie dies umgesetzt werden soll, ist allerdings fraglich. Noch ist die Erstellung von Deepfakes open source und theoretisch allen zugänglich: Ca. 95% aller Deepfakes werden laut Github mittels der Open-Source-Software DeepFaceLab hergestellt.
 

Deepfake & Datenschutz – Welche Risiken und Datenschutzverletzungen stellen Deep Fakes dar?

In Kunst, Bildung und Wissenschaft können und werden Deepfakes bereits im Positiven verwendet. Wird diese Technik jedoch missbraucht, kann dies weitreichende Folgen haben: Opfer werden entweder mittels Deepfake getäuscht oder ihre Stimme / Bild- & Videomaterial wird verwendet, um daraus einen Deepfake zu erstellen. Vor allem letzteres stellt ein großes Problem dar, denn die unberechtigte Verwendung von Stimm-, Bild- oder Videoaufnahmen einer Person verletzt u.a. deren Recht am eigenen Bild / der eigenen Ton- & Videoaufnahme, ist aber ebenso eine unerlaubte Verwendung von sensiblen personenbezogenen Daten (z.B. biometrische Daten).

Noch gibt es in Deutschland zu in missbräuchlicher Absicht verwendeten Deepfakes keine gültige Rechtslage. Es bedarf aber in jedem Fall der juristischen Klärung, wie mit Datenschutzverletzungen bei diesem Thema umzugehen ist.
 

Deepfake-Beispiele aus der Praxis

Deepfakes können im wahrsten Wortsinn viele Gestalten annehmen und werden abseits der Kunst leider oftmals für Fehlinformationen, Betrug und Erpressung eingesetzt. Einige der bekanntesten Beispiele hier sind:

  • Manipulierte Videos. Vor allem das bereits zu Beginn angesprochene Video von Barack Obama oder aber ein Video der vermeintlich betrunkenen Nancy Pelosi, Sprecherin des US-Repräsentantenhauses, erzielten Millionen Klicks im Internet (wobei letzteres, um ganz genau zu bleiben, eher einen Cheap Fake darstellte). Dass es sich hier um manipulierte Videos handelt, war bei beiden auf den ersten Blick nicht zu erkennen und sie lösten, vor allem das letzte Video, hitzige politische Debatten aus.
  • Manipulierte Tonaufnahmen. Auch Stimmen können von Deepfakes betroffen sein und künstlich erzeugt werden. Ein sog. Voice-Deepfake verhalf Betrüger:innen z.B. zu einer knappen viertel Million Euro: In einem britischen Energiekonzern wurde die Stimme eines Geschäftsführers eines Mutterkonzerns gefälscht, der einem seiner CEOs eine Not-Überweisung über den Betrag von 243.000 Dollar anwies. Die Überweisung wurde ausgeführt und das Geld war weg.
  • Manipulierte Bilder. Manipulierte Bilder sind nichts neues, aber mittels Deepfake werden sie immer weiter verfeinert, so dass sie oftmals nur noch sehr schwer als Fake identifiziert werden können. Besonders perfide sind Deepfake-Pornobilder oder auch Deepfake-Pornovideos, die meist mittels Face Swapping v.a. gegen Journalistinnen oder Politikerinnen eingesetzt werden. Ein bekanntes Beispiel ist das der indischen Autorin und Journalistin Rana Ayyub, die gegen Machtmissbrauch in Indien kämpft und mit dem fake-Video diskreditiert werden sollte. Dies ist leider kein Einzelfall: Laut einer Studie von Vox Media macht der pornografische Anteil 96% der bisher erstellten Deepfakes aus.
     

Wie können Nutzer ihre Daten vor Deepfake-Angriffen schützen?

Sich selbst vor Deepfakes zu schützen ist leider nicht einfach, vor allem dann nicht, wenn Sie sehr freizügig mit Ihren personenbezogenen Daten umgehen und einen aktiven digitalen Fußabdruck im Internet hinterlassen. Das heißt, dass Sie fleißig Bilder, Videos o.ä. von sich ins Netz, z.B. auf soziale Plattformen, stellen. Neben der aktiven Reduktion von selbst ins Netz gestellten Bildern, Videos und Tonaufnahmen, auf die Fremde leicht Zugang haben, können Sie:

  • Ihre Privatsphäre-Einstellungen anpassen. Nutzen Sie Soziale Netzwerke bzw. alle Social Media-Konten nur mit der höchsten Privatsphäre-Einstellung, damit Fremde Ihre Bilder, Videos und Tonaufnahmen nicht oder zumindest unter höherem Aufwand abgreifen können.
  • Auf zweifelhafte Apps verzichten. Wie bereits eingangs angesprochen, sind Apps, die Bilder oder Videos im Deepfake-Style bearbeiten können – wie FaceApp, Fao oder wombo.ai –, sehr beliebt. Allerdings geben Sie diesen Apps neben Ihren Bildern (und damit biometrische Daten) nicht selten auch die uneingeschränkten Nutzungsrechte an Ihren Bildern. Lassen Sie die Finger von solchen Apps, vor allem, wenn die Nutzungsbedingungen nur sehr schwer zu durchschauen sind.
  • Ihre Medienkompetenz ausbauen: Nicht nur Sie selbst können zum Opfer eines Deepfake-Angriffs werden, sondern Sie können auch falschen Informationen und Fake-News erliegen, die beispielsweise mittels Deepfake-Videos in den Umlauf gebracht werden. Um dem vorzubeugen, beziehen Sie Ihre Nachrichten nur aus hochwertigen Quellen und checken Sie Nachrichten bei anderen Stellen gegen.
  • Ihr Umfeld aufklären: Unerfahreneren oder jüngeren Internet-Nutzer:innen sind die Gefahren von Deepfakes oftmals nicht bewusst. Klären Sie Ihr Umfeld auf und weisen Sie auf die Gefahren hin, die davon ausgehen.

Deepfake-Angriffe sind aber nicht nur im Privaten, sondern auch im Geschäftsumfeld ein erhebliches Problem, wie in den obengenannten Beispielen ersichtlich wurde. Darum ist es wichtig, auch im geschäftlichen Umfeld aktiv zu werden:

  • Mitarbeiterschulungen: Alle Mitarbeiter:innen werden meist in Sachen IT-Sicherheit geschult. Nehmen Sie hier auch den Punkt von Deepfake-Angriffen mit auf.
  • Protokolle: Auch wenn eine (vermeintlich) noch so dringende Überweisung getätigt werden muss – stellen Sie Sicherheitsprotokolle auf, die zwingend eingehalten werden müssen. Wenn mehrere Augen über eine Anweisung schauen und Prozesse verschiedene Sicherheitshürden nehmen müssen, wird die Gefahr, einem Betrug zu erliegen, immer geringer.
  • Technisch organisatorische Maßnahmen (TOM): TOM helfen durch Backups, sichere Passwörter usw., Systeme und Zugänge zu sichern oder zerstörte Daten zu rekonstruieren. So kann oftmals noch größere Schaden abgewandt werden, auch, wenn es Betrüger:innen gelungen ist, eine erste Sicherheitshürde zu überspringen.
  • Spezielle Programme: Spezialprogramme, um Deepfakes zu enttarnen, indem sie z.B. Inkonsistenzen in den Bildartefakten aufspüren, kommen immer mehr auf den Markt und können für sensible Geschäftsbereiche eine Lösung darstellen.

Das Thema Deepfakes steht erst noch in den Kinderschuhen. Ob es ein großes Problem wird, bleibt nur zu vermuten. Einige Länder reagieren bereits und haben gegen Deepfakes Gesetze erlassen, wie z.B. Kalifornien (die Gesetze AB-602 (Verbot der Synthetisierung menschlicher Gesichter, um pornografischen Material zu erstellen) sowie AB-730 (Verbot der Manipulation von Politiker-Bildern / politischer Kandidaten im Zeitraum von 60 Tagen vor einer Wahl)). Andere Länder müssen hier noch nachziehen. Bis dahin heißt es für Sie: Trauen Sie nicht allem, was Sie sehen. Das gilt einmal mehr fürs Internet.

Sie haben noch Fragen zum Thema? Lassen Sie sich jetzt kostenlos von unseren Expertinnen und Experten beraten.

Wenn Sie auf der Suche nach einem Partner sind, der Sie auf dem Weg zu Datenschutz und Informationssicherheit unterstützt, wenden Sie sich gern an unser Team aus erfahrenen Experten.
60+ Expertinnen und Experten
Beratung vereinbaren
Themen
Redaktion
Alexander Ingelheim
Co-Founder & CEO
Alexander Ingelheim ist Co-Gründer und CEO von Proliance. Sein Antrieb von Anfang an: Unternehmen bei den Hürden und Herausforderungen des Themas Datenschutz und der DSGVO zu unterstützen. Er bringt umfassende Erfahrungen aus seiner Tätigkeit in der internationalen Beratung mit, darunter Positionen bei Bregal Unternehmerkapital GmbH und McKinsey & Company. Darüber hinaus ist er zertifizierter Datenschutzbeauftragter (TÜV & DEKRA).
Zum Autorenprofil
Zum Expertenprofil
Über Datenschutzexperte
Ein Service der PROLIANCE GmbH.
Proliance steht für Professional Compliance für Unternehmen. Wir sind ein digital getriebenes Legal Tech Unternehmen mit Sitz in München - seit 2017 bestehend aus über 90 Privacy Enthusiasten.
Zu unseren mehr als 2.500 Kunden zählen Start-ups, mittlere Unternehmen und Unternehmensgruppen aus nahezu allen Branchen.
Über uns
Neueste Artikel

Brandheiße Themen, die Sie interessieren könnten

Newsletter

Nichts mehr verpassen – Jetzt Ihren exklusiven Datenschutz-Newsletter abonnieren!