Ereignishorizont Digitalisierung - Deep Fake

Deep Learning + Fake = Deep Fake

Barack Obama beschimpft Donald Trump: „President Trump is a total and complete Dipshit“ (vgl. Video). Donald Trump fordert in einem anderen Video die Wähler Belgiens auf, einer Partei die Stimme zu geben, die für den Austritt aus dem Pariser Klimaabkommen ist: „As you know, I had the balls to withdraw from the Paris climate agreement – and so should you“.  Berühmte weibliche Hollywood-Stars spielen plötzlich in pornographischen Filmen  mit. Facebook-Gründer Mark Zuckerberg philosophiert über „die gestohlenen Daten von Milliarden Menschen“ und eine mögliche Facebook-Weltherrschaft: „Stellt euch das mal kurz vor: Ein Mann, mit totaler Kontrolle über die gestohlenen Daten von Milliarden Menschen, alle ihre Geheimnisse, ihr Leben, ihre Zukunft – ich schulde das alles Spectre. Spectre hat mir gezeigt, dass derjenige, der die Daten kontrolliert, auch die Zukunft kontrolliert.“ Alles denkbar! Aber alles Fälschungen! Nicht einfach nur mehr oder weniger schlecht gemachte, sondern täuschend echt wirkende Fälschungen realer Personen. Mit Hilfe von Künstlicher Intelligenz (KI) erstellte FälschungenDEEP FAKE!

You Won’t Believe What Obama Says In This Video! 😉


Video: Barack Obama beschimpft Donald Trump.

Deepfake-Video: Zuckerberg erklärt sich zum Weltherrscher

Video: Marc Zuckerberg sinniert über die Weltherrschaft.

Was ist Deep Fake? 

Mit Deep Fake werden gefälschte, aber täuschend echt wirkende Bilder oder Videos von realen Personen bezeichnet. Der Begriff „Deep Fake“ setzt sich aus den Schlagworten „Deep Learning“ (einer Technik im Bereich der Künstlichen Intelligenz) und „Fake“ (also Fälschung) zusammen und beschreibt die Erstellung manipulierter audio-visueller Inhalte, v. a. von Videos. Meist geht es darum, menschliche Gesichter, z. B. von Politikern oder Prominenten, auf andere Körper zu setzen oder um die realistische Simulation der Sprache, Gestik und Mimik von Personen. Erreicht wird dies mit Techniken aus dem Bereich der KI, die ursprünglich zum Zwecke der Gesichts- oder Objekterkennung entwickelt wurden.

Betroffen sind bislang v. a. Politiker (kritisch ist eigentlich der ganze Bereich der Politik und demokratischer Meinungsbildungsprozesse z. B. bei Wahlen) oder ProminenteBetroffen können aber wir alle sein. Software, um Deep Fakes innerhalb von Minuten zu erzeugen, z. B. die Applikation Fake-App, gibt es bereits heute kostenlos zum Download. Auch Menschen, die nicht im Rampenlicht stehen, können so schnell mit DeepFakes konfrontiert sein. Besonders gefährdet sind dabei, so zeigen Beispiele, v. a. Frauen, Minderheiten und Menschen, die sich sowieso unreflektiertem Hass ausgesetzt sehen. Zuletzt sorgte in den USA die App DeepNude für Entsetzen. Ein anonymer Entwickler hatte die KI-App bereitgestellt, die zu beliebigen Gesichtern von Frauen realistisch aussehende, aber gefälschte nackte Körper erzeugte. „Revenge Porn“, Mobbing und eheverletzendem Verhalten wird so Tür und Tor geöffnet. In Indien wurde z. B. das Gesicht einer Journalistin, die kritisch über eine Lokalbehörde berichtet hatte, in ein Pornovideo montiert.

Mikael Thalens Video mit Jennifer Lawrence und Steve Buscemi.

Viele Missbrauchsszenarien

Deep Fake Manipulationen können also dramatische Folgen haben. Viele Missbrauchsszenarien sind denkbar: die Manipulation von privaten Videoaufnahmen, die Fälschung von Unfallaufnahmen, oder die Manipulation von Videos aus Kriegs- und Krisengebieten.

Das Problem: Deep Fakes können, da es um audiovisuelle Fälschungen geht, eine andere Wirkmacht entfalten als textuelle Fake News. Dazu sagt Danielle Citron, Jura-Professorin an der University of Maryland in einem Artikel im The Guardian: „The marketplace of ideas already suffers from truth decay as our networked information environment interacts in toxic ways with our cognitive biases. Deep fakes will exacerbate this problem significantly.“ Tim Hwang, Direktor der “Harvard-MIT Ethics and Governance of Artificial Intelligence Initiative” wird im gleichen Artikel zitiert: “We have long been able to doctor images and movies, but in the past, if you wanted to make a video of the president saying something he didn’t say, you needed a team of experts. Machine learning will not only automate this process, it will also probably make better forgeries.

Als Brandbeschleuniger für den gezielten Einsatz von Deep Fakes können insbesondere soziale Medien dienen, deren Funktionsprinzip den impulsiven Teil unseres menschlichen Gehirns anspricht, also den Teil, der Dingen Aufmerksamkeit schenkt, die unser Verstand normalerweise ignoriert: Katzenvideos, lustige Memes, aber eben auch Hass, Manipulation und öffentliche Bloßstellung.

Deepfake Videos Are Getting Real and That’s a Problem | Moving Upstream


Video: Deepfake Videos Are Getting Real and That’s a Problem.

Zur Wirkmacht von Deep Fake

Notwendig und geboten ist eine Auseinandersetzung mit den ethisch-moralischen Folgen von DeepFakes. Dazu Sam Gregory, Direktor der Menschenrechtsorganisation Witness (bezogen auf die App DeepNude; siehe oben): “Technology is not neutral. This [DeepNude] app is not dual use. It’s single use for a malicious purpose, and it is being created amorally. We need to really focus on the ethics of creating and sharing generative media tools. We should repeatedly call this out.

Die Wirkmacht von Deep Fakes ist HEUTE per se relativ gering. Zu irre und selbstentlarvend sind viele Beispiele. In Zeiten, in denen oft nicht mehr klar ist, ob etwas real oder Fiktion/Satire ist, wird aber auch dieses Argument einer fortlaufenden Prüfung unterzogen. Die Situation und Anwendungsszenarien können MORGEN schon eine ganz andere sein. Dazu ein Beispiel: Die beiden Wissenschaftler Joseph Bullock und Miguel Luengo-Oroz zeigen in ihrem lesenswerten Paper „Automated Speech Generation from UN General Assembly Statements: Mapping Risks in AI Generated Texts“ wie sie mit Hilfe von Open-Source-Tools ein Text-Generator gebaut werden kann, der fiktive Reden für die UN-Hauptversammlung erzeugen und simulieren kann. Dazu nutzten Sie ein existierendes Modell zur Spracherzeugung und trainierten dieses gerade einmal 13 Stunden lang mit allen Reden, die seit 1970 in der UN-Hauptversammlung gehalten wurden. Zwar geht es hier noch nicht um Video – das erschreckende Potenzial wird aber deutlich.  

Fast schon blauäugig scheint da die Aussage der New York Times sieht zu sein: “It is possible, however, that some good will come out of the deep fakes menace. Maybe we will better understand that the truth is both precious and endangered. Perhaps we will learn to pause before giving in to internet-stoked spleen. Above all, we have to more fiercely call out and refute manipulative liars — as well as the people who insist on believing their fictions.

Geschrieben von

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *