Ereignishorizont Digitalisierung - Deep Fake

Deep Learning + Fake = Deep Fake

Barack Obama beschimpft Donald Trump: „President Trump is a total and complete Dipshit“ (vgl. Video). Donald Trump fordert in einem anderen Video die Wähler Belgiens auf, einer Partei die Stimme zu geben, die für den Austritt aus dem Pariser Klimaabkommen ist: „As you know, I had the balls to withdraw from the Paris climate agreement – and so should you“.  Berühmte weibliche Hollywood-Stars spielen plötzlich in pornographischen Filmen  mit. Alles denkbar! Aber alles Fälschungen! Nicht einfach nur mehr oder weniger schlecht gemachte, sondern täuschend echt wirkende Fälschungen realer Personen. Mit Hilfe von Künstlicher Intelligenz (KI) erstellte FälschungenDEEP FAKE!

You Won’t Believe What Obama Says In This Video! 😉


Video: Barack Obama beschimpft Donald Trump.

Was ist Deep Fake? 

Mit Deep Fake werden gefälschte, aber täuschend echt wirkende Bilder oder Videos von realen Personen bezeichnet. Der Begriff „Deep Fake“setzt sich aus den Schlagworten „Deep Learning“ (einer Technik im Bereich der Künstlichen Intelligenz) und „Fake“(also Fälschung) zusammen und beschreibt die Erstellung manipulierter audio-visueller Inhalte, v. a. von Videos. Meist geht es darum, menschliche Gesichter, z. B. von Politikern oder Prominenten, auf andere Körper zu setzen oder um die realistische Simulation der Sprache, Gestik und Mimik von Personen. Erreicht wird dies mit Techniken aus dem Bereich der KI, die ursprünglich zum Zwecke der Gesichts- oder Objekterkennung entwickelt wurden.

Betroffen sind bislang v. a. Politiker oder ProminenteBetroffen können aber wir alle sein. Software, um Deep Fakes innerhalb von Minuten zu erzeugen, z. B. die Applikation Fake-App, gibt es bereits heute kostenlos zum Download.

Viele Missbrauchsszenarien

Deep Fake Manipulationen können dramatische Folgen haben. Viele Missbrauchsszenarien sind denkbar: die Manipulation von privaten Videoaufnahmen, die Fälschung von Unfallaufnahmen, oder die Manipulation von Videos aus Kriegs- und Krisengebieten.

Kritisch ist auch der Bereich derPolitik und demokratischer Meinungsbildungsprozesse z. B. bei Wahlen. Das Problem: Deep Fakes können, da es um audiovisuelle Fälschungen geht, eine andere Wirkmacht entfalten als textuelle Fake News. Dazu sagt Danielle Citron, Jura-Professorin an der University of Maryland in einem Artikel im The Guardian: „The marketplace of ideas already suffers from truth decay as our networked information environment interacts in toxic ways with our cognitive biases. Deep fakes will exacerbate this problem significantly.“ Tim Hwang, Direktor der “Harvard-MIT Ethics and Governance of Artificial Intelligence Initiative” wird im gleichen Artikel zitiert: “We have long been able to doctor images and movies, but in the past, if you wanted to make a video of the president saying something he didn’t say, you needed a team of experts. Machine learning will not only automate this process, it will also probably make better forgeries.

Als Brandbeschleuniger für den gezielten Einsatz von Deep Fakes können insbesondere soziale Medien dienen, deren Funktionsprinzipden impulsiven Teil unseres menschlichen Gehirns anspricht, also den Teil, der Dingen Aufmerksamkeit schenkt, die unser Verstand normalerweise ignoriert: Katzenvideos, lustige Memes, aber eben auch Hass, Manipulation und öffentliche Bloßstellung.

Deepfake Videos Are Getting Real and That’s a Problem | Moving Upstream


Video: Deepfake Videos Are Getting Real and That’s a Problem.

Zur Wirkmacht von Deep Fake: heute und morgen

Die Wirkmacht von Deep Fakes ist HEUTE per se relativ gering. Zu irre und selbstentlarvend sind viele Beispiele. In Zeiten, in denen oft nicht mehr klar ist, ob etwas real oder Fiktion/Satire ist, wird aber auch dieses Argument einer fortlaufenden Prüfung unterzogen. Die Situation kann MORGEN schon eine ganz andere sein. 

Fast schon blauäugig scheint da die Aussage der New York Times sieht zu sein: “It is possible, however, that some good will come out of the deep fakes menace. Maybe we will better understand that the truth is both precious and endangered. Perhaps we will learn to pause before giving in to internet-stoked spleen. Above all, we have to more fiercely call out and refute manipulative liars — as well as the people who insist on believing their fictions.

Geschrieben von

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *