Was sind Deep Fakes und wie funktionieren sie? | Data Driven Company (2024)

Deepfakes sind künstlich erzeugte Inhalte (z.B. Videos), die sich von realem Material kaum unterscheiden lassen. Ihre Erstellung basiert auf künstlicher Intelligenz, genauer neuronalen Netzen, und kann aus existierendem Material neue Versionen mit anderen Personen, Sprachen oder Inhalten erstellen. Die Gefahr von Deepfakes ist dabei nicht gering: Sowohl für Privatpersonen als auch die Politik können gefälschte Inhalte schnell Schaden anrichten. In diesem Artikel diskutieren wir die Methodik hinter Deepfakes, die Gefahr, aber auch die Maßnahmen die dagegen eingesetzt werden.

Was sind Deepfakes?

Deepfakes sind Videos, Bilder oder auch Ton, der künstlich erzeugt wurde und keine Wahrheitsgrundlage hat. Der Begriff „Deepfakes“, auf Deutsch „tiefe Fälschungen“, setzt sich zusammen aus den Begriffen „Deep Learning„, eine Methode im maschinellen Lernen und „Fakes“, einem Kunstbegriff für Fälschungen.

Deep Learning ist die technologische Basis für die Erstellung von Deep Fakes, also werden künstliche neuronale Netze eingesetzt, um von vorhandenem Material (zum Beispiel Videomaterial) ein sogenanntes Modell zu kreieren, welches dann neues Material erzeugen kann. Da das Modell ein abstraktes Konzept darstellt, bedeutet dies auch, dass dadurch komplett neues und nicht-geplantes Material erstellt werden kann.

Der Ursprung von Deepfakes sind autoencoders oder Generative Aversial Networks (GANs), die in 2013 konzeptualisiert wurden. Erst 2017 erfuhr das Deepfake-Konzept breitere Aufmerksamkeit und der Begriff wurde gebräuchlich. Während die generelle Idee von Medienfälschung keine neue ist, gehen Deepfakes über die herkömmlichen Methoden weit hinaus, da damit sehr komplexe und realistische Fakes wie zum Beispiel Austausch der Stimme oder des Körpers möglich gemacht werden.

Wie kann man Deepfakes erstellen?

Im Grunde benötigt man für Deepfakes nur Basismaterial, von dem das neuronale Netz lernen kann. Dies können vorhandene Videos oder Bilder sein. Umso höher die Datenmengen (Big Data), umso besser, denn basierend auf mehr Information kann der Algorithmus besser lernen. Ausführlichere Information wie die algorithmische Grundlage von künstlichen neuronalen Netzen ist, findet ihr in unserem Artikel „Künstliche neuronale Netze und Deep Learning einfach erklärt„.

Da allerdings nur wenige sich mit der Programmierung von Autoencodern beschäftigen möchten, gibt es inzwischen auch mehrere Programme die es möglich machen, Deepfakes ohne großes Vorwissen zu erstellen. An vorderster Front sind momentan chinesische Apps wie „Zao“ oder der kommerzielle Anbieter „Deepfakes web β„. Generell gilt es jedoch, Vorsicht walten zu lassen, da der Hype rund um Deepfakes auch viele zwielichtige Anbieter hervorbringt, die die Neugierde von Menschen gerne ausnutzen und Viren installieren oder ähnliches.

Welche Einsatzzwecke gibt es für Deepfakes?

Generell können Deepfakes nicht nur für „Fakes“ genutzt werden, sondern haben auch sinnvolle Anwendungsgebiete. Die Generierung von Inhalt könnte, falls von entsprechend hoher Qualität, vor allem im Bereich der Medienproduktion einen Umbruch erwirken. GANs werden beispielsweise bereits jetzt als kreativer Input für Produktdesign und -entwicklung eingesetzt. Auch große Firmen wie Zalando nutzen generative Netze um ihre Kleidung nicht mehr in alle Farben fotografieren und pflegen zu müssen, sondern mittels Machine Learning schnell und einfach visuell zu erstellen.

Aber auch für Deepfakes im speziellen gibt es zahlreiche Ideen. Zum Beispiel das „Nachfilmen“ in der Filmproduktion könnte mittels Deepfakes realisiert werden, statt aufwendig alle Schauspieler an wiederaufgebaute Sets zu schaffen. Aber noch viel interessanter finde ich den Gedanken, dass Filme vielleicht bald vollpersonalisiert sind. Die Handlung bleibt bestehen, aber die Schauspieler kann man beliebig austauschen.

Welche Gefahr geht von Deepfakes aus?

Aber nebst dieser positiven Betrachtung geht von Deepfakes im Status Quo erstmal erhebliche Gefahr aus. Das sieht man alleine daran, wo sich das erste, hauptsächliche Anwendungsgebiet formiert hat: Die Erstellung von unechter p*rnographie. Viele Prominente wurden inzwischen in zweifelhafte Filme „proji*ziert“, um der Vorstellung von manchen Personen auch visuell zu entsprechen. Umgemünzt auf den Privatbereich kann dies auch schnell zum generellen Problem werden, wenn plötzlich Nacktbilder oder p*rnos auftauchen von Menschen, die damit nichts zu tun haben. Die Dementier-Mühe und der Versuch der Strafverfolgung stehen selbstverständlich in so einem Fall in keinem Verhältnis zur Einfachheit, wie solche Deepfakes produziert und verbreitet werden können.

Während in diesen Fällen eher Privatpersonen den Schaden tragen würden, gibt es auch keine gesamtgesellschaftliche Gefahr bei Deepfakes. Bisher sind Fakenews quasi nur in Schriftform zu finden, aber mittels Deep Learning können bald Videos oder Audioaufnahmen die Runde machen, die täuschend echt wirken. Ein einfaches Beispiel wäre die Verkündigung von Angela Merkel von Schutzzöllen, Grenzzschließungen oder sogar einer Kriegserklärung. Selbst wenn langfristig identifiziert werden könnte, dass es sich um Fakes handelt, ist der initiale Schaden nicht auszudenken.

Und das schlimmste ist im Endeffekt die Umkehr der Problematik. Wenn wir in Zukunft in einer Welt leben, in der alles ein Deepfake sein kann, werden viele Menschen Probleme haben, die Realität davon unterscheiden zu können. So kann es dazu kommen, dass Menschen reale Dinge als Fake abtun würden, die sie sehr wohl betreffen oder andere Dinge glauben, obwohl sie Fake sind. Diese Undurchsichtigkeit der Wahrheit wird somit nicht nur sozial, wirtschaftlich und gesellschaftlich Auswirkungen haben, sondern auch ganz klar psychisch.

Welche Maßnahmen gibt es gegen Deepfakes?

Wie zu erkennen ist, können Deepfakes ernstzunehmende Probleme auslösen. Im Groben gibt es drei Stoßrichtungen bei der Reaktion auf Deepfakes: Rechtliches, Detektion und Verbreitung. Der erste Punkt ist das Vorgehen, dass diejenigen die Deepfakes erstellen und verbreiten zur Rechenschaft gezogen werden können. Die Richtlinien und entsprechend auch Strafen variieren stark: Die USA zum Beispiel stellt zum Beispiel explizit Deepfakes mit Bezug zu Personen des öffentlichen Lebens oder Fakes mit sexuellen Darstellungen unter ein Verbot. China hingegen erfordert die Kennzeichnung von Deepfakes – sonst drohen empfindliche Strafen für Verbreiter und Plattform gleichermaßen. In anderen Staaten wie Kanada und dem Vereinigten Königreich gelten weniger spezifische Regeln, Deepfakes sind aber gleichermaßen strafrechtlich verfolgbar.

Die zweite Herangehensweise ist die Detektion von Deepfakes mittels anderer Algorithmen. Hierzu werden einfache Ungereimtheiten wie falsche Helligkeiten oder Schatten in Videos detektiert und somit als Fake gekennzeichnet. Selbstverständlich kommt auch hier wieder Deep Learning zum Einsatz. Während die Idee, Algorithmen gegen Algorithmen kämpfen zu lassen sehr futuristisch-Interessant ist, gleicht diese Herangehensweise jedoch einem technologischen Wettrüsten. So können sich Deepfake-Algorithmen stetig verbessern, indem sie die Deepfake-Detektions-Algorithmen nutzen um eigene Fehler auszubessern, was wiederum eine Aktion auf Seiten der Detektion erfordert.

Die dritte Herangehensweise ist ein systematischer Ausschluss der Verbreitung, vor allem mittels Verbot durch Nutzungsbedingungen auf Plattformen. Reddit, Twitter, Discord und Vice sind nur ein paar Plattformen, die inzwischen Deepfakes mindestens teilweise ausschließen und Verbreitende Nutzer sperren. Da diese Herangehensweise ebenso auf der Detektion beruht, ist auch dies keine endgültige Lösung.

Als vierte, oft missachtete und daher kaum diskutierte Stoßrichtung möchten wir jedoch die Wissensvermittlung hinzufügen. Wenn man das Bewusstsein über Methoden, Möglichkeiten und somit Existenz von Deepfakes fördert, schafft man es gegebenenfalls auch, dass der mündige Bürger achtsamer mit sowohl eigenem Material (zum Training) als auch fremden Material (als menschliche Detektion) umgeht. Wenn man es also schafft, die digitale Kompetenz der Internetnutzer zu erhöhen und das Prinzip „nicht alles glauben“ etabliert, kann der Schaden, den Deepfakes anrichten, besser begrenzt werden als durch andere Methoden.

Weitere Informationen zum Thema Deepfakes

Wer ein Deepfake-Netzwerk in Aktion sehen möchte, für den haben wir ein kurzes Video herausgesucht das sowohl Theorie als auch Praxis in der Erstellung von Deepfakes darstellt:

Weitere Beiträge zum Thema Data Driven Company direkt per E-Mail bekommen:

Related Posts:

  • Künstliche neuronale Netze und Deep Learning einfach erklärt
  • Machine Learning vs. Deep Learning: Was ist der Unterschied?

Pretium lorem primis senectus habitasse lectus donec ultricies tortor adipiscing fusce morbi volutpat pellentesque consectetur risus molestie curae malesuada. Dignissim lacus convallis massa mauris enim mattis magnis senectus montes mollis phasellus.

Was sind Deep Fakes und wie funktionieren sie? | Data Driven Company (2024)

FAQs

What is the science behind deep fakes? ›

While the act of creating fake content is not new, deepfakes leverage tools and techniques from machine learning and artificial intelligence, including facial recognition algorithms and artificial neural networks such as variational autoencoders (VAEs) and generative adversarial networks (GANs).

What is a real life example of deepfake? ›

A well-known example of political deepfake misuse was the altered video of Nancy Pelosi. It involved slowing down a real-life video clip of her, making her seem impaired. There are also instances of audio deepfakes, like the fraudulent use of a CEO's voice, in major corporate heists.

How does deepfake affect our society? ›

Social impact

Deepfake videos can also manipulate public opinion and erode trust in media and public sources. The ability to fabricate realistic videos of public figures, politicians, or celebrities saying or doing things they never actually did can have far-reaching consequences for society and democratic processes.

What is the origin of deepfakes? ›

The term came to be used for synthetic media in 2017 when a Reddit moderator created a subreddit called “deepfakes” and began posting videos that used face-swapping technology to insert celebrities' likenesses into existing p*rnographic videos.

Are deepfakes illegal? ›

Laws are in place to take legal action against deepfakes that ruin reputation, bully, or violate privacy. If deepfakes spread false and harmful information causing defamation, libel laws can be invoked.

Why are deepfakes bad? ›

Not only has this technology created confusion, skepticism, and the spread of misinformation, deepfakes also pose a threat to privacy and security. With the ability to convincingly impersonate anyone, cybercriminals can orchestrate phishing scams or identity theft operations with alarming precision.

Who are the famous victims of deepfakes? ›

Almost every celebrity and politician you know has been the victim of deepfakes, including Barack Obama, Tom Hanks, Jennifer Aniston, Ellie Goulding, Scarlett Johansson and Ariana Grande – with women disproportionately being affected.

Are deepfakes identity theft? ›

However, the technology isn't just for entertainment or fake news. As deepfake technology advances, cyber criminals are stealing identities to access or create online accounts and commit fraud.

What does a deepfake look like? ›

Using artificial intelligence, deepfakes can mimic a person's voice and facial features. The technology uses an audio recording of someone's voice to make it say things that the person might never have said. It can mimic someone's facial movements from videos of them, or even just a picture of their face.

How to stop deepfakes? ›

Limit the amount of data available about yourself, especially high-quality photos and videos, that could be used to create a deepfake. You can adjust the settings of social media platforms so that only trusted people can see what you share.

What is the most common deepfake? ›

A common example of a deepfake video is 'face swap' in which the face of the victim is placed on a different body. This could create a scene which is embarrassing or even illegal. Another deepfake is known as 'face puppetry' in which the victim's lip movements are manipulated to literally put words into their mouths.

How to detect deepfakes? ›

Facial and body movement

For images and video files, deepfakes can still often be identified by closely examining participants' facial expressions and body movements. In many cases, there are inconsistencies within a person's human likeness that AI cannot overcome.

What is the science behind deepfakes? ›

Deepfakes leverage autoencoders by training two network pairs, one encoder-decoder pair for the source-image dataset and another for the target-image dataset. The pairs share the encoder network, which allows the encoder to learn the structure of a human face.

Who can create deepfakes? ›

Everyone can make a deepfake. All you need is a deepfake app that you can either download for free or pay for if you're looking for higher-quality features.

Can deepfakes be used for good? ›

Deepfakes, often associated with nefarious purposes, are a potent example of generative AI that can also be harnessed for positive applications in diverse fields like ecommerce, healthcare, art, and history.

What is the process of creating a deep fake? ›

Creating a deepfake is a complex process that relies on the use of artificial intelligence algorithms, specifically those focused on deep learning. These algorithms analyze thousands of images and videos to learn how to mimic a person's facial expressions, movements, and voice.

What is the AI that detects deep fakes? ›

The key technology of Sentinel is based on an advanced AI detection system, specifically designed to recognize deepfake videos with a high degree of accuracy. This detection process is driven by advanced neural networks that analyze factors such as facial expressions, blinking patterns, and audio manipulations.

How accurate is deepfake detection? ›

Sensity.ai is reported to have an accuracy score of up to 95%, making it highly effective in identifying deepfakes across large datasets. FooSpidy's Fake Finder offers an accuracy rate of over 90%, allowing for precise detection of image and video manipulations.

Can deep fakes be used for good? ›

Deepfakes, often associated with nefarious purposes, are a potent example of generative AI that can also be harnessed for positive applications in diverse fields like ecommerce, healthcare, art, and history.

Top Articles
Latest Posts
Article information

Author: Geoffrey Lueilwitz

Last Updated:

Views: 6719

Rating: 5 / 5 (80 voted)

Reviews: 87% of readers found this page helpful

Author information

Name: Geoffrey Lueilwitz

Birthday: 1997-03-23

Address: 74183 Thomas Course, Port Micheal, OK 55446-1529

Phone: +13408645881558

Job: Global Representative

Hobby: Sailing, Vehicle restoration, Rowing, Ghost hunting, Scrapbooking, Rugby, Board sports

Introduction: My name is Geoffrey Lueilwitz, I am a zealous, encouraging, sparkling, enchanting, graceful, faithful, nice person who loves writing and wants to share my knowledge and understanding with you.