Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann (2024)

Man stelle sich folgende Video-Szene vor: Es läuft die bekannte Titel-Musik einer Nachrichtensendung des ZDFs. In gewohnter Weise schwingt die Kamera durchs Studio und verweilt dann auf dem Moderator und der Moderatorin. Christian Sievers, Sprecher des ZDF heute-journals, begrüßt die Zuschauenden. Bis hierhin wirkt alles wie immer, doch dann wirbt Sievers plötzlich für eine "KI-gestützte Anlage-Plattform", mithilfe derer "Millionen von deutschen Bürgern" an das schnelle Geld kommen könnten.

Nun zu einem anderen Video: Vor einem dunklen Hintergrund und zu dramatischer Musik grinst James "Jimmy" Donaldson, besser bekannt als "MrBeast" in die Kamera. Der "größte YouTube-Star überhaupt", wie der Spiegel mit Blick auf Donaldsons Reichweite schreibt, ist mit seinen aufwändigen Stunt-Videos und diversen Wohltätigkeitsaktionen vor allem einem jungen Publikum bekannt. Hier sagt er den Zuschauenden, dass sie zu einer kleinen Gruppe glücklicher "Auserwählter" zählen: Für nur zwei US-Dollar erhielten sie im Rahmen eines sogenannten "Giveaways" ein neues iPhone.

Die beschriebenen Videos kursierten im September und Oktober 2023 in den sozialen Medien. Kurz darauf meldeten sich Sievers und "MrBeast" selbst zu Wort und versicherten, dass es sich nicht um sie handele, sondern dass die jeweiligen Clips Fälschungen seien.

Videos wie diese tauchen seit geraumer Zeit immer häufiger in den sozialen Netzwerken auf. Social-Media-Stars, Schauspielerinnen und Schauspieler, Menschen aus Medien, Politik und Wirtschaft und andere bekannte Persönlichkeiten tun oder sagen Dinge, die man nicht von ihnen erwartet hätte. Bei vielen dieser Videos handelt es sich um sogenannte Deepfakes, eine neue KI-basierte Technologie, deren Aufschwung weitreichende Folgen für die Gesellschaft haben könnte.

Was sind Deepfakes?

Als "Deepfakes" bezeichnet man gemeinhin Bild-, Video- oder Tonaufnahmen, die echt wirken, in Wahrheit jedoch mithilfe generativer künstlicher Intelligenz manipuliert wurden. Diese Manipulationen und Veränderungen sind dabei so geschickt, dass man den Aufnahmen kaum anhört oder -sieht, dass es sich um Fälschungen handelt.

Technisch läuft das Ganze so ab: Ein entsprechendes KI-Programm wird mit Bild-, Video- oder Tonaufnahmen gefüttert. Durch intensive Beobachtung analysiert das Programm nun die Aufnahmen, erkennt beispielsweise Stimmmuster, Lippenbewegungen, Mimik und sogar die Eigenheiten von Gesichtern. Dabei evaluiert das System die Analyseergebnisse fortlaufend selbst, wodurch es in der Lage ist, sich stetig zu verbessern.

Dieser Vorgang ist ein Teilbereich des sogenannten Maschinellen Lernens und wird auch "Deep Learning", also "Tiefes (im Sinne von "umfassendes") Lernen" genannt. Weitere Teilbereiche des maschinellen Lernens sind beispielsweise sogenannte Entscheidungsbaum-Algorithmen, mit deren Hilfe – vereinfacht ausgedrückt –verschiedene Ereignisse anhand bestimmter Kriterien vorhergesagt werden können. So lässt sich dann auch der Begriff des Deepfakes herleiten, denn er ist die Mischung aus "Deep Learning" und "Fake" – zu Deutsch "Fälschung".

Für die Fälschungen werden die analysierten Bilder, Videos oder Audio-Aufnahmen in ihre Einzelteile zerlegt und in neue Kontexte eingebaut. Beliebt ist die Montage des Gesichts einer Person in ein Video, in dem eigentlich jemand anderes zu sehen ist. Die Gesichter werden detailgetreu ausgetauscht. Durch die Fälschung sieht es nun so aus, als würde die hineinmontierte Person Dinge tun oder Sachen sagen, die sie in Wirklichkeit nie gesagt oder getan hat.

Von Cheap- zu Deepfakes

Das Austauschen von Gesichtern mithilfe von Technologien ist keine neue Erfindung. Schon seit einigen Jahren bieten beliebte Social-Media-Plattformen wie Instagram oder Snapchat Funktionen an, mit denen Bilder des (eigenen) Gesichts verändert werden können. Ein paar Klicks genügen und schon sieht die Person auf dem Bild oder im Video beispielsweise jünger, älter, maskuliner oder femininer aus – die Möglichkeiten sind zahlreich. Auch das „Face Swapping“, also Austauschen der Gesichter, ist ein beliebter technologischer Taschenspielertrick, der besonders bei Jugendlichen Anklang findet.

In Anlehnung an die Deepfakes werden diese Funktionen auch "Cheapfakes" oder "Shallow Fakes" genannt, also zu Deutsch "Billige" oder "Seichte Fälschungen". Anders als die erstgenannten basieren diese nicht auf generativer künstlicher Intelligenz, sondern bewerkstelligen die Manipulationen mit einfacheren Techniken, die auch Laien im Zweifel frei zur Verfügung stehen. Hierzu zählen neben den beschriebenen Filtern auch das Beschleunigen oder Verlangsamen von Videos sowie die Darstellung von Bildern außerhalb ihrer ursprünglichen Kontexte. Während Deepfakes also detailgetreue Bilder generieren und so Gesichter "nachbauen", verfremden Cheapfakes lediglich Aufnahmen, die es bereits gibt.

Gefahren von Deepfakes

Desinformation

Viele der erstellten Fakes sollen vor allem unterhaltsam sein. Auch die Filmbranche verspricht sich viel von der Deepfake-Technologie, mit der bereits verstorbene Schauspielerinnen und Schauspieler auf der Leinwand zukünftig zum Leben erweckt werden könnten. Bislang gelangen solche Vorhaben nur mithilfe aufwändiger Special Effects, die Expertinnen und Experten in "Handarbeit" anfertigen, so zum Beispiel im Fall von Carrie Fisher, die während der Dreharbeiten am neunten Star-Wars-Teil verstarb. Zukünftig könnte Deepfake-Technologie diese Rolle deutlich kostengünstiger und – so verspricht sich die Branche – überzeugender ausfüllen.

Zeitgleich werden schon jetzt Deep- und Cheapfakes gleichermaßen genutzt, um Desinformationen und Propaganda zu verbreiten. Dafür werden Bilder und Videos so manipuliert, dass sie als vermeintliche Beweise für aufsehenerregende Ereignisse oder Aussagen dienen. Diese Fakes können massive Folgen für die gesellschaftliche und politische Realität haben. Kurz nach Beginn des russischen Angriffskriegs auf die Ukraine etwa verbreitete sich ein Video des ukrainischen Präsidenten Wolodymyr Selenskyj, in dem dieser die ukrainische Armee zur Kapitulation aufrief. Das Video wurde zwar schnell als Deepfake entlarvt, hätte allerdings unter anderen Umständen zu Verunsicherung bei den ukrainischen Soldaten und so zu einer Schwächung der Armee führen können.

Für Institutionen oder Medien, insbesondere Faktencheck-Plattformen wie Externer Link: Correctiv oder den Externer Link: dpa-Faktencheck, ist es häufig sehr schwierig, gefälschte Aufnahmen zu entlarven und "wieder einzufangen". Sobald die Bilder, Videos oder Tonaufnahmen im Internet aufgetaucht sind, werden sie oft sehr schnell weiterverbreitet – vor allem in den sozialen Netzwerken. Deepfakes, so sagt Viorela Dan, Kommunikationswissenschaftlerin an der Ludwig-Maximilians-Universität München, seien der "wahr gewordene Traum von Akteuren, die Desinformation verbreiten wollen […] und der Albtraum derjenigen, die dagegen ankämpfen".

Dies hat gravierende Auswirkungen auf das Verhältnis von Gesellschaft, Politik und Medien, denn die Fälschungen können die öffentliche Debatte potenziell beeinflussen und so die öffentliche Meinung manipulieren. So ist laut Expertinnen und Experten zum Beispiel die Manipulation von Wahlen ein wahrscheinliches Szenario. Deepfakes könnten dafür genutzt werden, um Spitzenpolitikerinnen oder -politiker in Szenen zu zeigen, die ihnen und ihrem Ansehen schaden könnten. Deepfakes könnten, so Viorela Dan, dazu führen, "dass Politiker aus den falschen Gründen nicht gewählt oder entmachtet werden".

Der Aufschwung von Deepfakes kann noch weitere schwerwiegende Auswirkungen auf das Verhältnis von Gesellschaft, Politik und Medien haben. Die Initiative Externer Link: klicksafe etwa, die das Ziel hat, die Online-Kompetenz der Menschen zu fördern, spricht in diesem Zusammenhang von der Gefahr, dass Menschen das Vertrauen in ihre Informationsquellen verlieren könnten. Das Problem sei dabei nicht, dass die Fälschungen für echt gehalten würden, sondern dass Menschen durch das Aufkommen von Deepfakes die Echtheit aller Quellen kategorisch anzweifeln könnten. Es entstehe das Gefühl, "keiner Quelle mehr vertrauen zu können".

"Deepnudes"

Neben Akteuren in der Politik laufen auch Privatpersonen Gefahr, mithilfe von Deepfakes in kompromittierende Situationen hineingeschnitten und diskreditiert zu werden. So ist es in bestimmten Internetforen eine gängige Praxis, die Gesichter von Frauen gegen deren Willen in pornographisches Bild- und Videomaterial hineinzuschneiden und dieses dann zu verbreiten. Die so erzeugten Bilder und Videos werden "Deepnudes" genannt – eine Mischung aus Deepfake und "Nude" (zu Deutsch "Nacktbild"). Eine Studie der Cybersicherheitsfirma Deeptrace konnte diesbezüglich bereits 2019 zeigen, dass es sich mittlerweile bei über 95 Prozent der Deepfakes, die im Internet zu finden sind, um pornographisches Material handelt.

Zählten dabei noch vor einigen Jahren vor allem berühmte Schauspielerinnen zu den Opfern, so sind zunehmend auch Frauen betroffen, die nicht im Fokus der Öffentlichkeit stehen. Dabei trifft es immer wieder auch Jugendliche und Kinder. Im September 2023 sorgte ein Fall aus Spanien für Aufsehen, in dem gefälschte Nacktbilder von mehr als zwanzig Mädchen – alle minderjährig – im Netz verbreitet worden waren. In allen Fällen waren die Täter Mitschüler oder Bekannte der Opfer.

Das SWR-Format Externer Link: "Vollbild" aber auch Netzpolitik.org sind der Motivation von Menschen (in den meisten Fällen sind es Männer) nachgegangen, Deepnudes zu erstellen und zu verbreiten. Neben "Spaß" und mutmaßlich auch dem Erfüllen sexueller Fantasien geben viele von ihnen an, die abgebildeten Frauen und Mädchen beschämen und bloßstellen zu wollen. Einige Täter gehen sogar noch einen Schritt weiter und nutzen die gefälschten Aufnahmen als Druckmittel, um die Betroffenen damit zu erpressen.

Judith Strieder ist Psychologin und Betroffenenberaterin bei HateAid – einer Organisation, die Menschen zur Seite steht, die von Hass und Hassrede betroffen sind. Im Gespräch mit werkstatt.bpb.de berichtet sie, welche Folgen diese Art der sexuellen Gewalt für die Betroffenen hat: "Die Verfassung der betroffenen Personen, die auf Deepfake-pornografischen Materialien abgebildet sind, ist oft hochgradig belastet." So fühlten sich die Frauen und Mädchen, die in Deepfake-Pornos hineingeschnitten würden, von den Videos erniedrigt, bloßgestellt und in eine hilf- und machtlose Situation getrieben. Dies betreffe aber vor allem die unmittelbare Reaktion auf die Videos. Hinzu komme, dass die Betroffenen häufig in ständiger Angst lebten, dass andere Menschen – Kolleginnen und Kollegen, Lehrkräfte, Freundinnen und Freunde oder auch die eigenen Eltern – die Deepfake-Pornos zu Gesicht bekämen. Die Betroffenen, so Judith Strieder, fürchten sich vor realen Folgen wie Beleidigung, Ausgrenzung oder Belastungen der Beziehung zu nahestehenden Menschen. Mit Bezug auf minderjährige Betroffene spricht Strieder auch die Gefahr an, dass für die Betroffenen die Schule nach einem derartigen Vorfall "kein sicherer Ort mehr ist".

Auch die Gefahr einer (Re-)Traumatisierung sei groß, denn – ähnlich wie bei Deepfakes zu Desinformationszwecken – sei es ein sehr aufwändiger und langwieriger Prozess, die Bilder und Videos wieder aus dem Internet zu entfernen, sofern dies überhaupt gelinge. "Wenn solche Bilder erstmal online sind, dann weiß man nie, wer sie heruntergeladen und wer sie auch wieder weiterverbreitet hat", sagt Judith Strieder. Auch sei der Vorgang immer wieder mit Kosten verbunden, zum Beispiel, wenn man eine Anwältin oder einen Anwalt einschalte. Besonders für Schülerinnen und Schüler sei dieser Prozess herausfordernd, denn "um sich als Minderjährige oder Minderjähriger wehren zu können, kommt man wahrscheinlich nicht daran vorbei, es seinen Eltern zu erzählen, was dann nochmal schambehaftet ist".

Ein Problem sieht Judith Strieder darin, dass es auf der einen Seite viel zu einfach sei, Deepfake-Pornos zu erstellen – die dafür nötigen Apps ließen sich leicht im Internet finden. Auf der anderen Seite fehle es auch an rechtlichen Regelungen. Sie bemängelt: "Es steht aktuell nichts im Gesetz zum Thema Deepfakes. So gesehen ist es nicht verboten, Deepfake-Pornos zu erstellen." Aus diesem Grund habe HateAid auch eine Externer Link: Petition an das Bundesjustizministerium überreicht, mit dem Aufruf, eine Rechtsgrundlage für den Umgang mit Deepfakes zu schaffen und die Erstellung der Fälschungen zu erschweren.

Erkennen von Deepfakes

Weil rechtliche Grundlagen aktuell noch fehlen und Deepfakes gleichzeitig immer realer wirken, immer leichter zu erstellen sind und immer schneller verbreitet werden können, ist es wichtig, Menschen darauf vorzubereiten, mit ihnen umzugehen. Es gibt eine Reihe an Kniffen und Methoden, wie Deepfakes erkannt werden können.

  1. Grundsätzlich sollte stets eine kritische Haltung eingenommen und Aufnahmen sollten in ihren jeweiligen Kontexten betrachtet werden: Passt das, was die abgebildete Person sagt oder tut, zu ihrem sonstigen Verhalten? Ergibt es einen Sinn?

  2. Als nächstes gilt es, die Quellen genauer zu überprüfen: Berichten mehrere (seriöse) Quellen über die Aufnahme oder findet sich diese nur in dubiosen Foren? Wurde die Aufnahme vielleicht sogar schon von bekannten Faktencheck-Plattformen überprüft? Hier kann auch eine Bilderrückwärtssuche helfen, denn die meisten der (Hintergrund-)Bilder, die für Fakes verwendet werden, sind noch immer in ihren ursprünglichen Kontexten im Internet zu finden.

  3. Stichwort Faktencheck-Plattformen: Neben den bereits erwähnten Faktencheckerinnen und -checkern von Correctiv und dem dpa-Faktencheck gibt es auch noch weitere Anlaufstellen. Dazu gehören z.B. der Externer Link: AFP-Faktencheck, der Externer Link: #Faktenfuchs vom Bayerischen Rundfunk, die Website Externer Link: "Mimikama", der Externer Link: ARD-Faktenfinder oder auch die Website Externer Link: "Volksverpetzer".

  4. Auch sollte bei der Betrachtung oder dem Anhören der Aufnahmen selbst auf Details geachtet werden: Stimmen die Proportionen des Gesichts mit dem Rest des Körpers überein? Passen die Übergänge vom Gesicht zum Hals oder sieht die Haut hier vielleicht zu blass oder zu dunkel aus? Wie sieht es mit der Stimme aus, hört sich diese monoton oder „metallisch“ an? Stichwort Bildumgebung: Sind die Lichtverhältnisse stimmig oder ist es im Zimmer zu hell oder zu dunkel? Ist der Hintergrund gleichbleibend oder gibt es hier Brüche im Bild?

Insgesamt können bereits irritierende Kleinigkeiten ein Indiz dafür sein, dass es sich um einen Fake handelt. In diesem Fall sollte das Gehörte oder Gesehene nicht uneingeschränkt für bare Münze genommen werden.

Die Fähigkeiten zum Erkennen von Deepfakes fallen Menschen nicht einfach zu. Im Gegenteil: die meisten müssen für das Thema sensibilisiert und im Umgang mit Deepfakes geschult werden – Stichwort "Medienkompetenz". Deepnudes-Vorfälle an Schulen sowie die allgemeine Affinität jüngerer Menschen für soziale Netzwerke machen es unabdingbar, dass das Thema auch in der Schule bearbeitet wird. So rechnet zum Beispiel das Landesmedienzentrum Baden-Württemberg damit, dass Deepfakes im schulischen Kontext zukünftig für Cybermobbing genutzt werden, etwa, durch die Verbreitung kompromittierender Fakes von Mitschülerinnen und Mitschülern und des Lehrpersonals. Eine frühzeitige Aufklärung und Sensibilisierung können dazu beitragen, dass die Schule ein sicherer Ort für alle Beteiligten bleiben kann.

Um Lehrkräften dabei unter die Arme zu greifen, haben wir hier eine Sammlung mit Materialien zusammengestellt, auf die sie zurückgreifen können:

Materialsammlung zum Thema Deepfakes

  • Das Material Externer Link: Deepfakes gegen Fakten? der Bayerischen Landeszentrale für politische Bildungsarbeit beinhaltet eine 45-minütige Unterrichtseinheit inklusive Stundenverlaufsplan und Präsentation. Die Schülerinnen und Schüler lernen dabei den Begriff des "(Deep-)Fakes" kennen und verorten ihn in ihrer eigenen Lebenswelt. Sie werden darüber hinaus für die Möglichkeiten sensibilisiert, mithilfe von Deepfakes zu manipulieren.

  • Mit Externer Link: Deepfakes – Wie Videos gefälscht werden bietet die Initiative "so geht Medien" eine 45-minütige Unterrichtseinheit inklusive Stundenverlaufsplan, Arbeitsblatt, Hintergrundinformationen und Lernquiz an. Die Schülerinnen und Schüler lernen den Begriff des Deepfakes kennen. Sie reflektieren Einsatz- und Missbrauchsmöglichkeiten und stellen (medien-)ethische Überlegungen an.

  • Das Material Externer Link: Deep Fakes: Was ist noch echt? der Initiative "Klickwinkel" beinhaltet eine 90-minütige Unterrichtseinheit inklusive Stundenverlaufsplan, weiterführenden Hinweisen und Materialkarten für drei Rollen- bzw. Planspiele. Die Schülerinnen und Schüler lernen den Begriff "Deepfakes" kennen und verorten ihn in ihrer eigenen Lebenswelt. Darüber hinaus erfahren sie im Rahmen eines Rollen- bzw. Planspiels die Auswirkungen von Falschmeldungen am eigenen Leib.

  • Die Landesmedienanstalt Baden-Württemberg hat ein Unterrichtsheft zum Thema Externer Link: Desinformation in den sozialen Medien veröffentlicht. Hierin inbegriffen sind mehrere Unterrichtsimpulse und Module sowie Hintergrundinformationen für die Schülerinnen und Schüler, aber auch für die Lehrkräfte. Auch Arbeitsblätter und Links zu weiterführendem Online-Material sind enthalten. Aus der umfangreichen Handreichung - in der auch das Thema "Deepfakes" aufgegriffen wird - lässt sich einiges für eine Unterrichtsreihe zum Thema entnehmen.

  • Das Angebot Externer Link: Recherche: Fakten finden und Fakes enttarnen des WDR ist Teil eines Materialpakets zur Vermittlung journalistischer Kompetenzen. "Deepfakes" sind hier der Untersuchungsgegenstand, anhand dessen die Schülerinnen und Schüler lernen, zu recherchieren, Fakten zu finden und Fälschungen aufzudecken. Auch lernen sie, ihre eigene Reportage zu planen. Neben Info-Videos liefert das Material auch Hintergrundinformationen und Arbeitsblätter.

Darüber hinaus bietet die bpb viele Produkte und Formate an, um thematisch auf dem Laufenden zu bleiben, wie zum Beispiel:

  1. Online-Dossier "Interner Link: Digitale Desinformation"

  2. Fluter-Ausgabe zum Thema "Interner Link: Wahrheiten"

  3. Podcast "Interner Link: Netz aus Lügen – die Globale Macht der Desinformation"

Deepfakes – Wenn man Augen und Ohren nicht mehr trauen kann (2024)
Top Articles
Latest Posts
Recommended Articles
Article information

Author: Chrissy Homenick

Last Updated:

Views: 6688

Rating: 4.3 / 5 (74 voted)

Reviews: 81% of readers found this page helpful

Author information

Name: Chrissy Homenick

Birthday: 2001-10-22

Address: 611 Kuhn Oval, Feltonbury, NY 02783-3818

Phone: +96619177651654

Job: Mining Representative

Hobby: amateur radio, Sculling, Knife making, Gardening, Watching movies, Gunsmithing, Video gaming

Introduction: My name is Chrissy Homenick, I am a tender, funny, determined, tender, glorious, fancy, enthusiastic person who loves writing and wants to share my knowledge and understanding with you.