Sie befinden sich im Archiv von ZU|Daily.

ZU|Daily wurde in die Hauptseite in den Newsroom unter https://www.zu.de/newsroom/daily/ integriert. Die neuesten Artikel seit August 2024 werden dort veröffentlicht. Hier finden Sie das vollständige Archiv aller älteren Artikel.

Digitale Kommunikation

Alles echt, alles fake?!

Interview: Sebastian Paul | Redaktion
25.03.2022
Deepfakes verwischen die Grenze zwischen Fakt und Fiktion. Wenn man seinen eigenen Augen nicht mehr trauen kann und nicht mehr weiß, was wahr und was falsch ist, dann führt die Prävalenz von Deepfakes zum generellen Misstrauen von Nachrichten und Informationen, vor allem in den sozialen Medien.

Desiree Tamara Oster
ZU-Alumna und Trägerin des Best Bachelor Thesis Awards
 
  •  
    Zur Person
    Desiree Tamara Oster

    Leidenschaftlich beforscht Desiree Tamara Oster die Verschränkung politischer Öffentlichkeit mit Technologie. Das akademische Interesse der ZU-Stipendiatin und ehemaligen CCM-Programmschaftssprecherin schürten dabei praktische Erfahrungssprünge in einem Museum für Moderne Kunst in Island, im Auswärtigen Amt und in einem Berliner Think Tank für Zukunftspolitik. Nach Ihrem Bachelorstudium an der ZU zog es Desiree für ihr Masterstudium an die Universiteit van Amsterdam, wo sie diesen Sommer den renommierten Masterstudiengang Political Communication & Journalism (M.Sc.) abschließt. Was danach kommt? Na, auf jeden Fall eine kommunikative Funktion zwischen Wirtschaft, Kultur und Politik!

  •  
    Mehr ZU|Daily
    Mein Avatar und ich
    Plattformen, auf denen mittels Virtual-Reality-Headset Kontakte virtuell erlebt werden können, haben in der Pandemie Hochkonjunktur. Doch wie baut man soziale Realität überhaupt nach und wie wird sie wahrgenommen? Diese Fragen behandelte ZU-Wissenschaftler Felix Krell in seinem Vortrag zum Thema „Einführung in Soziale Virtuelle Realität“.
    Nur eine Illusion
    Leistungsvergleiche haben zu einer globalen Bildungsreform geführt. Damit verbunden ist die Erwartung, dass auch die durchschnittlichen Schülerleistungen besser werden. Die Folgen von Pisa und Co. überprüft nun ein Forschungsteam um ZU-Seniorprofessor Richard Münch.
    Noch vernetzt oder schon verbunden?
    Machen soziale Medien uns unglücklich? Dieser Frage sind ZU-Wissenschaftlerin Sara Alida Volkmer und Daragh O’Leary von der Cork University Business School in einem kürzlich erschienenen Journalartikel auf den Grund gegangen.
  •  
     
    Hä...?
    Haben Sie Fragen zum Beitrag? Haben Sie Anregungen, die Berücksichtigung finden sollten?
    Hier haben Sie die Möglichkeit, sich an die Redaktion und die Forschenden im Beitrag zu wenden.
  •  
    Teilen

Wie bist Du auf das Thema Deiner Bachelorarbeit gestoßen?

Desiree Tamara Oster: Während meines Praktikums im Auswärtigen Amt bin ich zufällig auf das Thema „Hybride Bedrohungen“ gestoßen, was mich dann im darauffolgenden Semester zu dem Kurs „Fake News, Disinformation, and Consequences for Democracy“ bei Marcel Schliebs geführt hat.


In dem Zusammenhang bin ich auch auf Deepfakes gestoßen. Die Vorstellung, dass durch Deepfakes Leuten alles in den Mund gelegt werden kann und sie dabei auch noch authentisch wirken, hat mich fasziniert – und meinen Forschungsdrang geweckt. In Anbetracht der Bundestagswahl 2020 wollte ich unbedingt untersuchen, was für eine Rolle Deepfakes im Wahlkampf und in der politischen Alltagskommunikation spielen können (Sind sie gefährlich oder das Gegenteil, ein neues Instrument für Satire?). Die Forschung zu Deepfakes im politischen Kommunikationsfeld steckt noch in den Kinderschuhen – und genau da wollte ich ansetzen. Ich fand es spannend, die Öffentlichkeitstheorie von Jürgen Habermas aus den 1960er-Jahren mit dem digitalen Disruptor – den Deepfakes – zu synthetisieren. An dieser Stelle möchte ich meinem Betreuer Dr. Martin R. Herbers für die fantastische Betreuung während meiner Bachelorarbeitsphase danken.


Mittlerweile mache ich meinen Master in politischer Kommunikation an der Universiteit van Amsterdam und führe für meine Masterthesis eine Experimentalstudie zu Deepfakes durch.

Wie hat sich die Öffentlichkeit im Zuge der zunehmenden digitalen Kommunikation verändert?

Oster: Das ist eine große Frage. Bei meinem Antwortversuch möchte ich vorab festgehalten wissen, dass diesbezügliche Beschreibungen Bücher füllen und Prognosen nicht allumfassend treffend sind. Aus meiner Forschungsperspektive würde ich vielleicht die folgende Beschreibung wählen: Digitalisierungsdynamiken tragen sicherlich zu einer Disruption von Routinen und Möglichkeiten der Medienproduktion und -rezeption bei. Elementar sind dabei heute soziale Medien, die für multiple Akteure, Agenten und Organisationen global nutzbar sind und deren Verfügung vor allem Plattformöffentlichkeiten wahrscheinlich macht.


Ein veränderndes Moment besteht weiterhin darin, dass interaktive beziehungsweise responsive Kommunikation angeregt wird. In diesem Zusammenhang wirkt eine sogenannte Horizontalität der Netzwerke neuformierend auch auf die Logiken des Gatekeepings. So wird etwa das eher vertikale und tradierte Sprecher-Hörer-Verhältnis der Massenmedien immer mehr aufgelöst. Die Gatekeeperfunktion wird dann zunehmend marginalisiert, weil sich in sozialen Medienkontexten potenziell jede/r zum umfassenden Kommunikator emanzipieren kann, das heißt es wird ein Möglichkeitsraum eröffnet, in welchem jede/r reziprok kommunizieren und multidirektional Informationen verbreiten kann. Echokammern und Filterblasen sind hier übrigens prominente Beispiele, die als abgeschlossene, ideologisch konstruierende Teilöffentlichkeiten auch problematische Konsequenzen aktueller Öffentlichkeitsdynamiken aufzeigen.

Wenn die Kassen in Elektroflächenmärkten nicht mehr klingeln, im Straßenverkehrsamt keine Autos zugelassen werden können oder Kliniken neue Patienten abweisen müssen – dann ist in der Regel ein Virus schuld. Dieser heißt jedoch nicht Corona, sondern etwa Ransomware und verbreitet sich digital so schnell wie die Omikron-Variante. Doch das könnte „nur“ der Aufgalopp für ein brisantes 2022 in puncto IT-Sicherheit sein, befürchten die Experten des Softwareunternehmens ESET. Ein Grund dafür: sogenannte Deepfakes. Sie gelten als die nächste große Cyberbedrohung. Dabei handelt es sich um gefälschte Audio- oder Videodateien durch künstliche Intelligenz. Einer der ersten erfolgreichen Fälle von Identitätsbetrug per Deepfake wurde im August 2019 beobachtet. Kriminelle hatten die Stimme von einem CEO einer deutschen Muttergesellschaft so überzeugend manipuliert, dass der Geschäftsführer der britischen Tochterfirma eine Überweisung in Höhe von 220.000 Euro veranlasste. Das Opfer gab später an, der Anrufer hätte den deutschen Akzent sowie die Stimmlage seines Arbeitgebers glaubwürdig imitiert.
Wenn die Kassen in Elektroflächenmärkten nicht mehr klingeln, im Straßenverkehrsamt keine Autos zugelassen werden können oder Kliniken neue Patienten abweisen müssen – dann ist in der Regel ein Virus schuld. Dieser heißt jedoch nicht Corona, sondern etwa Ransomware und verbreitet sich digital so schnell wie die Omikron-Variante. Doch das könnte „nur“ der Aufgalopp für ein brisantes 2022 in puncto IT-Sicherheit sein, befürchten die Experten des Softwareunternehmens ESET. Ein Grund dafür: sogenannte Deepfakes. Sie gelten als die nächste große Cyberbedrohung. Dabei handelt es sich um gefälschte Audio- oder Videodateien durch künstliche Intelligenz. Einer der ersten erfolgreichen Fälle von Identitätsbetrug per Deepfake wurde im August 2019 beobachtet. Kriminelle hatten die Stimme von einem CEO einer deutschen Muttergesellschaft so überzeugend manipuliert, dass der Geschäftsführer der britischen Tochterfirma eine Überweisung in Höhe von 220.000 Euro veranlasste. Das Opfer gab später an, der Anrufer hätte den deutschen Akzent sowie die Stimmlage seines Arbeitgebers glaubwürdig imitiert.

Wie wirken sich Digitalisierungsdynamiken auf politische Kommunikationsprozesse aus und welche Rolle spielt dabei die künstliche Intelligenz?

Oster: Ehrlich gesagt, das wissen wir noch nicht in Gänze. Als gesichert gilt aber, dass auch politische Kommunikationsprozesse von der Digitalisierung nicht unberührt bleiben. In der Forschung geht man derzeit davon aus, dass die Folgen des medientechnologischen Wandels und der Digitalisierung für politische Kommunikation eher vielschichtig sind.


Beispielhaft können hier angeführt werden:

  • Intelligente Bots, die in der Lage sind, durch die Imitation eines scheinbar menschlichen Interaktionspartners den politischen Diskurs zu filtrieren; und als Steigerung:
  • kommunikative Roboter, die in der Lage sind, von ihrer Rolle als Mittler der Kommunikation mit Menschen zu autonomen Kommunikatoren zu avancieren. Im Kommunikationsprozess wird die kommunikative KI zwar nicht immer als menschlich per se wahrgenommen, wohl aber als sozialer Kommunikationspartner.
  • Politisches Microtargeting: Spezifische Wählergruppen können auf Grundlage der über sie gesammelten digitalen Daten im Kontext von Wahlkämpfen gezielt beeinflusst werden

Was sind neue, was sind alte Gatekeeper der öffentlichen Meinungsbildung?


Oster: Wenn wir von klassischen Gatekeepern im Prozess der Herstellung von politischer Öffentlichkeit sprechen, dann würde man wohl nach Jürgen Habermas Politiker und vielleicht noch prominente Journalisten als solche bezeichnen. Journalisten fungieren als Gatekeeper, indem Meinungen von ihnen ausgewählt, massenmedial aufbereitet und geformt werden.
Die aufgrund der Digitalisierung veränderten Kommunikationsstrukturen ermöglichen aber heute auch neue Partizipationsmöglichkeiten. Heute könnte jede/r – vorausgesetzt er/sie hat Zugang zum Internet – zum potenziellen Meinungsmacher werden. Das erodiert Gatekeeperlogiken und sorgt, obgleich nicht für eine Auflösung, wohl aber für eine Neuverteilung von öffentlichkeitswirksamer Meinungsmacht.

Was sind Deepfakes und welche Techniken existieren?

Oster: Bei Deepfakes handelt es sich grundsätzlich um mittels Deep Learning manipuliertes Video-, Foto- oder Audiomaterial. Dabei setzt sich der Begriff aus „Deep Learning“ und „Fake“ zusammen. Wie die Herleitung des Begriffs bereits vermuten lässt, basiert die technologische Entwicklung von Deepfakes auf sogenannter Deep Learning-Technologie, einem Teilfeld der KI-Forschung. Genauer genommen baut die Deepfake-Technologie auf der Weiterentwicklung maschinellen Lernens auf. Die Entwicklung besteht darin, dass Strukturen maschinellen Lernens durch große künstliche neuronale Netze ergänzt und vertieft werden. Die Schichten dieser Netze setzen sich aus Algorithmensätzen zusammen, die lernen, repetitiv Regeln abzuleiten und Muster zu replizieren, indem sie automatisiert große Datensätze durchfiltern.


Deepfakes stellen nun eine spezifische Form von Deep-Learning-Prozessen dar. Sie basieren auf einer Technologie, die gemeinhin als „generative adversarial networks“ (GAN) bezeichnet wird. Verkürzt gesagt, arbeiten hier zwei Netze gegeneinander. Ein Generatornetz mit dem Ziel, neue Informationen in Form von Datenpunkten zu generieren, und ein Diskriminatornetz mit der Absicht, diese neu generierten Datenpunkte so schnell wie möglich zu erschließen. Mittlerweile sind GANs so gut trainiert, dass ihr synthetisch generiertes Material überaus reale und – wie Studien gezeigt haben – auch authentische Ergebnisse produziert.


Prinzipiell lassen sich bisher zwei Hauptkategorien von Deepfake-Techniken unterscheiden, das sogenannte „face-swap“ und das „facial-reenactment“. In der Forschung steht letztere Technik eher im Fokus. Denn die Facial Reenactment-Methode ermöglicht es nicht nur das Gesicht, sondern auch die Stimme, Mimik und Körperhaltung einer Zielperson nachzuahmen.


Was unterscheidet Deepfakes von Fake News und Social Bots?

Oster: Während Deepfakes mittels Deep Learning-Technologie manipuliertes Video-, Foto- oder Audiomaterial sind, das auf Täuschung ausgelegt ist, können Fake News als bewusst hergestellte, textuelle Falschmeldungen verstanden werden. Deepfakes können als Steigerung von Fake News gesehen werden.


Social Bots hingegen sind eher ein Beispiel der Automatisierung von Kommunikation. Als kommunikative Roboter zirkulieren sie heute auch in der politischen Öffentlichkeit und beruhen insbesondere auf Algorithmen, die in den sozialen Medien soziale Interaktionssituationen mit Menschen herstellen. Im Kontext dessen lassen sich simpel aufgebaute Bots und auf Machine Learning basierende Social Bots unterscheiden. Simpel aufgebaute Bots liken oder retweeten in den sozialen Medien, wohingegen sich Social Bots relativ menschenähnlich verhalten und durch die Imitation eines scheinbar menschlichen Interaktionspartners unter anderem den digitalen politischen Diskurs infiltrieren können. Social Bots können mitunter Fake News oder auch Deepfakes verbreiten.

Falsche Freunde? Bereits mehr als die Hälfte der Internetnutzer weiß, was Deepfakes sind: In einer Umfrage der IT-Sicherheitsplattform KnowBe4 antworteten 68 Prozent richtig, dass Deepfakes realistisch wirkende, verfälschte Medieninhalte seien, die mithilfe von künstlicher Intelligenz erstellt wurden. Dennoch gaben fast 52 Prozent an, sie hätten noch nie mit Deepfakes zu tun gehabt. 52 Prozent der Befragten stufen Deepfakes als gefährlich ein. 26 Prozent gehen davon aus, dass Deepfakes sogar sehr gefährlich werden können. Lediglich 22 Prozent sehen in dieser Technologie keine Gefahr. Dies passt zu den zwei Drittel, die angaben, dass sie mit dem Phänomen in Berührung kommen, weil sie Bilder und Inhalte von sich in den sozialen Netzwerken teilen. Die wenigsten sehen nur eine Gefahr bei Prominenten. 72 Prozent sehen auch beispielsweise das eigene Unternehmen bedroht. Obwohl viele der Studienteilnehmer bereits von Deepfakes gehört hatten, ist es beunruhigend, dass viele die Gefahr von Deepfakes unterschätzen. Denn sogenannter CEO-Fraud sowie der Missbrauch von Bildern und Videos sind nur der Anfang. Gefälschte Telefonanrufe mit nachgeahmten Stimmen werden immer raffinierter und es wird immer schwerer, diese zu identifizieren.
Falsche Freunde? Bereits mehr als die Hälfte der Internetnutzer weiß, was Deepfakes sind: In einer Umfrage der IT-Sicherheitsplattform KnowBe4 antworteten 68 Prozent richtig, dass Deepfakes realistisch wirkende, verfälschte Medieninhalte seien, die mithilfe von künstlicher Intelligenz erstellt wurden. Dennoch gaben fast 52 Prozent an, sie hätten noch nie mit Deepfakes zu tun gehabt. 52 Prozent der Befragten stufen Deepfakes als gefährlich ein. 26 Prozent gehen davon aus, dass Deepfakes sogar sehr gefährlich werden können. Lediglich 22 Prozent sehen in dieser Technologie keine Gefahr. Dies passt zu den zwei Drittel, die angaben, dass sie mit dem Phänomen in Berührung kommen, weil sie Bilder und Inhalte von sich in den sozialen Netzwerken teilen. Die wenigsten sehen nur eine Gefahr bei Prominenten. 72 Prozent sehen auch beispielsweise das eigene Unternehmen bedroht. Obwohl viele der Studienteilnehmer bereits von Deepfakes gehört hatten, ist es beunruhigend, dass viele die Gefahr von Deepfakes unterschätzen. Denn sogenannter CEO-Fraud sowie der Missbrauch von Bildern und Videos sind nur der Anfang. Gefälschte Telefonanrufe mit nachgeahmten Stimmen werden immer raffinierter und es wird immer schwerer, diese zu identifizieren.

Wie beeinflussen Deepfakes die politische Öffentlichkeit?

Oster: Die Antwort ist: Ja. Nein, im Ernst, in Bezug auf Deepfakes gibt es sicher negative Beeinflussungstendenzen, dennoch kann der Einsatz von Deepfakes je nach Inhalt und Gebrauch auch positiv beziehungsweise funktional auf politische Öffentlichkeit einwirken. Derzeit beschäftigt sich die Forschung – weil es naheliegt – natürlich vor allem mit dem Bedrohungspotenzial von Deepfakes für die politische Öffentlichkeit. Politische Deepfakes können als Desinformation zur Manipulation demokratischer Prozesse in die politische Öffentlichkeit gelangen und den normativen Anspruch an (politische) Öffentlichkeit unterwandern. Das heißt, dass Deepfakes Geltungsansprüche wie Wahrheit, Wahrhaftigkeit und Authentizität, die zumindest nach Habermas idealtypisch für den deliberativen Diskurs erfüllt sein müssen, ignorieren.
Es wäre aber auch möglich, dass Deepfakes diskursanregend sein können. Wie könnten Deepfakes etwa als politische Satire oder im Rahmen bildender Unterhaltung eingesetzt werden? Das sind nur einige der vielen Fragen, die bislang eher wenig Beachtung in der Forschung finden. Vielleicht auch, weil Deepfakes noch zu wenig empirische Wellen schlagen. Aber das – da bin ich mir sicher – wird sich bald ändern.


Welche Gefahren drohen darüber hinaus für Gesellschaft und Demokratie?

Oster: Deepfakes verwischen die Grenze zwischen Fakt und Fiktion. Wenn man seinen eigenen Augen nicht mehr trauen kann und nicht mehr weiß, was wahr und was falsch ist, dann führt die Prävalenz von Deepfakes zum generellen Misstrauen von Nachrichten und Informationen, vor allem in den sozialen Medien. 


Insofern droht die Deepfake-Technologie tatsächlich an unseren letzten Wahrheitssäulen zu sägen. In letzter Konsequenz hieße das für unsere demokratisch organisierte Gesellschaft, dass Wahrscheinlichkeit eben nicht unabhängig von der technologischen Überzeugungskraft ist. Frei nach dem Motto: Wer hat was wann und wie wirklich gesagt oder getan? Und wie lässt sich synthetisches audiovisuelles Material zukünftig enttarnen? Finden wir keine Lösung für diese Fragen, könnten sich zukünftig politische Meinungen zunehmend auf der Grundlage von technologisch-manipulierten Überzeugungen und weniger auf der Basis wahrhaftiger Faktenlage bilden.


Oder: Was, wenn plötzlich Videos, die echt sind, als Deepfakes bezeichnet werden? Dieses Phänomen wird „liar's dividend“ genannt: je verbreiteter das Bewusstsein über die Existenz von Deepfakes, desto leichter wird es für Personen des öffentlichen Lebens, die bei echten Aufnahmen von Fehlverhalten ertappt werden, die Beweise gegen sie in Zweifel zu ziehen. Um ein Beispiel für einen bereits stattgefundenen Vorfall zu nennen: Der ehemalige US-Präsident Donald Trump geriet 2016 durch das Access-Hollywood-Tape in den Blick der Lügendiskussion. In diesem Video ist ein Gespräch zwischen Trump und dem US-TV-Moderator Billy Bush zu hören. Unter anderem äußert sich Trump abfällig über Frauen und sagt: „Ich warte nicht einmal. Und wenn man ein Star ist, dann lässt man es machen. Du kannst alles tun. [...] Grab them by the pussy. Du kannst alles tun“. Ein Jahr nach der Veröffentlichung des Bandes versuchte Trump, den Skandal zu vertuschen, indem er sich der Aussage bediente, das Video sei gefälscht und manipuliert, also vermutlich ein Deepfake, was unter die Kategorie der Verwendung der „liar's dividend“ fällt.

Titelbild: 

| Clint Patterson / Unsplash.com (CC0 Public Domain) | Link


Bilder im Text: 

| Sammy Williams / Unsplash.com (CC0 Public Domain) | Link

| Wahid Khene / Unsplash.com (CC0 Public Domain) | Link


Redaktionelle Umsetzung: Florian Gehm

3
3
 
 
Zeit, um zu entscheiden

Diese Webseite verwendet externe Medien, wie z.B. Videos und externe Analysewerkzeuge, welche alle dazu genutzt werden können, Daten über Ihr Verhalten zu sammeln. Dabei werden auch Cookies gesetzt. Die Einwilligung zur Nutzung der Cookies & Erweiterungen können Sie jederzeit anpassen bzw. widerrufen.

Eine Erklärung zur Funktionsweise unserer Datenschutzeinstellungen und eine Übersicht zu den verwendeten Analyse-/Marketingwerkzeugen und externen Medien finden Sie in unserer Datenschutzerklärung.