ZU|Daily wurde in die Hauptseite in den Newsroom unter https://www.zu.de/newsroom/daily/ integriert. Die neuesten Artikel seit August 2024 werden dort veröffentlicht. Hier finden Sie das vollständige Archiv aller älteren Artikel.
Leidenschaftlich beforscht Desiree Tamara Oster die Verschränkung politischer Öffentlichkeit mit Technologie. Das akademische Interesse der ZU-Stipendiatin und ehemaligen CCM-Programmschaftssprecherin schürten dabei praktische Erfahrungssprünge in einem Museum für Moderne Kunst in Island, im Auswärtigen Amt und in einem Berliner Think Tank für Zukunftspolitik. Nach Ihrem Bachelorstudium an der ZU zog es Desiree für ihr Masterstudium an die Universiteit van Amsterdam, wo sie diesen Sommer den renommierten Masterstudiengang Political Communication & Journalism (M.Sc.) abschließt. Was danach kommt? Na, auf jeden Fall eine kommunikative Funktion zwischen Wirtschaft, Kultur und Politik!
Wie bist Du auf das Thema Deiner Bachelorarbeit gestoßen?
Desiree Tamara Oster: Während meines Praktikums im Auswärtigen Amt bin ich zufällig auf das Thema „Hybride Bedrohungen“ gestoßen, was mich dann im darauffolgenden Semester zu dem Kurs „Fake News, Disinformation, and Consequences for Democracy“ bei Marcel Schliebs geführt hat.
In dem Zusammenhang bin ich auch auf Deepfakes gestoßen. Die Vorstellung, dass durch Deepfakes Leuten alles in den Mund gelegt werden kann und sie dabei auch noch authentisch wirken, hat mich fasziniert – und meinen Forschungsdrang geweckt. In Anbetracht der Bundestagswahl 2020 wollte ich unbedingt untersuchen, was für eine Rolle Deepfakes im Wahlkampf und in der politischen Alltagskommunikation spielen können (Sind sie gefährlich oder das Gegenteil, ein neues Instrument für Satire?). Die Forschung zu Deepfakes im politischen Kommunikationsfeld steckt noch in den Kinderschuhen – und genau da wollte ich ansetzen. Ich fand es spannend, die Öffentlichkeitstheorie von Jürgen Habermas aus den 1960er-Jahren mit dem digitalen Disruptor – den Deepfakes – zu synthetisieren. An dieser Stelle möchte ich meinem Betreuer Dr. Martin R. Herbers für die fantastische Betreuung während meiner Bachelorarbeitsphase danken.
Mittlerweile mache ich meinen Master in politischer Kommunikation an der Universiteit van Amsterdam und führe für meine Masterthesis eine Experimentalstudie zu Deepfakes durch.
Wie hat sich die Öffentlichkeit im Zuge der zunehmenden digitalen Kommunikation verändert?
Oster: Das ist eine große Frage. Bei meinem Antwortversuch möchte ich vorab festgehalten wissen, dass diesbezügliche Beschreibungen Bücher füllen und Prognosen nicht allumfassend treffend sind. Aus meiner Forschungsperspektive würde ich vielleicht die folgende Beschreibung wählen: Digitalisierungsdynamiken tragen sicherlich zu einer Disruption von Routinen und Möglichkeiten der Medienproduktion und -rezeption bei. Elementar sind dabei heute soziale Medien, die für multiple Akteure, Agenten und Organisationen global nutzbar sind und deren Verfügung vor allem Plattformöffentlichkeiten wahrscheinlich macht.
Ein veränderndes Moment besteht weiterhin darin, dass interaktive beziehungsweise responsive Kommunikation angeregt wird. In diesem Zusammenhang wirkt eine sogenannte Horizontalität der Netzwerke neuformierend auch auf die Logiken des Gatekeepings. So wird etwa das eher vertikale und tradierte Sprecher-Hörer-Verhältnis der Massenmedien immer mehr aufgelöst. Die Gatekeeperfunktion wird dann zunehmend marginalisiert, weil sich in sozialen Medienkontexten potenziell jede/r zum umfassenden Kommunikator emanzipieren kann, das heißt es wird ein Möglichkeitsraum eröffnet, in welchem jede/r reziprok kommunizieren und multidirektional Informationen verbreiten kann. Echokammern und Filterblasen sind hier übrigens prominente Beispiele, die als abgeschlossene, ideologisch konstruierende Teilöffentlichkeiten auch problematische Konsequenzen aktueller Öffentlichkeitsdynamiken aufzeigen.
Wie wirken sich Digitalisierungsdynamiken auf politische Kommunikationsprozesse aus und welche Rolle spielt dabei die künstliche Intelligenz?
Oster: Ehrlich gesagt, das wissen wir noch nicht in Gänze. Als gesichert gilt aber, dass auch politische Kommunikationsprozesse von der Digitalisierung nicht unberührt bleiben. In der Forschung geht man derzeit davon aus, dass die Folgen des medientechnologischen Wandels und der Digitalisierung für politische Kommunikation eher vielschichtig sind.
Beispielhaft können hier angeführt werden:
Was sind neue, was sind alte Gatekeeper der öffentlichen Meinungsbildung?
Oster: Wenn wir von klassischen Gatekeepern im Prozess der Herstellung von politischer Öffentlichkeit sprechen, dann würde man wohl nach Jürgen Habermas Politiker und vielleicht noch prominente Journalisten als solche bezeichnen. Journalisten fungieren als Gatekeeper, indem Meinungen von ihnen ausgewählt, massenmedial aufbereitet und geformt werden.
Die aufgrund der Digitalisierung veränderten Kommunikationsstrukturen ermöglichen aber heute auch neue Partizipationsmöglichkeiten. Heute könnte jede/r – vorausgesetzt er/sie hat Zugang zum Internet – zum potenziellen Meinungsmacher werden. Das erodiert Gatekeeperlogiken und sorgt, obgleich nicht für eine Auflösung, wohl aber für eine Neuverteilung von öffentlichkeitswirksamer Meinungsmacht.
Was sind Deepfakes und welche Techniken existieren?
Oster: Bei Deepfakes handelt es sich grundsätzlich um mittels Deep Learning manipuliertes Video-, Foto- oder Audiomaterial. Dabei setzt sich der Begriff aus „Deep Learning“ und „Fake“ zusammen. Wie die Herleitung des Begriffs bereits vermuten lässt, basiert die technologische Entwicklung von Deepfakes auf sogenannter Deep Learning-Technologie, einem Teilfeld der KI-Forschung. Genauer genommen baut die Deepfake-Technologie auf der Weiterentwicklung maschinellen Lernens auf. Die Entwicklung besteht darin, dass Strukturen maschinellen Lernens durch große künstliche neuronale Netze ergänzt und vertieft werden. Die Schichten dieser Netze setzen sich aus Algorithmensätzen zusammen, die lernen, repetitiv Regeln abzuleiten und Muster zu replizieren, indem sie automatisiert große Datensätze durchfiltern.
Deepfakes stellen nun eine spezifische Form von Deep-Learning-Prozessen dar. Sie basieren auf einer Technologie, die gemeinhin als „generative adversarial networks“ (GAN) bezeichnet wird. Verkürzt gesagt, arbeiten hier zwei Netze gegeneinander. Ein Generatornetz mit dem Ziel, neue Informationen in Form von Datenpunkten zu generieren, und ein Diskriminatornetz mit der Absicht, diese neu generierten Datenpunkte so schnell wie möglich zu erschließen. Mittlerweile sind GANs so gut trainiert, dass ihr synthetisch generiertes Material überaus reale und – wie Studien gezeigt haben – auch authentische Ergebnisse produziert.
Prinzipiell lassen sich bisher zwei Hauptkategorien von Deepfake-Techniken unterscheiden, das sogenannte „face-swap“ und das „facial-reenactment“. In der Forschung steht letztere Technik eher im Fokus. Denn die Facial Reenactment-Methode ermöglicht es nicht nur das Gesicht, sondern auch die Stimme, Mimik und Körperhaltung einer Zielperson nachzuahmen.
Was unterscheidet Deepfakes von Fake News und Social Bots?
Oster: Während Deepfakes mittels Deep Learning-Technologie manipuliertes Video-, Foto- oder Audiomaterial sind, das auf Täuschung ausgelegt ist, können Fake News als bewusst hergestellte, textuelle Falschmeldungen verstanden werden. Deepfakes können als Steigerung von Fake News gesehen werden.
Social Bots hingegen sind eher ein Beispiel der Automatisierung von Kommunikation. Als kommunikative Roboter zirkulieren sie heute auch in der politischen Öffentlichkeit und beruhen insbesondere auf Algorithmen, die in den sozialen Medien soziale Interaktionssituationen mit Menschen herstellen. Im Kontext dessen lassen sich simpel aufgebaute Bots und auf Machine Learning basierende Social Bots unterscheiden. Simpel aufgebaute Bots liken oder retweeten in den sozialen Medien, wohingegen sich Social Bots relativ menschenähnlich verhalten und durch die Imitation eines scheinbar menschlichen Interaktionspartners unter anderem den digitalen politischen Diskurs infiltrieren können. Social Bots können mitunter Fake News oder auch Deepfakes verbreiten.
Wie beeinflussen Deepfakes die politische Öffentlichkeit?
Oster: Die Antwort ist: Ja. Nein, im Ernst, in Bezug auf Deepfakes gibt es sicher negative Beeinflussungstendenzen, dennoch kann der Einsatz von Deepfakes je nach Inhalt und Gebrauch auch positiv beziehungsweise funktional auf politische Öffentlichkeit einwirken. Derzeit beschäftigt sich die Forschung – weil es naheliegt – natürlich vor allem mit dem Bedrohungspotenzial von Deepfakes für die politische Öffentlichkeit. Politische Deepfakes können als Desinformation zur Manipulation demokratischer Prozesse in die politische Öffentlichkeit gelangen und den normativen Anspruch an (politische) Öffentlichkeit unterwandern. Das heißt, dass Deepfakes Geltungsansprüche wie Wahrheit, Wahrhaftigkeit und Authentizität, die zumindest nach Habermas idealtypisch für den deliberativen Diskurs erfüllt sein müssen, ignorieren.
Es wäre aber auch möglich, dass Deepfakes diskursanregend sein können. Wie könnten Deepfakes etwa als politische Satire oder im Rahmen bildender Unterhaltung eingesetzt werden? Das sind nur einige der vielen Fragen, die bislang eher wenig Beachtung in der Forschung finden. Vielleicht auch, weil Deepfakes noch zu wenig empirische Wellen schlagen. Aber das – da bin ich mir sicher – wird sich bald ändern.
Welche Gefahren drohen darüber hinaus für Gesellschaft und Demokratie?
Oster: Deepfakes verwischen die Grenze zwischen Fakt und Fiktion. Wenn man seinen eigenen Augen nicht mehr trauen kann und nicht mehr weiß, was wahr und was falsch ist, dann führt die Prävalenz von Deepfakes zum generellen Misstrauen von Nachrichten und Informationen, vor allem in den sozialen Medien.
Insofern droht die Deepfake-Technologie tatsächlich an unseren letzten Wahrheitssäulen zu sägen. In letzter Konsequenz hieße das für unsere demokratisch organisierte Gesellschaft, dass Wahrscheinlichkeit eben nicht unabhängig von der technologischen Überzeugungskraft ist. Frei nach dem Motto: Wer hat was wann und wie wirklich gesagt oder getan? Und wie lässt sich synthetisches audiovisuelles Material zukünftig enttarnen? Finden wir keine Lösung für diese Fragen, könnten sich zukünftig politische Meinungen zunehmend auf der Grundlage von technologisch-manipulierten Überzeugungen und weniger auf der Basis wahrhaftiger Faktenlage bilden.
Oder: Was, wenn plötzlich Videos, die echt sind, als Deepfakes bezeichnet werden? Dieses Phänomen wird „liar's dividend“ genannt: je verbreiteter das Bewusstsein über die Existenz von Deepfakes, desto leichter wird es für Personen des öffentlichen Lebens, die bei echten Aufnahmen von Fehlverhalten ertappt werden, die Beweise gegen sie in Zweifel zu ziehen. Um ein Beispiel für einen bereits stattgefundenen Vorfall zu nennen: Der ehemalige US-Präsident Donald Trump geriet 2016 durch das Access-Hollywood-Tape in den Blick der Lügendiskussion. In diesem Video ist ein Gespräch zwischen Trump und dem US-TV-Moderator Billy Bush zu hören. Unter anderem äußert sich Trump abfällig über Frauen und sagt: „Ich warte nicht einmal. Und wenn man ein Star ist, dann lässt man es machen. Du kannst alles tun. [...] Grab them by the pussy. Du kannst alles tun“. Ein Jahr nach der Veröffentlichung des Bandes versuchte Trump, den Skandal zu vertuschen, indem er sich der Aussage bediente, das Video sei gefälscht und manipuliert, also vermutlich ein Deepfake, was unter die Kategorie der Verwendung der „liar's dividend“ fällt.
Titelbild:
| Clint Patterson / Unsplash.com (CC0 Public Domain) | Link
Bilder im Text:
| Sammy Williams / Unsplash.com (CC0 Public Domain) | Link
| Wahid Khene / Unsplash.com (CC0 Public Domain) | Link
Redaktionelle Umsetzung: Florian Gehm