Sie befinden sich im Archiv von ZU|Daily.

ZU|Daily wurde in die Hauptseite in den Newsroom unter https://www.zu.de/newsroom/daily/ integriert. Die neuesten Artikel seit August 2024 werden dort veröffentlicht. Hier finden Sie das vollständige Archiv aller älteren Artikel.

Politikwissenschaft

Unberechenbare Datenflut?

Vielleicht stellen wir bei genauerer Analyse sogar fest, dass der Hype um Big Data in mancherlei Hinsicht auch völlig übertrieben ist und dass es letztlich eben doch nur alter Wein in neuen Schläuchen ist – allerdings sehr großen Schläuchen, die über ein völlig neues Rohrpostsystem verbunden sind.

Prof. Dr. Joachim Behnke
Lehrstuhl für Politikwissenschaft
 
  •  
    Zur Person
    Prof. Dr. Joachim Behnke

    Joachim Behnke ist Inhaber des ZU-Lehrstuhls für Politikwissenschaft. Er hat Theaterwissenschaft, Philosophie, Kommunikationswissenschaften, Volkswirtschaftslehre und Politikwissenschaft studiert. Seine Forschungsschwerpunkte liegen in den Bereichen Wahlsystem und Wählerverhalten. Außerhalb der Universität engagiert sich Behnke als Sprecher verschiedener Arbeitskreise in der Deutschen Vereinigung für Politische Wissenschaft und ist als Stiftungsberater tätig.  

  •  
    Factbox
    Überschrift Factbox

    „Big Data“ ist in aller Munde. Zeitungen, Zeitschriften und Bücher greifen das Thema auf; es wird viel debattiert. Wie fundamental die Umwälzungen sind, die mit der Datenflut einhergehen, dringt erst seit kurzem ins öffentliche Bewusstsein. Was aber bedeutet „Big Data“ für die Politikwissenschaft? Welche Herausforderungen stellen sich?


    Der Sammelband trägt politikwissenschaftliche Perspektiven auf neue Entwicklungen zusammen, um zur Diskussion darüber beizutragen, welche Art von Veränderungen der Arbeitsweisen, Erkenntnismöglichkeiten und Erkenntnisprozesse empirischer politikwissenschaftlicher Forschung sich aufgrund der Möglichkeiten der Digitalisierung ergeben haben. Der Ausrichtung der Sektion Methoden folgend ist der Band vorrangig auf die methodisch-technischen, weniger auf die moralischen und gesellschaftspolitischen Dimensionen des Gesamtthemas Big Data und New Analytics ausgerichtet. 

  •  
    Mehr ZU|Daily
    Die Diktatur der Daten
    "Big Data - Die Revolution, die unser Leben verändern wird" - so heißt ein neues Buch des Oxford-Professors Viktor Mayer-Schönberger. Ob zum Guten oder zum Schlechten, das steht noch nicht endgültig fest.
    Der gläserne Mensch
    „Big Data" - klingt viel. Wie viele Daten uns täglich um die Ohren schwirren, weiß aber niemand so genau. Jun.-Prof. Dr. Marian Adolf ist den Daten auf den Grund gegangen - an der Schnittstelle Medien und sozialem Wandel.
    Ich bin dann mal weg.
    Immer mehr Unternehmen setzen auf Abo-Modelle. Für die Konsumentenforschung ist das eine Herausforderung: Wann kündigen Nutzer und wie kann man sie davon abhalten? ZU-Absolventin Kerstin Weinheimer hat in ihrer Masterarbeit ein Lösungskonzept entwickelt.
  •  
     
    Hä...?
    Haben Sie Fragen zum Beitrag? Haben Sie Anregungen, die Berücksichtigung finden sollten?
    Hier haben Sie die Möglichkeit, sich an die Redaktion und die Forschenden im Beitrag zu wenden.
  •  
    Teilen

Was ist mit dem Begriff „Big Data“ überhaupt gemeint?


Prof. Dr. Joachim Behnke: Das ist eine Frage, die gar nicht so leicht zu beantworten ist. Früher hat man den Begriff „Big Data“ oft mit den drei Schlagworten „volume“, „velocity“ und „variety“ in Verbindung gebracht. Das „Big“ verweist natürlich in erster Linie auf das „volume“, also auf den Umfang an Daten, die uns heutzutage zur Verfügung stehen und die eben mit einer Geschwindigkeit, also „velocity“, anwachsen, wie es früher nicht vorstellbar war.


Allerdings gibt es hier zwei Prozesse, die wesensmäßig getrennt werden müssen. Zum einen meinen wir mit Big Data eine neue Form von Daten und dabei insbesondere Daten, die in elektronischen Interaktionen (zum Beispiel Kaufvorgänge im Internet) entstehen und dort ihre elektronischen Fußspuren hinterlassen. Zum anderen verstehen wir darunter aber auch „alte“ Daten, die schon immer vorhanden waren, die wir aber nun zum ersten Mal in einer umfassenden elektronischen Form erfassen können, die gleichsam neue Auswertungsmöglichkeiten zulässt.


So gibt es beispielsweise riesige Textdatenbanken (zum Beispiel über die Plenarsitzungen von Parlamenten), die mit bestimmten, sehr arrivierten Verfahren analysiert werden können. Diese Verfahren sind, mathematisch gesehen, eher numerischen Verfahren zuzurechnen, d.h. sie erfordern ungeheure Rechenleistungen, die erst seit wenigen Jahren zur Verfügung stehen – vor allem zu erschwinglichen Preisen für die Hardware. Eine solch arrivierte Textanalyse von sogenannten großen Textkorpora übertrifft von der Anzahl der vollbrachten Rechenoperationen vermutlich bei weitem die Gesamtheit der Rechenleistungen, die für die Mondlandung benötigt wurden. Heutzutage stehen also nicht mehr so sehr die neuen Daten im Vordergrund, sondern häufig die rechenaufwendige Analyse großer Daten, weshalb man eben immer öfter von „Computational Science“ statt von „Big Data“ spricht.

Sicher: Schon auf einem Smartphone oder Laptop tummeln sich für uns kaum vorstellbare Datenmengen – man denke nur an die Hunderte von Bildern aus dem vergangenen Sommerurlaub oder die gesammelten Versuche, sein Mittagessen internet-tauglich zu fotografieren. Aber reicht das schon für „Big Data“? Mitnichten. Der Begriff „Big Data“ stammt aus dem englischen Sprachraum. Erst als Phänomen oder als Hype wahrgenommen, fassen die Experten mittlerweile unter diesem Begriff zwei Aspekte zusammen. Demnach umschreibt er zum einen die immer rasanter wachsenden Datenmengen; zum anderen aber geht es auch um neue und explizit leistungsstarke IT-Lösungen und Systeme, mit denen Unternehmen die Informationsflut vorteilhaft verarbeiten können. Insbesondere unstrukturierte Daten – zum Beispiel aus den sozialen Netzwerken – machen dabei einen nicht unerheblichen Teil der Massendaten aus.
Sicher: Schon auf einem Smartphone oder Laptop tummeln sich für uns kaum vorstellbare Datenmengen – man denke nur an die Hunderte von Bildern aus dem vergangenen Sommerurlaub oder die gesammelten Versuche, sein Mittagessen internet-tauglich zu fotografieren. Aber reicht das schon für „Big Data“? Mitnichten. Der Begriff „Big Data“ stammt aus dem englischen Sprachraum. Erst als Phänomen oder als Hype wahrgenommen, fassen die Experten mittlerweile unter diesem Begriff zwei Aspekte zusammen. Demnach umschreibt er zum einen die immer rasanter wachsenden Datenmengen; zum anderen aber geht es auch um neue und explizit leistungsstarke IT-Lösungen und Systeme, mit denen Unternehmen die Informationsflut vorteilhaft verarbeiten können. Insbesondere unstrukturierte Daten – zum Beispiel aus den sozialen Netzwerken – machen dabei einen nicht unerheblichen Teil der Massendaten aus.

Was sind die Gründe dafür, dass Big Data zusehends in den Fokus der Medien und Politik rückt?


Behnke: Hier entsteht natürlich ein ganz neuer Regelungsbedarf. Big Data stellt – Stichwort Digitalisierung – neue Möglichkeiten dar, die auch wirtschaftlich genutzt werden können. Der Aufbau der technischen Infrastruktur, die dafür benötigt wird, ist daher eine originäre politische Aufgabe. Dazu zählen die Bereitstellung von starken Netzen, aber auch die Etablierung von neuen Ausbildungsgängen, welche die nötigen Fertigkeiten für den Umgang mit Big Data und Computational Science vermitteln.


Nicht zu vergessen ist, dass der Zugang zu sozialen Netzwerken inzwischen ein wichtiger Aspekt der sozialen Teilhabe darstellt, das heißt die Politik muss also auch unter diesem Aspekt dafür sorgen, dass ein guter Internetzugang überall in Deutschland gegeben ist. Last but not least stellen sich grundlegende datenschutzrechtliche Fragen, aber auch Fragen in punkto Wettbewerbsrecht, denn es ist ja offensichtlich, dass wir in diesem Bereich mit Konzentrationsprozessen zu tun haben, die sich in atemberaubender Geschwindigkeit vollziehen und einen sehr bedenklichen Grad erreichen.

Welche Herausforderungen stellt Big Data für die Sozialwissenschaften und insbesondere für die Politikwissenschaft dar?


Behnke: Zum einen gibt es die Herausforderung, Big Data sinnvoll zur Analyse relevanter Fragestellungen zu verwenden – das ist also „Normal Science“. Es gibt aber noch eine andere, viel grundlegendere Herausforderung – diese ist epistemologischer Art. Gerade, weil wir bei der Computational Social Science Zusammenhänge mithilfe von numerischen, rechenaufwendigen Verfahren „aufdecken“, ist es sehr schwer, den theoretischen Charakter solcher „gefundener“ Zusammenhänge zu interpretieren. Big Data stellt uns in dieser Hinsicht vor die Aufgabe, eventuell grundlegende Konzepte der Theoriebildung zu überdenken oder anzupassen.


Welche Rolle spielen etwa im Zusammenhang mit Big Data noch solch zentrale Konzepte wie Hypothesen und Signifikanztests? Gibt es noch den Beweis oder – korrekter – die Überprüfung von Hypothesen oder beschränken wir uns nur noch auf das „Zeigen“ von Zusammenhängen? Und wenn das der Fall ist, was ist das dann wert? Das sind Fragen, bei deren Beantwortung wir uns noch am allerersten Anfang befinden. Vielleicht stellen wir bei genauerer Analyse sogar fest, dass der Hype um Big Data in mancherlei Hinsicht auch völlig übertrieben ist und dass es letztlich eben doch nur alter Wein in neuen Schläuchen ist – allerdings sehr großen Schläuchen, die über ein völlig neues Rohrpostsystem verbunden sind.


Was möchte der vorliegende Band leisten?


Behnke: Wir wollten mit diesem Band vor allem die Vielfalt der Aspekte und Fragen aufzeigen, die sich in diesem Zusammenhang ergeben. Wir haben daher Beiträge aufgeführt, die sich mit ganz praktischen Analyseproblemen befassen, also inhaltliche Fragestellungen zu beantworten versuchen. Andere Aufsätze verstehen sich als eine Art von Einführung oder Handreichung zu neuen Verfahren. Wieder andere Beiträge befassen sich mit den wissenschaftstheoretischen Grundfragen, mit rechtlichen Fragen oder mit der Frage, wie Big Data in der Ausbildung genutzt werden kann.

Alles ist online: 50 Milliarden Geräte werden bis 2020 vernetzt sein – unzählige neue Anwendungen, Geschäftsideen und Chancen entstehen. Also was tun mit dem Phänomen „Big Data“? Etwa den Verkehr smarter machen: Schon heute versuchen viele Städte, ihre Ampeln sinnvoll aufeinander abzustimmen. „Verkehrsabhängige Steuerung mit Detektoren in den Zufahrten ist inzwischen der Stand der Technik“, sagt etwa Martin Schmotz, der an der TU Dresden zum Thema Verkehrsplanung forscht. Einen Schritt weiter geht die intelligente, adaptive Steuerung. Hier analysieren lernende Algorithmen historische Verkehrsdaten und versuchen, Muster darin zu erkennen. „Auf dieser Datenbasis erstellen sie Kurzzeitprognosen und passen sich im Vorhinein auf die kommenden Situationen an“, erklärt Schmotz. Aus solchen Informationen lassen sich wertvolle Rückschlüsse ziehen. In Stuttgart wurde beispielsweise ersichtlich, dass durch die Kessellage viel Pendlerverkehr durch die Landeshauptstadt geleitet wird. Die Pendlerströme teilen sich allerdings zwischen Straße und S-Bahn-Linie auf. Mithilfe der Daten können zudem zeitlich begrenzte Events sowie externe Einflussfaktoren untersucht werden. Eine Analyse der Daten während des Cannstatter Frühlingsfestes und des Stuttgarter Weindorfes veranschaulicht den erheblichen Einfluss eines Volksfestes auf das Mobilitätsverhalten. Diese Daten wurden etwa aus der Mobilfunknutzung der Stuttgarter gewonnen – ein Big Data-Produkt. Praktischer Nebeneffekt: Die Daten müssen nicht aufwendig ermittelt werden, sondern stehen als Nebenprodukt der Netzversorgung rund um die Uhr zum Abruf bereit. Zudem muss keine zusätzliche Infrastruktur errichtet werden, wie etwa für Sensordaten.
Alles ist online: 50 Milliarden Geräte werden bis 2020 vernetzt sein – unzählige neue Anwendungen, Geschäftsideen und Chancen entstehen. Also was tun mit dem Phänomen „Big Data“? Etwa den Verkehr smarter machen: Schon heute versuchen viele Städte, ihre Ampeln sinnvoll aufeinander abzustimmen. „Verkehrsabhängige Steuerung mit Detektoren in den Zufahrten ist inzwischen der Stand der Technik“, sagt etwa Martin Schmotz, der an der TU Dresden zum Thema Verkehrsplanung forscht. Einen Schritt weiter geht die intelligente, adaptive Steuerung. Hier analysieren lernende Algorithmen historische Verkehrsdaten und versuchen, Muster darin zu erkennen. „Auf dieser Datenbasis erstellen sie Kurzzeitprognosen und passen sich im Vorhinein auf die kommenden Situationen an“, erklärt Schmotz. Aus solchen Informationen lassen sich wertvolle Rückschlüsse ziehen. In Stuttgart wurde beispielsweise ersichtlich, dass durch die Kessellage viel Pendlerverkehr durch die Landeshauptstadt geleitet wird. Die Pendlerströme teilen sich allerdings zwischen Straße und S-Bahn-Linie auf. Mithilfe der Daten können zudem zeitlich begrenzte Events sowie externe Einflussfaktoren untersucht werden. Eine Analyse der Daten während des Cannstatter Frühlingsfestes und des Stuttgarter Weindorfes veranschaulicht den erheblichen Einfluss eines Volksfestes auf das Mobilitätsverhalten. Diese Daten wurden etwa aus der Mobilfunknutzung der Stuttgarter gewonnen – ein Big Data-Produkt. Praktischer Nebeneffekt: Die Daten müssen nicht aufwendig ermittelt werden, sondern stehen als Nebenprodukt der Netzversorgung rund um die Uhr zum Abruf bereit. Zudem muss keine zusätzliche Infrastruktur errichtet werden, wie etwa für Sensordaten.

Zwei Beiträge in dem Band befassen sich mit der Analyse von großen Datenmengen in den sozialen Medien: Welche Rolle spielen die digitalen Netzwerke bei der politikwissenschaftlichen Betrachtung von Big Data?


Behnke: Soziale Medien sind inzwischen ein zentraler Kommunikationskanal für eine immer größere Anzahl von Menschen. Für Politologen ist hier natürlich vor allem interessant, welchen Einfluss das unter Umständen auf die politische Willensbildung hat. Erstens: Lässt sich diese mithilfe der Kommunikation in den sozialen Medien auf eine Weise abbilden, die uns neue oder treffsicherere Erkenntnisse ermöglichen? Zweitens: Kommt es in den sozialen Medien zu neuen Formen der Willensbildung? Bildet beispielsweise die Kommunikation über Twitter nicht nur eine bestimmte Dynamik der Willensbildung ab, sondern verändert sie diese beziehungsweise ermöglicht sie völlig neue Dynamiken? Sind Foren besonders anfällig für die virale Verbreitung von „Fake News“? Wir haben ja mit Donald Trump nun einen Spitzenpolitiker, der sich vornehmlich dieses Mediums der Kommunikation bedient. Wäre Trump ohne Twitter und Facebook überhaupt möglich gewesen? Spannende Fragen ohne Zweifel, zu deren Beantwortung uns aber momentan noch keine gesicherten und belastbaren Erkenntnisse vorliegen und vielleicht auch nie vorliegen werden.

Bleiben wir bei den sozialen Medien: Inwieweit stellen Social Bots eine Gefährdung der Demokratie dar?


Behnke: Social Bots stellen eine ganz konkrete Bedrohung dar, nämlich dann, wenn sie gezielt zur Schaffung der eben erwähnten Dynamiken der Willensbildung eingesetzt werden. Das setzt allerdings erst einmal voraus, dass es diese Wirkungen überhaupt gibt, was wie gesagt keineswegs so klar ist. Aber wenn es sie geben sollte, haben wir hier womöglich ein sehr schwerwiegendes Problem. Vor kurzem hat Mark Zuckerberg geäußert, er wäre beeindruckt, wie geschickt die Trump-Kampagne Facebook genutzt hat. Angesichts der neuesten Erkenntnisse stellt sich aber natürlich eher die Frage: Was, wenn diese Movements, die Zuckerberg angesprochen hat, gar nicht von Trump-Leuten, sondern von ein paar hochbegabten russischen Informatikern losgetreten worden wären? Das wirft ganz offensichtlich normative Fragen auf.


Das zweite Problem mit Social Bots ist epistemologischer Art und für mich das interessantere. Ich habe ja schon vorher angesprochen, dass Big Data neue wissenschaftstheoretische Fragen aufwirft. In den empirisch-analytischen Wissenschaften gehen wir üblicherweise davon aus, dass Daten aufgrund eines sogenannten datengenerierenden Prozesses entstehen, dessen Wirkungsweise wir mithilfe unserer Analysen aufdecken möchten. Im Falle der Naturwissenschaften besteht dieser datengenerierende Prozess schlichtweg aus den Naturgesetzen, die den „Proto-Daten“ sozusagen ihre Grenzen aufzeigen, solange sich diese noch in ihrem embryonalen oder – genauer – präexistenziellen Stadium befinden – dabei entscheidet sich auch, ob aus ihnen denn echte und wirkliche Daten werden können. Dieser Selektionsprozess lässt sozusagen nur die Daten durch, die in Einklang mit den Naturgesetzen stehen. Bei sozialen Daten ist das natürlich schon einmal dadurch komplizierter, weil diese Daten insofern immer konstruiert sind, als sie im Kontext von gesellschaftlich geschaffenen Regeln und Institutionen generiert werden. Aber bis zu einem gewissen Grad können wir die Analogie der Naturgesetze hier immer noch verwenden, weil der Selektionsprozess der Regeln und Institutionen auf ähnliche Weise wie der von Naturgesetzen verläuft.


Mit Social Bots aber haben wir nun eine Konstruktion zweiter Ordnung vorliegen, das heißt hier werden Daten gemacht, die den Anschein erwecken sollen, auf eine bestimmte Weise gemacht worden zu sein. Solange die Social Bots „fehlerhaft“ sind, kann das zu einem spannenden Detektivspiel ausarten: Denn dann können wir versuchen, Social Bots aufgrund typischer Reproduktionsprozesse, die eben „falsch“ verlaufen, zu entlarven. Wenn Social Bots aber ausgefeilt sind, das heißt wenn sie eine Art von Turing-Test erfolgreich bestehen, dann können wir nicht mehr zwischen der aufgrund authentischer Dynamiken entstandenen Realität in den entsprechenden Medien und den künstlich produzierten Dynamiken unterscheiden. Das, was selbst im Netz abläuft, ist dann nur noch bedingt interessant – bestenfalls als Indizienansammlung für die Entschlüsselung der Absichten des „Schöpfers im Hintergrund“.


Welche Auswirkungen hat die Analyse von Big Data auf die universitäre Lehre und damit auf die Ausbildung von Politikwissenschaftlern?


Behnke: Zum einen müssen wir die Vermittlung dieser Techniken in unsere Methodenausbildung aufnehmen und dort berücksichtigen. Das haben wir an der Zeppelin Universität ja in Ansätzen schon getan, aber das ist natürlich ausbaufähig. Zum anderen können dann diese Techniken stärker eingesetzt werden zur Untersuchung inhaltlich relevanter Fragestellungen im betreffenden Forschungsfeld. Das kann dann durchaus auch im Bereich der Lehre bei Lehrforschungsprojekten bzw. auch studentischer Forschung geschehen. So läuft an meinem Lehrstuhl derzeit ein Humboldt-Projekt, das untersucht, inwieweit die Onlinemedienberichterstattung eventuell herangezogen werden kann, um Wahlprognosen zu verbessern.

Zum Weiterlesen: Computational Social Science – Die Analyse von Big Data


Titelbild:

| Pietro Jeng / Unsplash.com (CC0 Public Domain) | Link


Bilder im Text:

| imgix / Unsplash.com (CC0 Public Domain) | Link

| Denys Nevozhai / Unsplash.com (CC0 Public Domain) | Link


Redaktionelle Umsetzung: Florian Gehm

4
4
 
 
Zeit, um zu entscheiden

Diese Webseite verwendet externe Medien, wie z.B. Videos und externe Analysewerkzeuge, welche alle dazu genutzt werden können, Daten über Ihr Verhalten zu sammeln. Dabei werden auch Cookies gesetzt. Die Einwilligung zur Nutzung der Cookies & Erweiterungen können Sie jederzeit anpassen bzw. widerrufen.

Eine Erklärung zur Funktionsweise unserer Datenschutzeinstellungen und eine Übersicht zu den verwendeten Analyse-/Marketingwerkzeugen und externen Medien finden Sie in unserer Datenschutzerklärung.