ZU|Daily wurde in die Hauptseite in den Newsroom unter https://www.zu.de/newsroom/daily/ integriert. Die neuesten Artikel seit August 2024 werden dort veröffentlicht. Hier finden Sie das vollständige Archiv aller älteren Artikel.
2012 wurde Anja Achtziger auf den Lehrstuhl für Sozial- und Wirtschaftspsychologie der Zeppelin Universität berufen. Sie verstärkt dabei neben der Forschung auch die Studienprogramme im Bereich der Kultur und Kommunikations- sowie Wirtschaftswissenschaften an der ZU. Zuvor vertrat sie an der Universität Konstanz mehrfach die Professur für Sozialpsychologie und Motivation. Im Jahr 2008 habilitierte sie sich zum Thema „Erfolgreiches Handeln aus einer sozialkognitiven Perspektive: Rubikonmodell, Vorsatztheorie und mentales Kontrastieren“.
Was kann man sich unter „algorithmic decision making“, also der algorithmischen Entscheidungsfindung, genau vorstellen?
Prof. Dr. Anja Achtziger: Darunter versteht man, dass spezielle Computerprogramme an großen Datensätzen, wie Kunden- oder Patientendaten, lernen sollen, wie Menschen – etwa Konsumenten oder Mediziner – Entscheidungen treffen. Solche automatischen Entscheidungssysteme können dann in Zukunft beratend zum menschlichen Entscheider Entscheidungshilfen geben oder – je nachdem, wie gut und zuverlässig sie auf Dauer selbst Entscheidungen treffen (was noch überprüft werden muss) – menschliche Entscheider auch ersetzen, wobei dies eine theoretische Überlegung ist, denn das kommt ganz auf den jeweiligen Bereich sowie Komplexitätsgrad der jeweiligen Entscheidung an. Aber weil das nun in bestimmten Bereichen eine heikle Angelegenheit ist, befassen sich gerade Juristen, Ethiker, Informatiker und natürlich auch Entscheidungsforscher aus anderen Disziplinen wie beispielsweise der Psychologie mit dem Thema, um etwa Rahmenbedingungen für den Einsatz solcher Systeme abzuklären und Richtlinien für ihren Einsatz in brisanten Bereichen, wie Medizin oder Recht, abzustecken.
In welchen Staaten kommen die technischen Justizhelfer bereits zum Einsatz und welche juristischen Aufgaben übernehmen sie?
Achtziger: Besonders die Vereinigten Staaten und das Vereinigte Königreich arbeiten intensiv an der Weiterentwicklung von technischen Justizhelfern. Inwiefern deren Einsatz bereits sinnvoll ist, soll neben anderen Fragestellungen in dem kürzlich gestarteten interdisziplinären Forschungsprojekt in Zusammenarbeit mit Kolleginnen und Kollegen des Algorithm Accountability Labs der TU Kaiserslautern, der University of Birmingham (Professur für Ethics, Law, and Informatics) und dem Hans-Bredow-Institut für Medienforschung an der Universität Hamburg überprüft werden. Darüber hinaus ist ein weiterer Kollege der TU Kaiserslautern beteiligt, der sich Gedanken über die politischen Konsequenzen macht.
Wo wir schon mal beim Projekt „Deciding about, by, and together with algorithmic decision making systems“ sind: Was genau wird untersucht und wie lautet das Ziel?
Achtziger: Zunächst geht es darum, Kolleginnen und Kollegen anderer Disziplinen zu erklären, wie Menschen generell mit Informationen umgehen, bevor sie Entscheidungen treffen. Ziel ist es also, Softwareentwickler, Gesetzgeber und andere involvierte Gruppen für den adäquaten Umgang mit Algorithmen zu sensibilisieren. An welchen Datensätzen lernen die Programme? Wie kamen diese Datensätze zustande? Wo sind in den Daten bereits menschliche Fehler und Biases inkludiert, die ein Programm dann möglicherweise ebenfalls lernt? Darüber hinaus wollen wir untersuchen, welche Limitierungen die algorithmischen Entscheidungsfindungssysteme haben. Wir gehen beispielsweise der Frage nach, wie Menschen über Menschen entscheiden und wie Maschinen über Menschen entscheiden, verglichen damit, wie Menschen zusammen mit Maschinen über Menschen entscheiden. Zudem wollen wir die Grenzen ausloten, in denen Maschinen überhaupt Entscheidungen über Menschen treffen sollten, und entsprechende Richtlinien entwickeln.
Auf welche Art und Weise trägt Ihr Lehrstuhl zu den Forschungsergebnissen bei?
Achtziger: Wir möchten vor allem aufklären: über menschliche Entscheidungen, deren zugrundeliegenden Prozesse sowie die Sammlung von Daten für Entscheidungen. Wie kommt es eigentlich in bestimmten Bereichen zu welchen kognitiven Informationsverarbeitungsprozessen, die letztlich menschliche Entscheidungen steuern? Wie bilden sich diese in den Datensätzen ab, die hernach für das Machine Learning benutzt werden und dort zur Abbildung menschlicher Entscheidungsbiases führen (was man ja eben eigentlich mit dem Einsatz von Algorithmen verhindern will)? Durch welche Ziele und Motive sind menschliche Entscheider beeinflusst? Können Algorithmen das bereits genauso abbilden oder wo fehlt es noch und warum?
Am Ende eine persönliche Frage: Wie betrachten Sie die Zukunft der Künstliche Intelligenz? Als Chance oder Risiko für die Menschheit?
Achtziger: Natürlich ist die Künstliche Intelligenz eine Riesenchance für die Menschheit, daran besteht kein Zweifel. Man muss allerdings die Rahmenbedingungen für den Einsatz in sensiblen Bereichen erarbeiten und abstecken – und genau das machen wir ja jetzt in einem interdisziplinären Forschungsverbund, der mit rund 1.56 Millionen Euro aus den Mitteln der Förderinitiative „Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen“ von der Volkswagen-Stiftung gefördert wird.
Titelbild:
| Simon Zhu / Unsplash.com (CC0 Public Domain) | Link
Bild im Text:
| Hédi Benyounes / Unsplash.com (CC0 Public Domain) | Link
Redaktionelle Umsetzung: Florian Gehm