MARDY: Modeling ARgumentation DYnamics in Political Discourse

Ziel des Projekts ist es, Methoden und Tools für die datengetriebene Modellierung zentraler Aspekte von Argumentationsdynamiken in politischen Diskursen zu entwickeln. Dabei greift verbindet es computerlinguistische und politikwissenschaftliche Expertise und Perspektiven. Das Projekt wird von der DFG im Rahmen des Schwerpunktprogramms 1999 - Robust Argumentation Machines (RATIO) gefördert. 

 

Forschungsfragen

Bei der Analyse öffentlicher Debatten um kontroverse Themen sind interessierte Beobachter und Wissenschaftler gleichermaßen daran interessiert, den Einfluss einzelner Forderungen, Vorschläge und Argumente einschätzen zu können. Dafür sind verschiedene Aspekte relevant: Statements müssen immer vor dem Hintergrund des bisherigen Stand der Debatte interpretiert werden. Es muss geklärt werden, welche Äußerungen auf Resonanz gestoßen sind und welche Akteure sich mit welchen Argumenten und Forderungen positioniert haben: Wie reagieren Akteure auf die Äußerungen anderer Akteure der selben oder konkurrierender Diskurskoalitionen? Auf welche Argumente greifen Akteure zurück, um ihre Forderungen zu begründen? Dabei interessieren weniger die einzelnen Statements als vielmehr die Konfiguration der Statements: Wie werden verschiedene Forderungen und Argumente zu einem kohärenten Handlungsrahmen kombiniert, der eine Interpretation des jeweils adressierten Problems liefert und eine Lösung dafür anbietet?

 

Ziele

Ziel des Projektes ist es, computergestützte Tools zu entwickeln, mit denen sich politische Diskurse analysieren und modellieren lassen. Idealerweise sollten solche Modelle die genannten Faktoren berücksichtigen und so transparent und flexibel sein, dass erfahrene Analysten mit der Einstellung relevanter Metaparameter experimentieren können, um plausible Interpretationsschemata zu identifizieren und angemessene Schlussfolgerungen zu ziehen. Das Projekt widmet sich daher den Aufbau skalierbarer Modelle für politische Argumentation als interdisziplinärem Problem von Politikwissenschaft und Informatik. Ohne die Kompetenzen der Informatik wäre es der Politikwissenschaft nicht möglich, skalierbare, datengetriebene prädiktive Modelle zu entwickeln, und die Informatik könnte ohne einen kontinuierlichen und intensiven Austausch mit der Politikwissenschaft keine analytisch adäquaten Modellarchitekturen entwerfen. Im Projekt soll die Modellentwicklung mit der Entwicklung einer neuartigen, gemeinsamen analytischen (Meta-)Methodik einhergehen. Zwar wird es in absehbarer Zeit nicht möglich sein, die gesamte Bandbreite der relevanten Fähigkeiten und Intuitionen menschlicher Analysten zu erfassen, doch glauben wir, dass bereits jetzt mit der Bündelung aktueller Forschungsstränge aus verschiedenen Disziplinen Modelle entwickelt werden können, die die bisher extrem zeit- und personalaufwändige Analyse politischer Diskurse zumindest teilweise automatisieren können und damit ganz neue Anwendungsmöglichkeiten für Diskursanalysen erschließen können.

In dem Kollaborationsprojekt werden Kompetenzen aus den Bereichen Computerlinguistik/Maschinelles Lernen (Jonas Kuhn & Sebastian Padó, Universität Stuttgart) und Politikwissenschaft (Sebastian Haunss, Universität Bremen) vereint.

 

Angestrebte Projektergebnisse sind:

  • Robuste automatische Identifizierung von Forderungen und Begründungen in der Berichterstattung (mit annottierten Trainingsdaten aus einem verwandten Inhaltsbereich), einschließlich Zuordnung zu Akteuren und grobkörniger thematischer Clusterung,
  • Systematische Anordnung von thematisch zusammenhängenden Claims und Begründungen in einer Hierarchie, die nur vergleichsweise wenig interaktive Eingriffe durch die Nutzer benötigt (u.a. Bestimmung der Granularität relevanter Unterscheidungen),
  • Darstellung der resultierenden Struktur in Form von Diskursnetzwerken,
  • Analyse der Merkmale und der Dynamik dieser Netzwerke in realen politischen Debatten, insbesondere des Einflusses und der Wirkung unterschiedlicher Forderungen und Rechtfertigungen,
  • Transparente Diagnose und Visualisierung zur Modellinterpretation und Fehleranalyse,
  • prädiktive Modellierung des Verlaufs einer Debatte, um (a) die Entwicklung von Argumentationstheorien durch retrospektive experimentelle Anwendung auf vergangene Debatten und (b) die Erkennung unerwarteter Wendungen etc. in laufenden Debatten zu unterstützen,
  • Erweiterung der analytischen Maschinerie auf Inhaltsbereiche, für die keine bereits annotierten Trainingsdaten zur Verfügung stehen,
  • Meta-Level-Einblicke in die interdisziplinäre Zusammenarbeit zwischen Computerlinguistik, Machine Learning und Politikwissenschaft: Welche Rechenmodellklassen und algorithmischen Ansätze können in systematische Diskursstudien integriert werden? Welcher methodische Rahmen kann den fachübergreifenden Austausch am besten unterstützen?