ACCEPT: Perspektivierte Argument-Analyse zur Unterstützung von Deliberation
Viele Entscheidungen in Alltag, Politik und Gesellschaft erfordern die deliberative Abwägung von Argumenten und Gegenargumenten zu Handlungsoptionen. Dabei müssen konfligierende Interessen berücksichtigt werden, um zu akzeptablen Entscheidungen für alle Betroffenen zu gelangen.
Werkzeuge zur Unterstützung von Deliberationsprozessen reichen von Debattierportalen in denen Argumente durch User ausgetauscht werden bis hin zu Argument-Suchmaschinen zur Unterstützung der Suche nach geeigneten (Gegen-) Argumenten, deren strukturelle Analyse von Argumenten jedoch bisher sehr limitiert ist.
Reale Argumentation benötigt weit mehr als eine Strukturierung vorgegebener Argumente in Für und Wider. Sie erfordert tiefes Verständnis der debattierten Themen, muss potentielle Implikationen von Entscheidungen und deren Auswirkungen auf Betroffene verstehen und aufzeigen können, wie in der Suche nach breiter Akzeptanz diese abgewogen werden müssen.
Dieses tiefere Verständnis muss sich auf neue Themen erstrecken können, die in der Öffentlichkeit noch nicht diskutiert wurden. Daher müssen Systeme entwickelt werden, die durch Verwendung von Wissen und Schlussfolgerungen neue Fragen behandeln können.
Computationelle Argumentation ist von solch einem tiefen Verständnis von Argumenten noch weit entfernt. So funktionieren Systeme zur Klassifikation von Support-Attack-Relationen gut, wenn sie auf Diskursen operieren. Wir haben gezeigt, dass sie sich vor allem auf Diskursmarker stützen und ohne diese Marker sehr schlechte Ergebnisse liefern. Auch die Argument Reasoning Challenge war darauf angelegt, dass Systeme tiefe Schlussfolgerungen ziehen müssen. Doch die guten Ergebnisse von Transformermodellen wie BERT basieren auf deren
Fokussierung auf Oberflächenmerkmale und fallen dramatisch ab sobald diese aus den Daten entfernt werden.
In unseren Vorarbeiten begegnen wir diesen Schwächen, indem wir neuronale Modelle in interpretierbarer Weise mit Hintergrundwissen anreichern. Doch es bedarf an weiterer Forschung, um Systeme mit tiefem Verständnis von Argumenten zu entwickeln, so dass sie über Argumente Schlussfolgerungen ziehen können und Konsequenzen von Handlungen vorhersagen, um so Deliberationsprozesse zu unterstützen.
Ziel unseres Projekts ist es, über unsere bisherigen Erfolge für eine wissensbasierte Argumentanalyse hinauszugehen, indem wir i) neuronal-symbolische Methoden mit Hintergrundwissen für eine tiefere Analyse der Beziehungen zwischen Argumenten erweitern, ii) Argumente in einem multifaktoriellen Argument-Wissensgraphen repräsentieren, kontextualisieren und anreichern, in dem wir Perspektiven, Ziele und Werte von Interessengruppen einbeziehen, und iii) darauf aufbauend neue Methoden entwickeln, um Debatten aus verschiedenen Perspektiven zu analysieren, existierende Argumente aus unterschiedlichen Perspektiven zu bewerten, und unter Berücksichtigung wünschenswerter Ziele alternative Prämissen inferieren zu können, um damit Deliberationsprozesse zu unterstützen.