CALM-2: Kausalität, Argumentation und Maschinelles Lernen
Während die traditionellen Methoden des maschinellen Lernens zu großen Fortschritten in der Künstlichen Intelligenz geführt haben, gibt es eine Reihe von Hindernissen, die ihre breitere Anwendung erschweren. Pearl argumentiert, dass viele dieser Hindernisse auf die Tatsache zurückzuführen sind, dass die derzeitigen Methoden des maschinellen Lernens assoziative Lernsysteme sind und keine Ursache-Wirkungs-Beziehungen erkennen können (Pearl, 2018). Um diese Hindernisse zu überwinden, müssen Maschinen daher mit der Fähigkeit ausgestattet sein, über Ursache und Wirkung zu schlussfolgern. Das Gesamtziel des Projekts CAML2 ist die Anwendung formaler Argumentationstechniken für kausales maschinelles Lernen. Während große Mengen an Beobachtungsdaten immer einfacher zu erhalten sind, ist es bekannt, dass kausale Zusammenhänge im Allgemeinen nicht allein auf der Basis von Beobachtungsdaten entdeckt werden können. Dies ist ein Prozess, der von zusätzlichem Wissen abhängt, z.B. von Hintergrundwissen, das von Fachexperten zur Verfügung gestellt wird, oder von den Ergebnissen kontrollierter Experimente. Bei einer vom Benutzer formulierten Frage muss ein entsprechendes System in der Lage sein, seine Antworten zu erklären, und ggfs. zusätzlich benötiges Wissen abzufragen. Die formale Argumentation stellt Werkzeuge zur Verfügung, die diese Art der Interaktion ermöglichen. In der formalen Argumentation werden Antworten auf Fragen von einer dialektischen Analyse begleitet, die zeigt, warum Argumente zur Unterstützung einer Schlussfolgerung den Gegenargumenten vorgezogen werden. Eine solche Analyse dient als Erklärung für eine Antwort und kann darüber hinaus interaktiv gestaltet werden. Konkret werden wir einen Ansatz entwickeln, der es ermöglicht, Kausalmodelle aus beobachteten Daten zu lernen und insbesondere über widersprüchliche Kausalmodelle mit Argumenten und Gegenargumenten für bzw. gegen bestimmte Modelle zu argumentieren. Der Ansatz ermöglicht die Einbringung von Hintergrundwissen, und Experteninformationen können durch ein interaktives Dialogsystem eruiert werden. Um Probleme im Zusammenhang mit Unsicherheit und verrauschten Informationen anzugehen, werden wir nicht nur qualitative Ansätze zur formalen Argumentation betrachten, sondern auch quantitative Ansätze, die in der Lage sind, über Wahrscheinlichkeiten zu argumentieren. Ein wichtiger Begriff beim Lernen kausaler Zusammenhänge (und beim maschinellen Lernen im Allgemeinen) ist die Intervention, d.h. des "manuellen" Setzens einer Variablen auf einen bestimmten Wert. Wir werden Interventionen durch den Einsatz kontrafaktischer Methoden der formalen Argumentation modellieren. Dadurch erhalten wir ein umfassendes System für die interaktive argumentative Kausalitätsfindung. Wir werden uns auf die Problemstellung des überwachten Lernens konzentrieren, aber auch unseren Ansatz in einem unüberwachten Lernansatz betrachten, insbesondere für Clustering und Density Estimation.