top of page

Chatten mit Wahlprogrammen - KI als Unterstützung für fundierte Wahlentscheidung

Aktualisiert: 26. Feb.


Wen soll ich wählen? Diese Frage stellen sich gerade viele wahlberechtigte Bürger:innen in Deutschland. Wir zeigen, wie KI dabei helfen kann, einen differenzierten Überblick über die Parteiprogramme im Hinblick auf die anstehende Bundestagswahl zu bekommen.

Ein Beitrag von Lisa Kauck, Max Woldrich, Ingrid Stevens


„Ich habe keine Ahnung, wen ich am 23. Februar wählen soll“. Keine ungewöhnliche Aussage im Hinblick auf die bevorstehende Bundestagswahl. Woran liegt das? Die noch-amtierende Ampelregierung hat mit ihren Versäumnissen der vergangenen Legislaturperiode vermutlich ihren Teil zu dieser Ratlosigkeit beigetragen. Auch mehrfache Richtungswechsel in brisanten Themen (z.B. Migrationspolitik) wie jüngst der oppositionellen Unions-Fraktion (CDU/CSU) sind nicht gerade förderlich. Doch neben dem Frust der letzten drei Jahre und den Ereignissen der vergangenen Wochen, ist auch die mangelnde Auseinandersetzung mit den Grundsatzprogrammen der einzelnen Parteien ein Faktor für die Unsicherheit darüber, wo am 23. Februar das Kreuz gesetzt wird. Dabei sind fundierte Wahlentscheidungen besonders in Zeiten wie diesen, in denen politisch einiges auf dem Spiel steht, wichtiger denn je.

Wir bei STAT-UP haben ein System entwickelt, das die Wahlprogramme verschiedener deutscher Parteien analysiert. Anders als bei Programmen, wie beispielsweise dem Wahl-O-Mat, werden dem Wähler keine Fragen gestellt, sondern der Wähler selbst kann Fragen nach seinen individuellen Interessen stellen.

Dafür nutzen wir eine Methode namens Retrieval-Augmented Generation (RAG). Diese kombiniert zwei Dinge:


  1. das Abrufen von relevanten Informationen aus einer Datenbank, die aus den Texten der Wahlprogramme besteht und

  2. die generative Verarbeitung durch ein Large Language Modell (LLM).


Wie funktioniert das?

Grundprinzip: Ein „Wahrscheinlichkeitsspiel“


  1. Große Sprachmodelle (LLMs, z. B. ChatGPT) sind Systeme, die anhand riesiger Mengen an Sprachdaten gelernt haben, das nächste wahrscheinlichste Wort vorherzusagen. Sie generieren also Texte auf Basis von Wahrscheinlichkeiten.


  2. Wahlprogramme einlesen und aufbereiten

    Jedes Wahlprogramm wird in kleinere Abschnitte (Chunks) zerlegt.


  3. Texte mathematisch repräsentieren

    Damit wir später effizient nach relevanten Informationen suchen können, wandeln wir die Textabschnitte in eine spezielle Form um, sogenannte Vektor-Repräsentationen. Die Idee: liegen Vektoren in einem Raum nahe beieinander, so sind die Texte, die sie repräsentieren, ähnlich zueinander. Die Textabschnitte werden in eine Vektor-Datenbank gespeichert.


  4. Vektorsuche – die Kerntechnologie von RAG

    Wenn eine Nutzerfrage gestellt wird, sucht das System in dieser Datenbank nach den relevantesten Abschnitten – basierend auf semantischer Ähnlichkeit. Diese Abschnitte werden dann als Kontext zusammen mit der ursprünglichen Frage an das Sprachmodell weitergegeben.


  1. Ergebnis

    Durch diese Technik wird eher verhindert, dass das KI-Modell einfach „halluziniert“ oder Antworten erfindet. Stattdessen bleiben die Antworten eng an den Wahlprogrammen der Parteien und es können zusätzlich die Textabschnitte als Referenzen angegeben werden, die zur Generierung der Antwort verwendet wurden.


Unser System ersetzt zwar nicht den Informationsgehalt, den man durch detailliertes Lesen aller Parteiprogramme erhalten würde. Allerdings minimiert es die Hürde, sich durch die meist sehr langen Texte zu wälzen, und stellt Informationen zu den Punkten bereit, die den Wähler:innen wirklich wichtig sind. Durch die Angabe der Textstellen, aus denen die Aussagen stammen, sind diese transparent und nachvollziehbar. Die strukturierte Gestaltung des Tools ermöglicht es, die Standpunkte der Parteien auf einen Blick miteinander zu vergleichen. So erhalten Nutzer:innen ein differenziertes Bild davon, welche Partei ihre Interessen am ehesten vertritt.


Sie wollen es selbst ausprobieren? Kein Problem! Unter folgendem Link erhalten Sie Zugriff - Chatten mit Wahlprogrammen


WICHTIG! Aussagen, die auf einer LLM basieren sind nie fehlerfrei, auch diese nicht:

  • Die Qualität hängt stark von der Präzision der Suchanfrage und der Relevanzbewertung der abgerufenen Texte ab.

  • Das Sprachmodell kann trotz der bereitgestellten Informationen Interpretationsfehler machen oder Antworten generieren, die nicht exakt mit den Originaltexten übereinstimmen.

  • Die Vektorsuche kann in manchen Fällen nicht die optimalen Textstellen finden, insbesondere wenn zentrale Konzepte anders formuliert sind als in der Nutzerfrage.

 
bottom of page