← Zurück zum Blog

17. Februar 2026 · 7 Min. Lesezeit

KI und Demokratiebildung (Teil 1): Wenn Algorithmen Wahlkampf machen

Im März 2024 warb der AfD-Kreisverband Göppingen auf Instagram mit dem Foto einer blonden Frau, die angeblich „Dr. Stefanie Müller“ hieß und ihren Parteieintritt begründete. Das Foto war KI-generiert, der Name erfunden. Der AfD-Kreisvorsitzende bestätigte das und sah kein Problem darin. Er sprach von einem „KI-Experiment“.

Dieser Fall ist ein eher harmloses Beispiel für ein grundlegendes Problem. KI verändert die politische Kommunikation auf eine Weise, die demokratische Prozesse gefährdet. Manche Phänomene sind nicht neu, werden durch KI aber verstärkt. Andere sind qualitativ neu: die industrielle Produktion von Desinformation, täuschend echte Audio- und Videofälschungen, Microtargeting sowie die Instrumentalisierung von KI-bedingten Ängsten als populistisches Wahlkampfthema. Dieser Artikel gibt einen Überblick über die wichtigsten Entwicklungen und argumentiert dafür, dass KI- und Medienkompetenz ein essenzieller Bestandteil von Demokratiebildung werden muss. Ein zweiter Teil (ab 24.02.26) wird konkreter analysieren, wie diese Strategien in der deutschen Parteienlandschaft zum Einsatz kommen.

Was KI verstärkt: Echokammern und die Fragmentierung der Öffentlichkeit

Die Fragmentierung der Öffentlichkeit ist kein neues Phänomen. Seit dem Aufstieg sozialer Medien erhalten Menschen zunehmend unterschiedliche Informationen, die algorithmisch nach ihren bisherigen Präferenzen ausgewählt werden. Wer bestimmte politische Inhalte konsumiert, bekommt mehr davon. Wer sich in Gruppen mit Gleichgesinnten austauscht, trifft seltener auf Gegenargumente.

KI verschärft diese Dynamik auf zwei Ebenen. Erstens werden die Empfehlungsalgorithmen sozialer Medien durch maschinelles Lernen immer besser darin, Nutzer*innen bei der Stange zu halten, also Inhalte auszuspielen, die Engagement erzeugen. Emotionale, polarisierende Inhalte erzeugen mehr Engagement als differenzierte Analysen. Die Entwicklung entspricht also dem Geschäftsmodell der Plattformen. Zweitens beschaffen sich immer mehr Menschen ihre Informationen durch Chatbots, die in personalisierten Konversationen antworten. Wenn statt einer öffentlichen Nachrichtenquelle ein persönlicher Assistent die Informationsversorgung übernimmt, entfällt die gemeinsame Informationsbasis, auf der demokratische Deliberation beruht.

Das bedeutet nicht, dass Wähler*innen Opfer ohne eigenes Zutun sind. Die Dynamik entsteht im Zusammenspiel zwischen algorithmischer Personalisierung und menschlichem Bestätigungsbedürfnis. Aber die Architektur der Plattformen macht es leicht, in einer Echokammer zu verbleiben, und schwer, sie zu verlassen. Für den Bildungskontext heißt das: Die Fähigkeit, algorithmische Personalisierung zu durchschauen und sich aktiv mit verschiedenen Quellen zu informieren, ist eine Voraussetzung für informierte politische Teilhabe.

Was KI ermöglicht: Neue Strategien der politischen Manipulation

Jenseits der Verstärkung bestehender Probleme ermöglicht KI qualitativ neue Formen politischer Einflussnahme.

Flood the Zone: Die Überflutung des Informationsraums

Die Strategie, den öffentlichen Diskurs durch eine Flut widersprüchlicher, irreführender oder ablenkender Informationen zu destabilisieren, wurde durch Trumps ehemaligen Chefstrategen Steve Bannon 2018 programmatisch formuliert: Man müsse „die Zone fluten“, um das Vertrauen in verlässliche Informationsquellen zu untergraben. Das Ziel ist nicht, eine bestimmte Lüge glaubhaft zu machen, sondern den Unterschied zwischen wahr und falsch insgesamt zu verwischen.

KI macht diese Strategie ungleich skalierbarer. Laut einer aktuellen Analyse in Frontiers in Artificial Intelligence hat sich die Zahl KI-generierter Desinformations-Websites innerhalb eines Jahres verzehnfacht. Sprachmodelle können in Sekunden Texte produzieren, die von menschlicher Berichterstattung kaum zu unterscheiden sind. Bot-Netzwerke verbreiten diese Inhalte automatisiert auf sozialen Medien. Die Kosten für großangelegte Desinformationskampagnen sinken dadurch dramatisch, während die Geschwindigkeit steigt. Klassische Faktenprüfung kommt dagegen kaum noch an: Falschnachrichten verbreiten sich in sozialen Netzwerken nachweislich um ein Vielfaches schneller als korrekte Informationen.

Deepfakes: Die Erosion des Vertrauens in Evidenz

Deepfakes sind KI-generierte oder -manipulierte Bild-, Audio- oder Videodateien, die reale Personen täuschend echt imitieren. In der Slowakei beeinflusste kurz vor der Parlamentswahl 2023 ein Audio-Deepfake die öffentliche Debatte, in dem ein Kandidat über Wahlbetrug zu sprechen schien. In den USA erhielten Wähler*innen Robocalls mit einer KI-generierten Biden-Stimme, die sie aufforderte, nicht an Vorwahlen teilzunehmen. Und im kanadischen Wahlkampf 2025 erreichte ein Deepfake-Video von Premierminister Mark Carney über eine Million Aufrufe in den sozialen Medien. Kürzlich debattierte im US-Bundesstaat Virginia ein Kandidat für das Amt des Vizegouverneurs öffentlich gegen eine KI-generierte Version seiner Gegnerin, die eine Debatte abgelehnt hatte.

Besonders perfide ist dabei das, was die Rechtswissenschaftler Danielle Citron und Robert Chesney als „Liar's Dividend“ bezeichnen: Allein die Existenz von Deepfake-Technologie reicht aus, um echte Aufnahmen als Fälschungen abzutun. Wenn alles ein Deepfake sein könnte, kann jedes belastende Video mit dem Verweis auf KI diskreditiert werden. Die Konrad-Adenauer-Stiftung formuliert es zugespitzt: Die Frage ist nicht mehr ob, sondern wann, wie und in welchem Ausmaß Deepfakes demokratische Wahlen untergraben.

Personalisierte Wahlwerbung

Die dritte Dimension betrifft die gezielte, individualisierte Ansprache von Wähler*innen. Das Prinzip des Microtargetings ist seit dem Cambridge-Analytica-Skandal 2016 bekannt: Persönliche Daten werden genutzt, um politische Botschaften auf individuelle psychologische Profile zuzuschneiden.

Eine Studie in PNAS Nexus (2024) hat untersucht, wie effektiv KI-generierte, persönlichkeitsbasierte politische Werbung ist: Personalisierte Anzeigen wirkten überzeugender als nicht-personalisierte, und ihre automatische Generierung in großem Maßstab erwies sich als machbar. Die Autor*innen sprechen von einer potenziellen „Manipulationsmaschine“. Andere Studien relativieren den Effekt allerdings: Eine Untersuchung von PNAS von 2024 fand keinen signifikanten Vorteil personalisierter gegenüber generischen KI-generierten Botschaften, und eine Dissertation der Universität Amsterdam (2025) kommt zu dem Schluss, dass Microtargeting in der politischen Praxis weniger ausgefeilt ist als befürchtet und meist auf einfache demografische Merkmale zurückgreift. Die empirische Lage ist also nicht eindeutig. Aber das Potenzial für eine zunehmend individualisierte politische Beeinflussung besteht, und die technischen Hürden sinken.

KI als Wahlkampfthema: Die populistische Instrumentalisierung

KI verändert nicht nur die Methoden des Wahlkampfs, sondern wird selbst zum politischen Thema. Steve Bannon meinte im Dezember 2025 in einem Interview mit Axios, dass KI-bedingte Jobverluste ein dominierendes Thema des US-Wahlkampfs 2028 werden würden. Die Veränderungen auf dem Arbeitsmarkt sind real, wie auch der Artikel zu promptablen Tätigkeiten auf diesem Blog zeigt. Die typischen populistischen Strategien - Vereinfachung, Schuldzuweisung und die Suggestion, die „einfachen Leute" zu schützen - werden aber natürlich niemandem helfen.

Das gilt für die Republikaner unter Donald Trump genauso wie für andere populistische Parteien. Wie insbesondere die AfD dieses Muster konkret umsetzt und welche weiteren Strategien sie dabei verfolgt, wird der zweite Teil dieses Artikels (ab 24.02.2026) analysieren.

Warum KI-Kompetenz Demokratiebildung ist

Die beschriebenen Entwicklungen konvergieren in einem Befund: Wer in einer Welt mit allgegenwärtiger KI politisch mündig sein will, braucht ein Verständnis davon, wie diese Technologie die politische Kommunikation verändert.

Die Fähigkeit, KI-generierte Inhalte zu erkennen, wird zur demokratischen Grundkompetenz. Das schließt Deepfakes ein, aber auch subtilere Formen wie KI-generierte Texte in sozialen Medien oder algorithmisch kuratierte Informationsströme. Sam Wineburgs Konzept des Civic Online Reasoning, das ich in einem früheren Artikel beschrieben habe, wird hier unmittelbar relevant: Die Strategie des Lateral Reading, also die Quelle zu verlassen, um sie durch externe Quellen zu überprüfen, ist eine der wirksamsten Methoden gegen Desinformation, egal ob menschlich oder KI-generiert.

Darüber hinaus braucht es ein Verständnis für die politische Ökonomie der KI: Wer profitiert von welchen Narrativen? Welche Interessen stehen hinter bestimmten Positionen? Warum verspricht eine Partei gleichzeitig KI-Führerschaft und EU-Austritt? Die Fähigkeit, politische Versprechen auf ihre innere Kohärenz zu prüfen und mit Faktenwissen abzugleichen, ist keine neue Anforderung an kritisches Denken, aber KI macht sie dringlicher, weil die Menge und Überzeugungskraft irreführender Inhalte dramatisch zunimmt.

Und schließlich muss Demokratiebildung auch die emotionale Dimension adressieren und zur Selbstreflexion anleiten. Populistische Instrumentalisierung funktioniert über Angst: vor Jobverlust, vor Kontrollverlust, vor einer Zukunft, die man nicht versteht. Diese Ängste sind nicht unberechtigt, aber die Antwort auf berechtigte Ängste darf nicht populistische Vereinfachung sein, sondern muss in informierter Auseinandersetzung bestehen. Wer versteht, was KI kann und was nicht, wer gelernt hat, Versprechen zu hinterfragen und Quellen zu prüfen, ist weniger anfällig für Manipulation.

Was das für die Schule bedeutet

Die Integration von KI- und Medienkompetenz in die Demokratiebildung ist kein Zusatzprojekt, das man bei Gelegenheit angehen kann. Die Desinformation zirkuliert jetzt, die populistischen Narrative werden jetzt aufgebaut. Die Technologie, die diese Gefahren produziert, ist dabei dieselbe, mit der sich Gegenkompetenzen trainieren lassen. Halluzinations-Jagd, Prompt-Battle und Perspektiven-Check sind Methoden, die nicht nur KI-Kompetenz fördern, sondern direkt auf die Fähigkeit einzahlen, politische Manipulation zu durchschauen. Wer gelernt hat, KI-Outputs kritisch zu hinterfragen, wird auch politische Botschaften kritischer bewerten.

Demokratie setzt informierte Bürger*innen voraus. In einer Welt, in der Algorithmen Wahlkampf machen, ist KI-Kompetenz kein technisches Spezialwissen mehr. Sie ist eine demokratische Grundkompetenz.

Die wichtigsten Begriffe als Übersicht

Vorschau: Karussell-PDF „KI und Demokratiebildung – Wichtige Begriffe und Einsichten

Die zentralen Begriffe dieses Artikels als visuelles Karussell — zum Durchblättern, Teilen oder Verwenden im Unterricht. PDF herunterladen

Demokratiebildung und KI verbinden: In den Workshops auf ki-lehren.de erarbeiten wir, wie Sie KI-Kompetenz und Medienkompetenz im Unterricht verbinden können — von der Erkennung von Deepfakes über die Analyse algorithmischer Personalisierung bis zum kritischen Umgang mit politischen KI-Narrativen.

© Sven Lüder, www.ki-lehren.de

Weitere Artikel

17. Februar 2026 · 7 Min. Lesezeit

Wie die AfD KI nutzt und instrumentalisiert (Teil 2)

KI-Influencerinnen, Nostalgie-Deepfakes, widersprüchliche Positionen: Eine Analyse der KI-Strategien im deutschen Wahlkampf.

Artikel lesen

10. Februar 2026 · 6 Min. Lesezeit

Prüfen in Zeiten von KI

Vier Strategien für wirksame Prüfungsformate, wenn traditionelle Aufgaben an KI delegiert werden können.

Artikel lesen

08. Dezember 2025 · 8 Min. Lesezeit

Kritisch Denken mit KI

Über 60% der Lehrkräfte befürchten negative Folgen von KI für kritisches Denken. Dabei bietet KI die Chance, es systematisch zu fördern.

Artikel lesen