KI und Demokratiebildung (Teil 1)
KI verändert den politischen Wettbewerb: Deepfakes, Flood the Zone, personalisierte Wahlwerbung. Warum KI-Kompetenz demokratische Grundkompetenz ist.
Artikel lesenIm ersten Teil dieses Artikels habe ich dargestellt, wie KI die politische Kommunikation verändert: durch die Verstärkung von Echokammern, durch Deepfakes, durch die Überflutung des Informationsraums und durch personalisierte Wahlwerbung. Im Folgenden geht es nun um die Frage, wie diese Mechanismen in der deutschen Parteienlandschaft konkret zum Einsatz kommen. Der Fokus liegt dabei auf der AfD, weil sie KI im Wahlkampf sowohl am intensivsten einsetzt als auch am deutlichsten als populistisches Thema instrumentalisiert. Das heißt nicht, dass andere Parteien keine KI nutzen. Aber der AfD-Fall ist besonders aufschlussreich, weil sich hier Strategie, Infrastruktur und inhaltliche Widersprüche exemplarisch zeigen.
Die AfD vertritt eine KI-Position, die auf den ersten Blick technologiefreundlich erscheint. Frederike Kaltheuner, hat sie in ihrer Analyse des AfD-Wahlprogramms pointiert zusammengefasst: Die Partei fordert „weltführende KI aus Deutschland“, lehnt aber gleichzeitig den EU AI Act ab, der grundlegende Sicherheitsstandards für Hochrisiko-Anwendungen setzt. Sie will den Fachkräftemangel durch KI lösen statt durch Einwanderung. Und sie verspricht technologische Souveränität, während sie gleichzeitig den Austritt aus der EU anstrebt, die den größten einheitlichen digitalen Markt der Welt darstellt.
Diese Widersprüche sind analytisch aufschlussreich. Sie zeigen ein Muster, das sich auch in anderen Politikfeldern der AfD findet: Maximalversprechen kombiniert mit der Ablehnung jeder Rahmenbedingung, die ihre Einlösung ermöglichen würde. Wer weltführende KI fordert, aber den regulatorischen Rahmen ablehnt, der Vertrauen in diese Technologie schaffen soll, bedient das Narrativ, dass „Brüssel“ die deutsche Innovationskraft ausbremse.
Bereits im Bundestagswahlkampf 2025 nutzte die AfD KI intensiver als jede andere deutsche Partei. Eine ZDF-Umfrage ergab: Während CDU, SPD, Grüne, FDP und Linke sich zumindest zu einer freiwilligen Kennzeichnung KI-generierter Inhalte verpflichteten, äußerte sich die AfD weder zur Kennzeichnungsfrage noch zur Regulierung der KI-Nutzung durch ihre Mitglieder und Kandidat*innen. Bei dieser bewussten Unverbindlichkeit dürfte es sich wohl kaum um ein Versäumnis handeln.
Der Politik- und Kommunikationswissenschaftler Marcus Bösch beschreibt die Funktion der KI-generierten AfD-Bilder als „Nostalgiemaschinen und emotionale Klischeeverstärker mit Bildern, die sich auf die historische Ästhetik des 19. und 20. Jahrhunderts beziehen“. Diese Bilder ließen sich in zwei Kategorien einteilen: einerseits idyllische Zukunftsvisionen mit „lächelnden, hellhaarigen Kleinkindern, jungen blonden Frauen und kohleverschmierten Kumpeln“, andererseits dystopische Szenarien, die Ängste vor Kriminalität und Migration schüren sollten.
Kurz vor der Bundestagswahl 2025 erschienen auf Instagram, TikTok und X Profile junger Frauen, die sich als AfD-Unterstützerinnen präsentierten: „Larissa Wagner“, 22, aus Brandenburg. „Lara“, blond, Deutschlandfahne im Hintergrund, „Fck Grn“ auf dem T-Shirt. „Sophia“ mit dem Schriftzug „Remigration“ auf der Brust. Wie u.a. die Tagesschau berichtete, waren sie alle KI-generiert. Keine der jungen Frauen existiert.
Die Reichweite dieser Profile war zum Zeitpunkt der Wahl noch begrenzt: „Larissa“ hatte rund 600 Instagram-Follower und 4.300 auf X. Kommunikationsexpert*innen schätzten den unmittelbaren Einfluss auf das Wahlergebnis als gering ein. Aber die Bedeutung liegt weniger im kurzfristigen Effekt als im Strukturaufbau. Marcus Bösch beschreibt eine „ganze Fan-Armee, die sich an einem weitreichenden und effektiven Versuch der partizipativen Propaganda beteiligt“. KI-Influencer*innen, von Nutzer*innen erstellte KI-Inhalte und automatisierte Unterstützungsnetzwerke arbeiten zusammen, um die Algorithmen sozialer Medien gezielt auszulösen. Eine Studie der Friedrich-Ebert-Stiftung dokumentiert, wie die AfD mit 4.282 TikTok-Videos im Wahlkampfzeitraum alle anderen Parteien deutlich übertraf und bei Aufrufen, Kommentaren und Shares dominierte.
Das Center für Monitoring, Analyse und Strategie (CeMAS) beobachtete im Vorfeld der Bundestagswahl 2025 russische Einflusskampagnen, die darauf abzielten, wirtschaftliche Ängste zu schüren und die AfD sowie das BSW zu stärken. Dabei kamen Methoden wie „Doppelgänger“ (Websites, die deutschen Nachrichtenseiten zum Verwechseln ähnlich sehen) und „Storm 1516“ (Fake-Nachrichtenseiten) zum Einsatz. Auch ein gefälschtes Tagesschau-Video, das Alice Weidels angebliche Vereidigung als Bundeskanzlerin zeigte, zirkulierte im Netz.
Die Verbindung zwischen Parteiaktivitäten und externen Kampagnen ist dabei nicht als direkte Koordination nachgewiesen. Aber die CeMAS-Analyse zeigt ein Zusammenspiel, bei dem russische Desinformation vor allem gegen Friedrich Merz und die CDU agitierte, während die AfD indirekt profitierte. In einem Informationsökosystem, in dem die Grenzen zwischen parteilicher Kommunikation, Fan-Aktivismus und ausländischer Einflussnahme verschwimmen, wird die Zurechenbarkeit selbst zum Problem.
Die AfD ist nicht die einzige Partei, die KI im Wahlkampf nutzt. Die meisten Parteien setzen KI-Tools zur Erstellung von Entwürfen, Grafiken und Social-Media-Inhalten ein. Der entscheidende Unterschied liegt in Transparenz und Selbstbindung. CDU, SPD, Grüne, FDP und Linke haben sich zumindest zu einer freiwilligen Kennzeichnung verpflichtet. Die AfD hat das nicht getan.
Die Bereitschaft, KI-generierte Inhalte zu kennzeichnen, signalisiert ein grundlegendes Verständnis dafür, dass demokratische Kommunikation auf Transparenz angewiesen ist. Wer diese Transparenz verweigert, nimmt in Kauf, dass die Grenze zwischen authentischer und generierter politischer Kommunikation weiter verschwimmt. Zugleich bleibt festzuhalten, dass auch freiwillige Selbstverpflichtungen keine Garantie darstellen: Der SPD-Bundestagsabgeordnete Bengt Bergt löste parteiübergreifenden Protest aus, als er ein manipuliertes Video von Friedrich Merz auf Instagram teilte, das er als Satire verstand.
Um es klarzustellen: Die Analyse des AfD-Falls ist für den Unterricht nicht deshalb relevant, weil man Schüler*innen beibringen müsste, welche Partei sie wählen sollen. Sie ist relevant, weil sie die im ersten Teil beschriebenen Mechanismen konkret und überprüfbar macht. An diesem Fall lässt sich exemplarisch trainieren, was politische Urteilsbildung ausmacht: Positionen auf innere Kohärenz prüfen, die Funktionsweise partizipativer Propaganda durchschauen und erkennen, dass die emotionale Wirkung KI-generierter Inhalte von ihrer technischen Qualität unabhängig sein kann. Diese analytischen Kompetenzen sind nicht parteigebunden. Man braucht aber konkrete Fälle, um sie zu trainieren. Die KI-Nutzung der AfD im Bundestagswahlkampf 2025 bietet dafür reichhaltiges Material.
Demokratiebildung und KI verbinden: In den Workshops auf ki-lehren.de entwickeln wir gemeinsam Unterrichtskonzepte, die KI-Kompetenz und demokratische Urteilsbildung verbinden. Sie lernen, wie Sie aktuelle Fallbeispiele aus dem politischen Diskurs didaktisch aufbereiten und Schüler*innen befähigen, politische Kommunikation kritisch zu analysieren.
© Sven Lüder, www.ki-lehren.de
KI verändert den politischen Wettbewerb: Deepfakes, Flood the Zone, personalisierte Wahlwerbung. Warum KI-Kompetenz demokratische Grundkompetenz ist.
Artikel lesenVier Strategien für wirksame Prüfungsformate, wenn traditionelle Aufgaben an KI delegiert werden können.
Artikel lesenEin Überblick zu den Tätigkeitstypen, die sich inzwischen zuverlässig mit KI automatisieren lassen.
Artikel lesen