← Zurück zum Blog

30. Oktober 2025 · 7 Min. Lesezeit

KI erfindet jede dritte Antwort? Eine kritische Betrachtung

Die Schlagzeile klingt alarmierend: „KI erfindet jede dritte Antwort." (tagesschau.de, 27.10.2025). Immer wieder hört man, dass Chatbots Fakten erfinden, ihre Nutzer täuschen und das Vertrauen in seriöse Medien untergraben. Eine aktuelle Studie der Europäischen Rundfunkunion (EBU) sorgt für Aufsehen – und wird in der medialen Berichterstattung mit zugespitzten Überschriften versehen. Doch lohnt sich ein genauerer Blick auf die Befunde und ihre Interpretation. Denn die pauschale Kritik an der Technologie greift zu kurz und verkennt das eigentliche Problem.

Die Studie im Überblick

Im Oktober 2025 veröffentlichte die EBU gemeinsam mit der BBC die bislang größte internationale Untersuchung zur Verlässlichkeit von KI-Assistenten bei der Beantwortung von Nachrichtenfragen. 22 öffentlich-rechtliche Medienorganisationen aus 18 Ländern testeten ChatGPT, Copilot, Gemini und Perplexity in 14 Sprachen. Professionelle Journalistinnen und Journalisten bewerteten über 3.000 Antworten auf 30 Kernfragen zu aktuellen Ereignissen nach Kriterien wie Genauigkeit, Quellenangaben und Kontextbereitstellung.

Das zentrale Ergebnis: 45 Prozent aller Antworten enthielten mindestens ein erhebliches Problem, das Nutzende in die Irre führen könnte. 31 Prozent der Antworten wiesen schwerwiegende Probleme bei der Quellenangabe auf – fehlende, irreführende oder falsche Zuschreibungen. 20 Prozent enthielten gravierende Ungenauigkeiten, darunter erfundene Details und veraltete Informationen. Besonders schlecht schnitt Gemini ab: 76 Prozent der getesteten Antworten enthielten signifikante Fehler.

Was heißt hier "erfinden"?

Die erste notwendige Differenzierung betrifft die Bedeutung des Wortes "erfinden" in diesem Kontext. Wenn wir sagen, KI "erfindet" Fakten, klingt das nach bewusster Täuschung oder gar Manipulation. Tatsächlich beschreibt der Begriff jedoch ein technisches Phänomen, das in der Fachwelt als "Halluzination" bezeichnet wird.

Große Sprachmodelle wie ChatGPT sind im Kern Vorhersagesysteme: Sie berechnen statistisch, welches Wort in einem Kontext am wahrscheinlichsten folgt. Sie haben kein Faktenwissen im herkömmlichen Sinne, keine interne Wahrheitsdatenbank, die sie konsultieren könnten. Wenn ein Sprachmodell eine Frage beantwortet, generiert es einen Text, der aufgrund seiner Trainingskorpora plausibel klingt – unabhängig davon, ob die Aussage faktisch korrekt ist.

Das bedeutet: Die KI "erfindet" nicht im Sinne einer bewussten Falschaussage, sondern produziert statistisch plausible Texte, die nicht notwendigerweise der Realität entsprechen. Diese Unterscheidung ist wichtig, denn sie zeigt, dass wir es hier mit einer inhärenten Eigenschaft der Technologie zu tun haben – nicht mit einem Fehler, der durch ein Update behoben werden könnte. Sprachmodelle sind keine Wissensdatenbanken, sondern Textgeneratoren.

Das eigentliche Problem liegt bei der Nutzung

Hier kommen wir zum zweiten, noch wichtigeren Punkt: Nicht die Technologie versagt in erster Linie, sondern die Art und Weise, wie Menschen sie nutzen. Diese Perspektive wird auch im Tagesschau-Artikel selbst thematisiert, obwohl die Überschrift suggeriert, die KI wäre das Problem.

Man kennt es auch aus anderen Zusammenhängen: Nicht die Technologie ist das Problem, sondern Menschen, die nicht wissen, wie sie sie richtig nutzen. Viele Menschen behandeln KI-Chatbots wie eine Art intelligentes Wikipedia, ein Nachschlagewerk für verlässliche Fakten. Doch genau das sind sie nicht. Ein Sprachmodell ist ein Werkzeug, das nur so gut funktioniert, wie die Person es versteht und einsetzt.

Wer präzise fragt, Kontext liefert und die Antworten kritisch prüft, kann KI produktiv nutzen. Wer jedoch zu ungenau fragt, erhält unzuverlässige Ergebnisse. Die Verantwortung liegt beim Nutzenden – genau wie bei jeder anderen Technologie auch.

Für Lehrkräfte ist diese Erkenntnis zentral: Es ist nicht die Aufgabe, KI zu verteufeln oder zu verbieten, sondern Schülerinnen und Schülern beizubringen, wie sie verantwortungsvoll und kompetent mit diesen Werkzeugen umgehen. Das bedeutet:

  • Verstehen, wie KI funktioniert und wo ihre Grenzen liegen
  • Kritisches Hinterfragen von KI-generierten Antworten
  • Quellenüberprüfung und Faktenchecks als selbstverständliche Praxis
  • KI als Ausgangspunkt für Recherchen nutzen, nicht als Endpunkt

Methodische Vorbehalte zur Studie

So wichtig die EBU-Studie auch ist, sie wirft methodische Fragen auf, die bei der Interpretation der Ergebnisse berücksichtigt werden sollten.

Veraltete Modelle: Die Studie wurde zwischen Februar und Oktober 2025 durchgeführt. Es ist unklar, welche konkreten Modellversionen getestet wurden. Die Entwicklung von KI-Systemen erfolgt rasant – ChatGPT etwa erschien Ende 2022 mit GPT-3.5, GPT-4 folgte im März 2023, und seitdem gab es zahlreiche Verbesserungen. Studien, die zwischen Februar und Oktober 2025 durchgeführt wurden, könnten teilweise Modelle getestet haben, die bereits Monate zuvor veröffentlicht wurden. Die Ergebnisse bilden also möglicherweise nicht den aktuellen Stand der Technologie ab.

Kostenlose Consumer-Versionen: Die Studie konzentrierte sich ausdrücklich auf die kostenlosen, öffentlich zugänglichen Versionen der getesteten KI-Assistenten. Das ist nachvollziehbar, da diese von den meisten Menschen genutzt werden. Allerdings unterscheiden sich diese Versionen zum Teil erheblich von den professionellen API-Zugängen oder Premium-Varianten, die mit neueren Modellen, besseren Recherchefunktionen und präziseren Konfigurationsmöglichkeiten arbeiten. Die Studie liefert somit ein Bild der "Einstiegsqualität", nicht des technisch Möglichen.

Nachrichtenfragen als Härtetest: Die Studie testete gezielt Fragen zu aktuellen Nachrichten und Ereignissen – ein Bereich, in dem Sprachmodelle traditionell Schwächen haben. Fragen wie "Wer ist der aktuelle Papst?" oder "Wer gewann die Parlamentswahlen?" erfordern tagesaktuelle Informationen, die nicht in den Trainingsdaten enthalten sein können. Neuere Modelle mit integrierten Suchfunktionen schneiden hier besser ab, aber die grundlegende Herausforderung bleibt: Sprachmodelle sind nicht für die Echtzeitabfrage aktueller Fakten konzipiert.

Keine Vergleichsbasis: Die Studie vergleicht die Leistung der KI-Assistenten nicht mit menschlichen Informationsquellen. Wie viele Fehler machen Menschen, wenn sie spontan Nachrichtenfragen beantworten? Wie verlässlich sind traditionelle Suchmaschinen bei der ersten Trefferseite? Solche Vergleiche würden die Ergebnisse besser einordnen.

Was bedeutet das für die Praxis?

Die Erkenntnisse der EBU-Studie sollten dennoch ernst genommen werden. Sie bestätigen, was in der Fachdiskussion längst bekannt ist: KI-Chatbots sind keine verlässlichen Quellen für Fakten. Punkt. Wer sie als solche nutzt, wird enttäuscht – oder getäuscht.

Gleichzeitig wäre es falsch, daraus zu schließen, KI sei nutzlos oder gefährlich. Die Technologie hat enormes Potenzial, wenn sie richtig eingesetzt wird. Beispiele dafür wären:

  • Als Ideengeber für Unterrichtsmaterial oder Textentwürfe
  • Als Strukturierungshilfe beim Ordnen von Gedanken
  • Als Rechercheausgangspunkt, dessen Ergebnisse verifiziert werden müssen
  • Als Differenzierungstool zur Anpassung von Aufgaben an verschiedene Lernniveaus

Der Schlüssel liegt in der Kompetenz der Nutzenden. Lehrkräfte müssen selbst verstehen, wie KI funktioniert, um es an ihre Schülerinnen und Schüler weitergeben zu können. Und genau hier liegt unsere Verantwortung: Wir brauchen keine KI-freien Schulen, sondern KI-kompetente Schulen.

Fazit: Technologie ist nicht das Problem – fehlende Bildung ist es

Reißerische Überschriften wie "KI erfindet jede dritte Antwort" erfüllen ihren Zweck: Sie ziehen Aufmerksamkeit auf sich. Doch sie verschleiern das eigentliche Problem. Es geht nicht darum, dass KI kein herkömmliches Faktenwissen hat. Das Problem ist, dass zu viele Menschen diese Technologie nutzen, ohne zu verstehen, wie sie funktioniert und wo ihre Grenzen liegen.

Die Lösung liegt nicht in der Verteufelung der Technologie, sondern in Bildung: in der Vermittlung von Medienkompetenz, kritischem Denken und einem reflektierten Umgang mit digitalen Werkzeugen. Lehrkräfte haben die Chance, diese Kompetenzen zu fördern und die Schülerinnen und Schüler auf eine Welt vorzubereiten, in der KI allgegenwärtig ist.

Die Technologie wird sich weiterentwickeln. Die Frage ist, ob wir als Gesellschaft mithalten können – nicht technisch, sondern im Verständnis dessen, was diese Werkzeuge leisten können und was nicht. Dort liegt die eigentliche Herausforderung.

Sie möchten lernen, wie Sie KI verantwortungsvoll und gewinnbringend im Unterricht einsetzen können? In unseren Workshops auf ki-lehren.de vermitteln wir praktikable Strategien, sofort einsetzbare Vorlagen und das notwendige Hintergrundwissen für einen kompetenten Umgang mit Generativer KI. Damit Ihre Schülerinnen und Schüler lernen, KI als Werkzeug zu nutzen – statt ihr blind zu vertrauen.

© Sven Lüder, www.ki-lehren.de

Weitere Artikel

17. November 2025 · 6 Min. Lesezeit

Warum Lehrkräfte KI direkt lernen sollten

EdTech-Plattformen versprechen einfachen Zugang zu KI, schaffen aber Abhängigkeiten und vermitteln keine echte Kompetenz.

Artikel lesen

10. November 2025 · 7 Min. Lesezeit

Von der Betrugsmaschine zur Chance

KI stellt traditionelle Leistungsformate in Frage – bietet aber auch massive Entlastung und neue Möglichkeiten.

Artikel lesen