← Zurück zum Blog

05. Januar 2026 · 7 Min. Lesezeit

Tücken des Erinnerns: Vor- und Nachteile der Personalisierung von Chatsbots

Moderne KI-Chatbots lernen uns kennen. Sie merken sich unsere Vorlieben, passen ihren Stil für uns an, erinnern sich an frühere Gespräche. Was wie ein Serviceversprechen klingt, wirft bei genauerer Betrachtung jedoch Fragen auf: Ist der Komfortzuwachs durch Personalisierung es wert, die damit verbundenen Risiken in Kauf zu nehmen?

Das Phänomen, um das es hier geht, wird vor allem dann relevant, wenn man primär mit einem einzigen Chatbot arbeitet und dessen Memory-Funktion eingeschaltet lässt – also beim typischen Nutzerverhalten vieler Menschen. Dieses Verhalten führt dazu, dass sich die Chatbots ihren Nutzen*innen anpassen und zunehmend individualisierte Antworten liefern. Das hat erhebliche Vorteile: Produktivitätszuwachs, weniger Missverständnisse, passgenauere Ergebnisse. Es wäre falsch, diese Vorteile einfach zu ignorieren. Daher geht es nicht darum, die Personalisierung von Chatbots per se zu verteufeln. Es geht darum, eine informierte Abwägung treffen zu können: Welche Vorteile bietet sie, welche Risiken birgt sie? Um diese Abwägung zu leisten, muss man zunächst verstehen, was Personalisierung eigentlich bedeutet.

Wenn die KI sich anpasst

ChatGPT, Claude und andere führende Systeme bieten mittlerweile Memory-Funktionen an. Die KI speichert Informationen über Nutzer*innen: beruflicher Hintergrund, Kommunikationspräferenzen, wiederkehrende Themen. Das Versprechen: Je länger man mit einem System arbeitet, desto besser versteht es einen.

Auf den ersten Blick ist das attraktiv. Wer möchte schon bei jeder Anfrage von vorn beginnen? Doch die Forschung zeigt zunehmend, dass dieser Komfort einen Preis haben könnte.

Kognitive Entlastung – und ihre Schattenseiten

Der Fachbegriff lautet "Cognitive Offloading": Wir lagern geistige Arbeit an externe Systeme aus. Das ist zunächst nichts Neues – Menschen haben immer Werkzeuge genutzt, vom Notizbuch bis zum Taschenrechner. Doch bei personalisierten Chatbots gibt es einen qualitativen Unterschied.

Eine aktuelle Analyse in Frontiers in Psychology diskutiert das Konzept der "AI-Chatbot Induced Cognitive Atrophy" – die Vorstellung, dass intensive Chatbot-Nutzung langfristig kognitive Fähigkeiten beeinträchtigen könnte. Die Autor*innen argumentieren: Im Gegensatz zu Taschenrechnern, die nur arithmetische Berechnungen übernehmen, adressieren Chatbots ein viel breiteres Spektrum – Wissen, Problemlösung, Kreativität, sogar emotionale Unterstützung.

Das "Use it or lose it"-Prinzip aus der Neurowissenschaft legt nahe: Kognitive Fähigkeiten, die nicht regelmäßig genutzt werden, können verkümmern. Wenn ein Chatbot meine Argumente strukturiert, meine Texte formuliert und meine Probleme löst – trainiere ich dann noch mein eigenes Denken?

Die Filterblase im Gespräch

Ein zweiter Aspekt betrifft die inhaltliche Dimension. Personalisierte Systeme neigen dazu, Inhalte zu liefern, die zu bisherigen Präferenzen passen. In der Medienwissenschaft ist dieses Phänomen als "Filterblase" bekannt. Der Begriff geht auf ein 2011 erschienenes Buch zurück, in dem der Internetaktivist Eli Pariser beschrieben hat, "wie wir im Internet entmündigt werden". Unter Filterblase versteht man eine algorithmische Personalisierung, die bestehende Sichtweisen verstärkt statt erweitert.

Bei Chatbots kommt eine neue Dimension hinzu: Die Personalisierung erfolgt nicht nur durch den Algorithmus, sondern auch durch das Nutzerverhalten selbst. Wer immer ähnliche Fragen stellt und ähnliche Antworten akzeptiert, trainiert das System auf einen bestimmten Korridor. Man könnte von einer "generativen Blase" sprechen, welche die Nutzer*innen durch ihre Interaktionsmuster selbst erzeugen.

Für Bildungskontexte ist das besonders relevant: Lernen bedeutet, die eigene Komfortzone zu verlassen. Wenn ein System systematisch darauf optimiert ist, mir entgegenzukommen – fördert es dann noch Wachstum?

Ungleiche Voraussetzungen

Eine weitere Überlegung, die in der Forschung bisher wenig Beachtung findet: Die Qualität der Personalisierung hängt davon ab, wie intensiv und kompetent jemand mit diesen Systemen arbeitet.

Wer täglich mit einem Chatbot arbeitet, präzise Anfragen stellt und die Memory-Funktionen strategisch einsetzt, erhält ein zunehmend leistungsfähiges Werkzeug. Andersherum: Wer sich in seinem bisherigen Chat-Gebrauch mit oberflächlichen Ergebnissen zufriedengegeben hat, wird auch in Zukunft wahrscheinlich weniger differenzierte Antworten erhalten. Wie man in den Wald hineinruft, so schallt es heraus – das gilt auch für die Interaktion mit KI.

Ein anschauliches Beispiel: Gregor Schmalzried, Host des KI-Podcasts und erfahrener Nutzer, erhielt mit einem kurzen Prompt, in dem er Gemini 3 um ein Modell bat, das die Arbeitsweisen von Chatbots erklärt, ein bemerkenswertes Ergebnis. Testen Sie doch mal, was Sie - bei Gemini 3 Thinking oder auch anderen Chatbots - für Resultate mit demselben Prompt erzielen ("erstelle mir ein interaktives modell, mit dem ich spielerisch lernen kann, wie ein llm funktioniert. es muss den trainingsprozess und den nutzungsprozess (inferenz) abbilden. notwendige vereinfachungen sind erlaubt."). Bei mir jedenfalls sieht das Ergebnis deutlich bescheidener aus. Mit statistischer Verteilung, aufgrund derer man kaum zweimal das gleiche Ergebnis mit dem gleichen Prompt erzielt, hat das offensichtlich nichts zu tun. Vielmehr dürfte die unterschiedliche Nutzungshistorie ausschlaggebend sein.

Das wirft Fragen auf: Verstärkt Personalisierung bestehende Kompetenzunterschiede? Entsteht eine digitale Ungleichheit zwischen "trainierten" und "untrainierten" Systemen? Diese Hypothese ist durch die Forschung, soweit ich weiß, noch nicht belegt – aber sie verdient Aufmerksamkeit.

Was bedeutet das für Bildung?

Für Lehrkräfte ergeben sich aus diesen Überlegungen mehrere Implikationen.

KI-Kompetenz bedeutet mehr als Bedienungswissen. Es bedeutet, die Mechanismen zu verstehen – einschließlich der Personalisierung und ihrer möglichen Effekte. Nur wer versteht, wie ein System auf einen selbst reagiert, kann reflektiert damit umgehen.

Die Vermittlung von KI-Kompetenz an Schüler*innen sollte diese Dimension einschließen. Es geht nicht nur darum, wie man gute Prompts schreibt, sondern auch darum, wann man bewusst gegen die Personalisierung arbeitet – indem man andere Perspektiven einfordert, Gegenargumente verlangt, die eigene Komfortzone verlässt.

Praktische Gegenstrategien

Wer die Risiken der Personalisierung minimieren möchte, hat mehrere Optionen:

  • Memory-Funktion deaktivieren: Bei ChatGPT unter "Einstellungen" → "Personalisierung" → "Erinnerung" ausschalten. Bei Claude unter "Einstellungen" → "Fähigkeiten" → "Speicher" deaktivieren. Bei Gemini unter "Einstellungen und Hilfe" → "Anweisungen für Gemini".
  • Regelmäßig zwischen Chatbots wechseln: Wer verschiedene Systeme nutzt, verhindert, dass eines zu stark auf die eigenen Muster trainiert wird – und erhält unterschiedliche Perspektiven.
  • Bewusst Gegenposition einfordern: Prompts wie "Welche Argumente sprechen gegen meine Position?" oder "Spiele den Advocatus Diaboli" durchbrechen die Tendenz zur Bestätigung.
  • Neue Chats für neue Themen: Statt alles in einem Konversationsstrang zu halten, für unterschiedliche Themen neue Chats beginnen.

Diese Maßnahmen sind nicht absolut zu verstehen. Man kann Memory für bestimmte Arbeitskontexte aktiviert lassen, wo die Produktivitätsvorteile überwiegen, und für andere bewusst deaktivieren. Entscheidend ist, dass die Entscheidung informiert erfolgt.

Komfort ist nicht neutral

Die Personalisierung von Chatbots ist weder gut noch schlecht – sie ist ein Werkzeugmerkmal mit Konsequenzen. Der Komfort, den sie bietet, kann produktiv genutzt werden. Aber er kann auch zur Falle werden, wenn wir nicht verstehen, wie er funktioniert.

Für eine Gesellschaft, die KI-Kompetenz als Bildungsziel formuliert, bedeutet das: Es reicht nicht, den Umgang mit der Technologie zu lehren. Es braucht auch das Verständnis dafür, was die Technologie mit uns macht – und die Fähigkeit, bewusst dagegen zu steuern, wenn es nötig ist.

Möchten Sie verstehen, wie Personalisierung funktioniert – und wie Sie sie bewusst steuern können? In den Workshops auf ki-lehren.de vermittle ich nicht nur Prompt-Engineering, sondern auch das Verständnis für die Mechanismen hinter den Systemen. Damit Sie KI reflektiert nutzen und diese Kompetenz an Ihre Schüler*innen weitergeben können.

© Dr. Sven Lüder, www.ki-lehren.de

Weitere Artikel

22. Dezember 2025 · 7 Min. Lesezeit

Vertretungsunterricht: Wo KI-Kompetenz einen echten Unterschied macht

Vertretungsunterricht ist oft unbefriedigend. KI-kompetente Kollegien können das ändern: mit schnell erstelltem Material statt Film und Stillarbeit.

Artikel lesen

08. Dezember 2025 · 8 Min. Lesezeit

Kritisch Denken mit KI

Über 60% der Lehrkräfte befürchten negative Folgen von KI für kritisches Denken. Dabei bietet KI die Chance, es systematisch zu fördern.

Artikel lesen

01. Dezember 2025 · 7 Min. Lesezeit

Was KI nicht kann: Verantwortung übernehmen

Warum die Angst vor KI-Ersetzung unbegründet ist: Verantwortung als menschliche Kernkompetenz im Bildungskontext.

Artikel lesen