Was KI nicht kann: Verantwortung übernehmen
Warum die Angst vor KI-Ersetzung unbegründet ist: Verantwortung als menschliche Kernkompetenz und intrinsische Motivation im Bildungskontext.
Artikel lesenDatenschutz, EU AI Act, Urheberrecht – wenn es um KI in der Schule geht, schwingt bei vielen Lehrkräften rechtliche Unsicherheit mit. Darf ich ChatGPT zur Unterrichtsvorbereitung nutzen? Was passiert, wenn Schüler*innen personenbezogene Daten eingeben? Mache ich mich strafbar, wenn ich KI-generierte Texte verwende? Diese Fragen sind berechtigt – aber die Antworten sind oft weniger dramatisch, als die Unsicherheit vermuten lässt. Dieser Artikel gibt einen Überblick über die drei wichtigsten rechtlichen Rahmenbedingungen und zeigt, worauf es in der Praxis ankommt.
Wer KI verantwortungsvoll nutzt – also keine personenbezogenen Daten eingibt, Ergebnisse kritisch prüft und transparent mit der Nutzung umgeht –, bewegt sich in der Regel auf sicherem rechtlichen Terrain. Die rechtlichen Rahmenbedingungen sind komplex, aber für den Schulalltag gut handhabbar, wenn man die Grundprinzipien verstanden hat.
Dieser Überblick betrachtet drei Bereiche: den EU AI Act als neue Regulierung, die Datenschutz-Grundverordnung als bekannte, aber bei KI besonders relevante Vorgabe, sowie das Urheberrecht als oft überschätztes Problem. Alle drei Bereiche greifen ineinander und ergeben zusammen das Bild dessen, was rechtlich zu beachten ist.
Bereits im August 2024 ist der EU AI Act in Kraft getreten – die weltweit erste umfassende KI-Regulierung. Seit Februar 2025 gelten nun auch die ersten wichtigen Bestimmungen für den Schulalltag. Für die alltägliche KI-Nutzung von Lehrkräften bedeutet der AI Act vor allem eines: KI-Kompetenz ist jetzt rechtlich verankert.
Artikel 4 der Verordnung nimmt Schulen und Träger in die Pflicht: Sie müssen nach besten Kräften sicherstellen, dass ihr Personal über die notwendige KI-Kompetenz verfügt, um Systeme sachkundig und verantwortungsbewusst einzusetzen. Das bedeutet nicht, dass Lehrkräfte zu KI-Experten werden müssen. Wo allerdings von ihnen erwartet wird, dass sie KI einsetzen, dort soll auch sichergestellt werden, dass sie verstehen, wie KI funktioniert, wo ihre Grenzen liegen und welche Risiken bestehen.
Der AI Act unterscheidet zwischen verschiedenen Risikostufen, die bestimmen, wie streng die Anforderungen sind:
Chatbots wie ChatGPT oder Claude gelten meist als KI mit „begrenztem Risiko" – hier gelten vor allem Transparenzpflichten. Lehrkräfte sollten offenlegen, wenn Sie KI nutzen, und müssen darauf achten, dass Ergebnisse als KI-generiert erkennbar sind.
Hochrisiko-KI betrifft Anwendungen oder Systeme, die Lernergebnisse bewerten, Lernprozesse steuern oder Prüfungsbetrug überwachen. Wer zukünftig eine KI-Plattform einsetzt, die automatisch Noten vergibt, wird deutlich strengere Anforderungen erfüllen müssen (verbindlich ab August 2026).
Verboten sind lediglich KI-Systeme mit „unannehmbarem Risiko" – etwa solche, die menschliches Verhalten manipulieren oder biometrische Echtzeit-Identifizierung durchführen. Das betrifft den Schulalltag in der Regel nicht.
Die praktische Konsequenz: Die Schulen müssen Fortbildungen anbieten, in denen die Lehrkräfte KI-Kompetenz erwerben können. Das ist nicht nur aus rechtlicher Sicht eine sinnvolle Investition, denn wer KI nutzt, sollte wissen, was er tut. Der AI Act schreibt hier nur vor, was ohnehin selbstverständlich sein sollte.
Die Datenschutz-Grundverordnung ist für Schulen nichts Neues – sie gilt seit 2018 für alle Bereiche, in denen personenbezogene Daten verarbeitet werden. Bei KI-Nutzung wird sie jedoch besonders relevant, weil die Versuchung groß ist, Daten einzugeben, die dort nicht hingehören.
Warum ist das bei KI besonders heikel? Weil die Eingaben in Chatbots wie ChatGPT auf Servern gespeichert werden, über die Sie keine Kontrolle haben. Anders als bei einer Excel-Tabelle auf dem Schulrechner verlassen die Daten das System – und das ist aus datenschutzrechtlicher Sicht problematisch, wenn es sich um personenbezogene Informationen handelt.
Die goldene Regel lautet: Keine personenbezogenen Daten in KI-Chatbots eingeben. Das klingt einfach, erfordert aber Aufmerksamkeit im Alltag. Personenbezogene Daten sind nicht nur Namen und Adressen, sondern alles, was eine Person identifizierbar macht: Schülernamen in Kombination mit Leistungsbeschreibungen, Krankheitsinformationen, familiäre Hintergründe, Verhaltensauffälligkeiten.
Ein Beispiel: Problematisch wäre: „Schreibe Feedback zum angehängten Text von Max Müller, der Schwierigkeiten mit der Rechtschreibung hat und dessen Eltern sich gerade trennen." Völlig unproblematisch wäre: „Schreibe Feedback zum angehängten Text von einem Schüler der 7. Klasse mit Schwierigkeiten bei der Rechtschreibung." Lehrkräfte müssen also darauf achten, dass ihre Beschreibungen von Schüler*innen so generisch bleiben, dass sie auf viele zutreffen könnten.
Für die Unterrichtsvorbereitung ist die KI-Nutzung in der Regel unbedenklich. Die Erstellung von Arbeitsblättern, Unterrichtsskizzen oder differenzierten Aufgaben tangiert den Datenschutz nicht – hier geht es um Inhalte, nicht um Personen. Aus Datenschutzsicht kann man Chatbots problemlos bitten, Aufgaben zu einem Gedicht zu erstellen oder ein Unterrichtsskript zu strukturieren.
Bei der direkten Nutzung durch Schüler*innen wird es komplizierter. Die Nutzungsbedingungen von ChatGPT erlauben eine Registrierung erst ab 13 Jahren (mit Einwilligung der Erziehungsberechtigten) bzw. ab 18 Jahren. Eine unvermittelte Nutzung der Consumer-Versionen von US-Anbietern wie OpenAI oder Anthropic ist aus Datenschutzsicht für Schulen nicht empfehlenswert.
Hier bieten sich datenschutzkonforme Zwischenlösungen an – etwa über Plattformen mit API-Zugang, bei denen keine personenbezogenen Daten an die KI-Anbieter übermittelt werden. Alternativ können Lehrkräfte ihren eigenen privaten Account nutzen und im Plenum mit der Klasse arbeiten – das ist mit der DSGVO völlig vereinbar, solange Sie keine personenbezogenen Daten der Schüler*innen eingeben.
Das Urheberrecht bei KI-generierten Inhalten ist komplex – für die schulische Praxis aber zumeist weniger relevant. In der Regel sind KI-generierte Inhalte kein urheberrechtliches Problem.
Zunächst das Grundprinzip: Nach deutschem Urheberrecht sind nur persönliche geistige Schöpfungen eines Menschen schutzfähig. KI-generierte Texte und Bilder sind daher in der Regel nicht urheberrechtlich geschützt. Das bedeutet: Sie können KI-Outputs für Ihren Unterricht verwenden, ohne Urheberrechte zu verletzen – denn es gibt keine Urheber*in, deren Rechte verletzt werden könnten.
Die potenzielle Problemzone liegt woanders, nämlich wenn KI-generierte Inhalte urheberrechtlich geschützten Werken zu stark ähneln. Dazu kann es auf zwei Arten kommen:
Stilnachahmung: Wenn Sie eine KI z. B. bitten, „ein Gedicht im Stil von Bertolt Brecht" zu schreiben, könnte das Ergebnis theoretisch urheberrechtlich problematisch sein – dann nämlich, wenn die KI tatsächlich sehr nah an einem konkreten Brecht-Text landet, weil dieser in den Trainingsdaten enthalten war.
Input geschützter Materialien: Noch problematischer wird es, wenn Sie selbst urheberrechtlich geschützte Materialien als Input für die KI hochladen. Das unlizenzierte Hochladen vieler Seiten aus Schulbüchern, ganzer Arbeitsblätter oder urheberrechtlich geschützter Texte in kommerzielle, externe KI-Systeme mit dem Ziel, ähnliche Inhalte zu erzeugen, stellt eine Urheberrechtsverletzung dar.
Die praktische Empfehlung: Nutzen Sie KI-generierte Inhalte für schulische Zwecke ohne übertriebene Sorge, aber prüfen Sie kreative Outputs auf auffällige Ähnlichkeiten mit bekannten Werken.
Seit August 2025 gelten zudem Kennzeichnungspflichten. Während Anbieter wie OpenAI ihre Texte technisch markieren müssen, sind Sie als Nutzer vor allem dann in der Pflicht, wenn Sie synthetische Medien wie Deepfakes (manipulierte Bild-/Tonaufnahmen) veröffentlichen. Für normale KI-generierte Unterrichtsmaterialien ist dies weniger relevant – Transparenz ist aber ohnehin eine gute Praxis.
Die wichtigste Vorkehrung ist Wissen: wie KI funktioniert und wo ihre Grenzen liegen. Das schützt nicht nur vor rechtlichen Problemen, sondern führt auch zu einem reflektierten Umgang mit der Technologie – und besseren Ergebnissen.
Darüber hinaus empfiehlt sich für Lehrkräfte:
Datenschutz konsequent umsetzen: Arbeiten Sie mit anonymisierten oder fiktiven Beispielen statt mit echten personenbezogenen Daten. Wenn Sie Unterrichtssituationen durchspielen möchten, nutzen Sie generische Beschreibungen ohne Namen, Noten oder identifizierende Merkmale von Schüler*innen, Kolleg*innen oder Eltern.
Bewertungshoheit bewahren: Setzen Sie KI als Unterstützungswerkzeug bei der Korrektur ein, behalten Sie aber die finale Bewertungsentscheidung bei sich. Die pädagogische Beurteilung von Prüfungsleistungen bleibt Ihre professionelle Verantwortung – KI kann Impulse geben, aber nicht die Lehrkraft ersetzen.
Sichere Lernumgebungen schaffen: Ermöglichen Sie Ihren Schüler*innen die Arbeit mit KI über datenschutzkonforme Schulplattformen oder nutzen Sie für gemeinsame Erkundungen im Plenum Ihren eigenen Account. So behalten Sie die Kontrolle über die Interaktion und können pädagogisch begleiten.
Kritische Prüfung als Grundhaltung: Prüfen Sie KI-Ergebnisse systematisch auf Richtigkeit und Angemessenheit. Diese kritische Reflexion ist nicht nur rechtlich geboten, sondern auch Kern der KI-Kompetenz, die Sie Ihren Schüler*innen vorleben und vermitteln sollen.
Technische Einstellungen optimieren: Deaktivieren Sie in den Einstellungen Ihres Chatbots die Option, dass Ihre Eingaben für das Modelltraining verwendet werden.
Transparenz pflegen: Informieren Sie darüber, wenn Sie KI für die Erstellung von Unterrichtsmaterialien nutzen – Offenheit gehört zum professionellen Umgang mit der Technologie.
Ist die Sorge berechtigt, dass man mit konventioneller KI-Nutzung in der Schule illegal handelt? In den allermeisten Fällen: nein. Die rechtlichen Rahmenbedingungen – EU AI Act, DSGVO, Urheberrecht – sind durchaus beherrschbar, wenn man die Grundregeln beachtet. Wer KI kompetent einsetzt – also ihre Funktionsweise kennt, keine sensiblen Daten eingibt und Ergebnisse kritisch prüft –, bewegt sich auf sicherem Terrain.
Die eigentliche Aufgabe ist daher keine juristische, sondern eine pädagogische: KI-Kompetenz entwickeln, reflektiert nutzen, verantwortungsvoll handeln. Das Recht gibt dafür den Rahmen vor – ausfüllen müssen ihn die Lehrkräfte selbst.
Schulen und Bildungsträger müssen KI-Strategien entwickeln, die rechtlich sicher und pädagogisch sinnvoll sind. Meine KI-Strategieberatung unterstützt Schulbehörden und Bildungsakteure dabei: Wir analysieren Ihren tatsächlichen Bedarf, entwickeln datenschutzkonforme Implementierungskonzepte und sorgen für herstellerunabhängige Empfehlungen – damit Sie nicht in den "Vendor Lock-in" kommerzieller Plattformen geraten, sondern langfristige Kompetenzentwicklung ermöglichen.
© Sven Lüder, www.ki-lehren.de
Warum die Angst vor KI-Ersetzung unbegründet ist: Verantwortung als menschliche Kernkompetenz und intrinsische Motivation im Bildungskontext.
Artikel lesenEine kritische Betrachtung der Aussagekraft von Studien zu KI und Bildung. Warum 'evidenzbasiert' nicht immer bedeutet, was es verspricht.
Artikel lesenEdTech-Plattformen versprechen einfachen Zugang zu KI, schaffen aber Abhängigkeiten und vermitteln keine echte Kompetenz.
Artikel lesen