Der Schul- und der Unibetrieb haben wieder begonnen. Wir werfen einen Blick in das Jahr 2026. Kurz vor dem Halbjahrs- und Semesterende nimmt der Notendruck noch einmal Fahrt auf. Ein Dienstag im Januar 2026

Herr Matuscheck (Name von der Redaktion geändert) sitzt am Küchentisch, Kaffee links, Tablet rechts. Er unterrichtet Geschichte, Klassenstufe 10. Früher hat er Aufgaben selbst formuliert, heute klickt er auf „Hausaufgabe generieren“.
Thema: Weimarer Republik. Schwierigkeitsgrad: mittel. Bewertungsraster gleich mit. Die KI schlägt drei Varianten vor. Herr Matuscheck liest keine davon ganz. Er wählt die zweite. Passt schon. Zeit gespart.
Die Aufgabe wir auf moodle im entsprechenden Kurs hochgeladen.
Leonie (Name von der Redaktion geändert) bekommt die Push-Nachricht im Bus nach Hause. Sie öffnet sie nicht einmal richtig. Sie kopiert den Aufgabentext in ihre KI-App, tippt: „Antwort auf Schulniveau, nicht zu auffällig.“
Zehn Sekunden später ist der Text da. Sauber gegliedert, Einleitung, Hauptteil, Fazit. Keine Fehler. Leonie überfliegt die ersten zwei Sätze, scrollt bis unten, lädt die Datei hoch. Fertig. Lernen fühlt sich nicht anstrengend an, eher wie Weiterleiten.
Drei Tage später korrigiert Herr Matuscheck. Oder besser gesagt, er lässt korrigieren.
Alle Texte werden gesammelt, anonymisiert und durch ein Bewertungstool gejagt. Die KI prüft Struktur, Argumentationslogik, Fachbegriffe. Sie vergibt Punkte, schreibt Randbemerkungen, formuliert eine individuelle Rückmeldung.„Schlüssige Darstellung, gute Gewichtung der Ursachen, kleinere Differenzierungen wären wünschenswert.“
Herr Matuscheck nickt. Klingt fair. Er klickt auf „Note übernehmen“. Eine 2. Mit Begründung. Das ganze per Copy-Paste direkt in die Bewertungsspalte zu Leonies Upload.
Leonie bekommt die Note am Abend.
Sie sieht nur die Zahl. Die Rückmeldung liest sie nicht. Warum auch? Sie hat ja nichts geschrieben. Die Note landet im Kopf und addiert sich zu ihrem angestrebten Durchschnitt, den sie für das Q braucht. Vielleicht muss sie noch mal nachverhandeln? Sicher ist sicher, denkt sie, und bei Matuscheck auch kein Problem noch eine Note rauszuholen.
Was ist passiert?
Nichts. Die Aufgabe war korrekt.Die Antwort passend. Die Bewertung nachvollziehbar. Und trotzdem hat niemand nachgedacht. Keine Unsicherheit, keine Nachfrage, kein Diskussion. Kein „Ich hab’s verstanden“- oder „Ich blick’s nicht“-Gefühl. Abgehakt und Noten gesammelt für den Rabatt, um die Quali zu kriegen.
Jetzt fühlt sich sogar Lernen wie Verwaltung an. Lehrkräfte lassen Unterricht und Aufgaben von Kl generieren, Erwartungshorizonte und Korrekturen erledigen, um immer umfangreicheren Unterrichtsstoff, neue Vorgaben und aufwändige Klassenbetreuung zu schaffen.Schüler kopieren die Aufgaben in ihre ChatGPT App und laden fertige Texte zur Abgabe hoch. Sie nutzen Kl, weil ständig etwas abgegeben, bewertet, nachgewiesen werden muss.
Bequem ist das, aber nicht entspannter. Denn je einfacher alles wird, desto mehr wird verlangt. Sowohl von den Lehrern als auch von den Schülern. So werden Unmengen von Texten produziert, hin und her geschoben und nur noch verwaltet. Die meisten machen mit. Man kommt schneller zu seiner Traumnote, die Eltern feiern dich und man kann entspannt weiter zur nächsten Netflix Serie Video, Fitnessstudio, TikTok Video. Denken wird ausgelagert und zwar nicht aus Dummheit, sondern aus Bequemlichkeit.
Und was könnte die Konsequenz sein?
Problematisch wird es dort, wo Schüler und natürlich auch Lehrer kaum noch selbst denken, schreiben oder nachfragen. Inhalte werden übernommen, ohne sie wirklich zu verstehen oder zu prüfen. Denn das eigene Denken wird abgegeben und so verliert man mit der Zeit die Fähigkeit, Zusammenhänge zu erkennen, Argumente abzuwägen und Fragen zu stellen. Lernen und Unterrichten wird schnell erledigt statt sich tiefer mit Inhalten und Aufgabenstellungen auseinanderzusetzen .
Das hat Folgen über die Schule hinaus. Wer es nicht gewohnt ist, Informationen kritisch zu prüfen, merkt später oft nicht, wenn Aussagen vereinfacht, verzerrt oder manipulativ sind. Demokratie lebt davon, dass Menschen widersprechen, vergleichen und sich eine eigene Meinung bilden. Wenn diese Fähigkeiten fehlen, werden einfache Parolen attraktiver und komplexe Probleme auf schnelle Lösungen reduziert.
Gleichzeitig entsteht eine Ungleichheit. Viele verlassen sich auf KI und konsumieren Inhalte passiv, während nur wenige weiterhin selbst denken, reflektieren und gestalten. Diese kleine Gruppe gewinnt langfristig mehr Einfluss, während der Rest Entscheidungen hinnimmt. Genau so funktionieren autokratische Systeme. Wenige bestimmen und viele folgen.
KI kann beim Lernen helfen, aber sie darf nicht das Denken ersetzen. Schule ist einer der wenigen Orte, an denen kritisches Denken, Diskussion und Zweifel bewusst gelernt werden. Geht das verloren, wird nicht nur Bildung schwächer, sondern auch die Grundlage einer demokratischen Gesellschaft. Denn wer das Denken abgibt, verliert nicht nur Wissen und Kreativität, sondern entwickelt auch keine eigene kritische Haltung im gesellschaftlichen Zusammenleben .
Wir haben die KI selbst nach Visionen und Szenarien gefragt:
- Worst Case: Eine Generation, die nicht mehr selbst denkt, sondern nur noch konsumiert. Entscheidungen werden von Algorithmen vorgegeben. Bildung, Demokratie und Innovation stagnieren. Die meisten Menschen leben in „komfortabler Bequemlichkeit“, während eine kleine Elite denkt, gestaltet und die Richtung vorgibt.
- Best Case: Schulen und Lehrkräfte erkennen die Risiken, setzen bewusst auf kreative Aufgaben, Diskussionen und Reflexion, auch wenn KI unterstützt. Maschinen werden zu Werkzeugen, nicht zu Ersatz für Denken. Effizienz und Kreativität koexistieren.
- Realistisch wahrscheinlich: Eine Mischung. Viele übernehmen Routineaufgaben der KI, einige wenige bleiben aktiv in Gestaltung und kritischer Reflexion. Gesellschaftliche Macht und Innovationskraft verschiebt sich zunehmend zu denen, die weiterhin selbst denken.
