Die KI-Content-Explosion: Warum Lernende lächeln und wir trotzdem genauer hinschauen sollten

Die KI-Content-Explosion: Warum Lernende lächeln und wir trotzdem genauer hinschauen sollten

Es gibt diese Momente im L&D-Alltag, die sich anfühlen wie ein Zeitsprung. Man öffnet montagmorgens ein Autorentool, tippt ein paar Zeilen, und bevor der Kaffee seine Temperatur gefunden hat, steht da: ein Skript. Dann noch ein Quiz. Und wenn man schon mal dabei ist: ein Erklärvideo mit Avatar, bitte im “freundlich-kompetent”-Ton, 90 Sekunden, plus zwei Varianten für unterschiedliche Zielgruppen.

Früher war Lerncontent Handwerk. Heute ist er Fließband und zwar nicht, weil wir plötzlich alle weniger Wert auf Qualität legen, sondern weil die Produktionskapazität explodiert ist. Genau diese Verschiebung – vom knappen Gut „Content“ hin zur industriellen Verfügbarkeit – nimmt Dr. Philippa Hardman in ihrem Text The AI Content Explosion: What Your Learners Actually Think (And Why It Matters) (11. Dezember 2025) auseinander.

Unsere Kollegin Maria Matthäus hat die Kernaussagen daraus intern so verdichtet, dass man beim Lesen gleichzeitig nicken, grinsen und kurz schlucken möchte.

Hardmans Perspektive ist dabei angenehm unromantisch: Die spannende Frage ist nicht mehr, ob wir KI-generierte Inhalte einsetzen, sondern: Was macht das mit den Menschen, die diese Inhalte konsumieren sollen? Und – noch wichtiger – wie fühlt sich das für Lernende an? Denn im Lernkontext ist „Gefühl“ keine Deko. Es ist oft der Motor.

Was Lernende Ende 2025 tatsächlich vorfinden – die neue Normalität

Wenn man Hardmans Synthese (Studienlage 2023–2025) liest, wirkt es fast banal: Lernende begegnen KI längst nicht mehr nur als Chatfenster. KI ist inzwischen eine ganze Medienfamilie.

Da sind zum Beispiel:

  • KI-Tutoren & Chatbots, die rund um die Uhr antworten und dabei freundlich bleiben, egal wie oft man dieselbe Frage stellt.
  • Synthetische Instruktoren / KI-Videos, die zunehmend klassische „Talking-Head“-Videos ersetzen.
  • KI-generierte Assessments (Fragenpools, adaptive Quizzes, Übungsaufgaben), die in der Menge beeindrucke, bis der erste Fehler auffällt.
  • Personalisierte Lernpfade, die sich an Vorlieben und Leistung anpassen und damit auch Lernbiografien still und leise mitformen.
  • Multimodale Inhalte (Text, Audio, Bild, Video in Kombination), die entweder genial entlasten oder die kognitive Kapazität überfahren, je nachdem, wie gut (oder schlecht) sie gestaltet sind.

Das Entscheidende: In der Debatte sprechen wir – als Branche – auffallend gern über Produktionseffizienz. Lernende erleben aber Lernrealität. Und die ist nicht automatisch deckungsgleich mit „schneller produziert“.

Die überraschend differenzierte Haltung der Lernenden

Hardmans Befund klingt zunächst beruhigend: Lernende sind häufig vorsichtig optimistisch. Viele finden KI bequem, zugänglich und nützlich. Aber: Diese Zustimmung ist selektiv. Sie hängt am Inhaltstyp, am Kontext und an etwas sehr Menschlichem: Vertrauen.

1) Chatbots: geliebt – und gleichzeitig als „Antwortmaschine“ missverstanden

Wenn Lernende über KI-Tutoren sprechen, klingt das oft wie eine Ode an die Verfügbarkeit: sofortige Antworten, kein Warten auf Sprechstunden, kein Schamgefühl bei „dummen Fragen“.

Und dann kommt der zweite Satz: Viele nutzen Bots eben nicht als Denkpartner, sondern als Abkürzung. „Gib mir die Lösung.“ Punkt. Das ist menschlich. Und didaktisch brisant, weil es selbstreguliertes Lernen schwächen kann, also genau das, was wir eigentlich stärken wollen.

2) KI-Videos: akzeptiert, aber nicht überall willkommen

Bei prozeduralen Themen (Schritt-für-Schritt, Demos, Basics) können KI-Videos laut Hardmans Überblick beim Verständnis durchaus mithalten, wenn Skript und Didaktik stimmen.

Sobald es aber um Beziehung, Ethik, Identität oder emotional aufgeladene Themen geht, kippt die Präferenz deutlich Richtung Mensch. Und dann gibt es noch diesen Sonderfall der modernen Medienpsychologie: den Uncanny-Valley-Effekt. Hyper-realistische Avatare, die „fast“ menschlich sind, wirken auf viele Lernende nicht futuristisch, sondern… komisch. Oder beunruhigend.

Das ist kein ästhetischer Nebenkriegsschauplatz. Unbehagen senkt soziale Präsenz und soziale Präsenz beeinflusst, ob Lernende nachfragen, zweifeln, dranbleiben.

3) KI-Assessments: „mehr“ ist gut – bis „falsch“ auftaucht

Bei Übungsfragen und Quizzes mögen Lernende die Masse: mehr Material, mehr Varianten, mehr Training. Aber KI-Items haben ein Glaubwürdigkeitsproblem, sobald mehrdeutige Fragestämme, falsche Lösungsschlüssel oder sachliche Fehler auftreten. Und das ist der Punkt, an dem aus „coolem KI-Kurs“ schnell „dieser Kurs ist schlampig“ wird, selbst wenn der Rest solide ist.

4) KI-Beispiele & Musterlösungen: hilfreich – aber der Zeitpunkt entscheidet über den Effekt

Hier wird Hardmans Text fast schon literarisch, weil er ein eigentlich schlichtes Muster beschreibt: Lernende lieben Beispiele, weil Beispiele Sicherheit geben. Aber Sicherheit ist im Lernen ein zwiespältiges Geschenk.

Wenn Beispiele zu früh kommen, wird es bequem und bequem ist oft der Feind der Kompetenz. Wenn Beispiele nach einem ersten eigenen Versuch kommen, entsteht diese produktive Reibung: Vergleichen, reflektieren, korrigieren. Und genau diese Sequenz scheint in Studien zu besseren späteren Leistungen ohne KI zu führen.

Das zentrale Paradox: Zufriedenheit ist nicht gleich Fähigkeit

Hardman formuliert einen Satz, der hängen bleibt, weil er unangenehm plausibel ist:

“They feel great while learning less.”

Das ist kein Kulturpessimismus. Das ist ein Hinweis darauf, dass Lernerleben (Confidence, Zufriedenheit, „fühlt sich gut an“) und Lernergebnis (Kompetenz, Transfer, unabhängige Leistung) auseinanderlaufen können, besonders bei Anfänger:innen.

Und hier wird es für L&D spannend, weil es eine alte Wahrheit neu anstreicht: Menschen bewerten Lernangebote nicht nach dem didaktischen Bauplan, sondern nach dem, was sie spüren. Vertrauen, soziale Präsenz, das Gefühl von „das ist meine Mühe wert“ – all das kann Engagement stärker beeinflussen als technische Brillanz.

Warum uns das interessieren sollte – auch wenn wir keine Technik-Skeptiker sind

Die bequemste Fehlannahme der letzten zwei Jahre war: „Wenn es schneller produziert ist und die Leute es mögen, wird es schon passen.“ Hardmans Überblick zeigt: So einfach ist es nicht. KI-Inhalte können sehr wohl funktionieren, aber Lernende reagieren nicht auf „KI“ als Label, sondern auf Passung, Transparenz, Fehlerfreiheit und menschliche Anschlussfähigkeit.

Und damit sind wir schon beim Übergang zum nächsten Kapitel: Während wir noch diskutieren, ob ein Avatar „sympathisch genug“ lächelt, beginnt die KI gerade, ganz andere Dinge zu tun.

Denn die nächste Welle heißt nicht „Content“. Sie heißt: Agenten.

(Fortsetzung folgt in Blogartikel 2: Was passiert, wenn KI nicht nur Inhalte erstellt – sondern unsere Dateien sortiert, Reports schreibt und als „Kollegin“ auf dem Desktop wohnt?)