Was L&D von der Automobilbranche lernen kann

Was L&D von der Automobilbranche lernen kann

Oder: Warum ein Lernformat manchmal eher einen Crash‑Test als ein Kick‑off braucht.

Es gibt zwei Sorten Meetings.

Die einen enden mit einem Plan.
Die anderen enden mit dem Satz: „Wir legen jetzt erstmal los.“

In Learning & Development sind wir erstaunlich gut in der zweiten Kategorie. Wir sind kreativ, schnell, lösungsorientiert. Wir können aus einem halben Briefing, zwei Stakeholder-Meinungen und drei Kalenderlücken in kurzer Zeit ein Trainingskonzept zaubern. Manchmal klappt das sogar. Und manchmal… naja. Manchmal rollt das Lernprojekt an, als hätte jemand beim Auto die Türen schön lackiert, aber die Bremsen vergessen.

Und dann passiert das, was in L&D fast schon folkloristisch ist: Wir diskutieren über Inhalte.

„Vielleicht war es zu theoretisch.“
„Vielleicht war es zu lang.“
„Vielleicht braucht es mehr Interaktion.“
„Vielleicht liegt’s an der Zielgruppe.“

Vielleicht. Vielleicht auch nicht.

Die Automobilbranche würde bei „vielleicht“ nervös werden. Nicht, weil dort keine Kreativität existiert, sondern weil dort eine stille Grundannahme herrscht, die wir in L&D uns ruhig häufiger ausleihen dürften: Wenn etwas schiefgeht, ist das selten Pech und fast nie nur ein einzelner Fehler. Es ist ein System.

Erst Output, dann alles andere

In L&D beginnt ein Projekt nicht selten mit: „Wir brauchen ein Training zu…“
In der Autoindustrie beginnt es eher mit: „Was soll das Fahrzeug am Ende können und unter welchen Bedingungen?“

Das klingt banal, ist aber der Unterschied zwischen „wir bauen etwas“ und „wir bauen das Richtige“.

Für Lernformate heißt das: Outcome vor Content.
Nicht „die Teilnehmenden kennen…“, sondern „die Teilnehmenden können…“ und zwar im echten Alltag, unter echten Rahmenbedingungen, mit echten Störfaktoren.

Wenn du das einmal ernst nimmst, ändern sich plötzlich viele Entscheidungen ganz von allein: Dauer, Format, Übungsanteil, Transfermechanik. Und du merkst, dass die eigentliche Frage nicht lautet „Wie machen wir es schön?“, sondern: „Wie machen wir es wirksam?“

Ein Lernprojekt braucht einen Crash‑Test (und nicht erst Applaus)

In L&D feiern wir gern den Launch. In der Autoindustrie ist ein Launch kein Fest, eher ein Ergebnis. Davor liegen Prototypen, Tests, Belastungsfahrten, Checks. Und vor allem: ein Verständnis dafür, dass frühes Scheitern billig ist und spätes Scheitern teuer.

Übertrage das auf Lernen:
Ein Pilot ist kein „kleiner Rollout“, sondern ein Testlabor.
Nicht: „Gefällt’s euch?“
Sondern: „Wo bricht es? Wo stolpern die Teilnehmenden? Wo verlieren wir sie? Welche Übung funktioniert nicht? Wo scheitert Transfer im Alltag?“

Die Autoindustrie würde nie sagen: „Der Testfahrer fand’s nett.“
Sie würde fragen: „Hat es bei 120 km/h im Regen gebremst?“
Wir sollten bei Lernformaten genauso unromantisch werden: Hält es dem Alltag stand?

Weg von Schuld, hin zu Ursachen

Wenn ein Lernprojekt schiefläuft, haben wir in L&D zwei Reflexe:
Entweder wir suchen die Schuld („die Zielgruppe war schwierig“), oder wir machen schnell etwas Neues („wir bauen Version 2.0“).

Beides kann hilfreich sein. Aber beides überspringt den Kern: Warum ist es passiert?
Nicht gefühlt, sondern belegt.

Hier ist die 8D‑Logik aus der Industrie eine kleine Zumutung und genau deswegen so gut. 8D ist im Grunde der Anti‑Reflex: erst Problem sauber beschreiben, dann Sofortmaßnahmen, dann Ursachen, dann Maßnahmen, dann Prävention. Schritt für Schritt, mit Daten, nicht mit Bauchgefühl.

Und plötzlich wird aus „die hatten keine Lust“ vielleicht:

  • Kommunikation kam zu spät,
  • Führungskräfte haben keine Zeit freigegeben,
  • das LMS hat mobil schlecht funktioniert,
  • die Praxisaufgaben passten nicht zum Job,
  • der Output war nie klar, daher war Transfer Zufall.

Das ist nicht weniger unbequem. Aber es ist viel nützlicher.

Standard ist nicht der Feind von Kreativität

In L&D gibt es ein ungeschriebenes Gesetz: Zu viel Standard killt Innovation.
In der Automobilbranche gilt eher: Standard schafft Verlässlichkeit und Verlässlichkeit schafft Raum für Innovation.

Checklisten, Templates, Stage‑Gates, Definition of Done… das klingt nach Bürokratie. Ist es manchmal auch. Aber in der guten Version sind Standards nicht Fesseln, sondern Geländer. Sie sorgen dafür, dass du nicht jedes Mal wieder bei null anfängst. Und sie verhindern, dass aus einem Lernprojekt eine kreative Expedition wird, bei der am Ende niemand weiß, wie man wieder nach Hause kommt.

Ein Beispiel: Wenn du jedes Lernformat verpflichtend durch drei Qualitätsfragen schickst…

  1. Ist der Output als Verhalten formuliert?
  2. Gibt es echte Anwendung/Übung plus Transfer?
  3. Können wir Erfolg belegen und womit?

…dann ist das kein Korsett. Es ist Qualitätsmanagement. Und ja: Das ist sexy. Nur anders sexy.

Die Führungskraft ist in L&D oft das fehlende Bauteil

In der Autoindustrie kann man das beste Fahrzeug bauen, wenn die Straße fehlt, fährt es trotzdem nicht.

In L&D ist das Transferumfeld diese Straße. Und die Führungskraft ist oft der Abschnitt, auf dem alles steht oder fällt: Zeitfreigabe, Priorisierung, Erwartung, Feedback, Verstärkung. Wir behandeln Führungskräfte aber gern wie Zuschauer: „Hier ist das Training – viel Spaß.“

Die Industrie würde darüber lachen. Dort ist klar: Wenn du Performance willst, musst du das System um den Menschen herum mitbauen.

Das bedeutet: Führungskräfte sind nicht nur Stakeholder, sondern Co‑Owner von Transfer.
Nicht mit fünf Zusatzmeetings, sondern mit klaren, kleinen Handgriffen: Briefing, Erwartung, zwei Check‑ins, ein Feedbackmoment, ein sichtbares Signal.

Messung ist nicht Kontrolle – Messung ist Navigation

Viele L&D‑Messungen sind wie ein Tachometer, das nur „gutes Gefühl“ anzeigt. Nett, aber nicht steuerbar.

Die Automobilbranche misst nicht, weil sie Zahlen liebt, sondern weil sie früh erkennen will, ob etwas kippt. Das ist der Unterschied zwischen „Wir schauen am Ende mal“ und „Wir sehen unterwegs, ob wir vom Kurs abkommen.“

Für Lernformate heißt das:

  • Leading Indicators (früh): Startquote, Drop‑off‑Stellen, Übungsabgabe, Teilnahme an Peer‑Sessions, Support‑Tickets
  • Learning Indicators: Skill-Demos, Rubrics, Aufgabenqualität
  • Transfer Indicators: konkrete Anwendung im Job, Manager‑Beobachtung, Follow‑up nach 4–6 Wochen
  • Impact Indicators (später): KPI‑Nähe, Fehlerquote, Produktivität, Time‑to‑competence

Das Wichtigste ist nicht die perfekte Metrik. Das Wichtigste ist eine Messlogik, die verhindert, dass du erst nach dem Rollout merkst: „Oh. Das funktioniert ja gar nicht.“

Eine Kultur, in der man den „Andon‑Cord“ ziehen darf

In der Produktion gibt es das Prinzip: Wenn etwas nicht stimmt, darf jemand die Linie stoppen. Nicht, weil man Drama liebt, sondern weil man Qualität liebt.

In L&D hingegen ist „Stoppen“ oft tabu. Zu viele Kalender, zu viele Erwartungen, zu viel politisches Momentum. Also rollt man weiter, obwohl alle sehen, dass das Rad eiert.

Was wäre, wenn wir uns eine kleine Industrie‑Disziplin erlauben würden:
„Wenn ein kritisches Qualitätskriterium nicht erfüllt ist, stoppen wir – kurz – und stabilisieren.“ Nicht aus Perfektionismus, sondern aus Verantwortung.

Das ist keine Romantisierung von Industrie. Auch dort ist nicht alles besser. Aber eines ist dort sehr klar: Qualität ist kein „Extra“. Qualität ist ein System.

Und wenn wir in L&D ehrlich sind, bauen wir zwar keine Motoren, aber wir bauen etwas, das mindestens genauso sicher sitzen muss: Verhalten unter Druck. Entscheidungen im Alltag. Kommunikation, Führung, Compliance, Sicherheit, Kundenkontakt.

Das verdient ein bisschen mehr Crash‑Test, ein bisschen weniger „wird schon“.
Und vielleicht – nur vielleicht – hilft uns dabei ausgerechnet eine Schildkröte.