Eine Zahl, die man erstmal sacken lassen muss: 94 Prozent der Unternehmen, die in generative AI investiert haben, sehen laut McKinsey keinen messbaren Return. Gleichzeitig bauen Firmen weiterhin tausende Stellen ab mit der Begründung: AI übernimmt das jetzt.
Zwei Drittel dieser Unternehmen haben inzwischen angefangen, genau diese Stellen wieder zu besetzen. Manche innerhalb von sechs Monaten. Sie haben gemerkt, was passiert, wenn man komplette Rollen automatisiert, die in Wahrheit aus Dutzenden Aufgaben bestehen, von denen AI vielleicht drei gut kann. Nicht die Rolle war überflüssig. Das Verständnis dafür, was die Rolle eigentlich ausmacht, hat gefehlt.
Die Junior Death Spiral
Im Tech-Sektor passiert gerade etwas, das in fünf Jahren richtig wehtun wird. Einstiegspositionen für Entwickler sind massiv zurückgegangen. Die Logik der Entscheider klingt erstmal vernünftig: Einfache Tasks lassen sich automatisieren, also brauchen wir weniger Juniors.
Das Problem: Juniors von heute sind die Seniors von morgen. Wer keine Juniors einstellt, hat in fünf Jahren niemanden, der das System versteht. Niemanden, der gewachsen ist mit den Entscheidungen, den Altlasten, den Kompromissen, die jede echte Codebasis ausmachen. Man spart sich die Ausbildung und wundert sich dann, warum es keine erfahrenen Leute gibt.
Die Talent-Pipeline trocknet aus, und kein AI-Tool der Welt wird das kompensieren. Erfahrung entsteht nicht durch Prompts. Sie entsteht, indem man jahrelang Entscheidungen trifft, Fehler macht und versteht, warum ein System so geworden ist, wie es ist.
Code auf Pump
Google sagt, ein Viertel des neuen Codes sei bereits AI-generiert. Das klingt nach Produktivität. Ist es aber nicht. Nicht automatisch.
AI schreibt funktionierenden Code. Aber sie optimiert nicht auf Lesbarkeit, Wartbarkeit oder architektonische Klarheit. Sie nimmt Muster, die sie gesehen hat, und reproduziert sie. Das Ergebnis: mehr Code statt besserer Abstraktionen. Mehr Zeilen statt klarerer Architektur. Eine aktuelle Schätzung beziffert die weltweite technische Schuld auf 61 Milliarden Arbeitstage. Wenn niemand den generierten Code wirklich durchdenkt, wächst dieser Berg mit jeder automatisierten Iteration schneller, als Teams ihn abtragen können.
Das ist Code auf Pump. Du baust heute schneller, aber du zahlst morgen mit Zinsen.
Wenn AI Verantwortung übernehmen soll, die sie nicht tragen kann
In der Medizin wird es greifbar. Über 1.300 AI-gestützte Medizinprodukte sind zugelassen. Gleichzeitig häufen sich Berichte über Halluzinationen mit realen Konsequenzen. Falsch rekonstruierte Bilddaten, die Strukturen zeigen, die im Körper gar nicht existieren. Ein Chirurg, der den Schädel eines Patienten verletzt, weil das System falsche Positionsdaten liefert.
Wenn ein Mensch einen Fehler macht, kannst du ihn haftbar machen. Du kannst ihn nachschulen. Du kannst den Fehler nachvollziehen und daraus lernen. Wenn eine AI halluziniert, passiert das in Echtzeit und im großen Maßstab. Und es gibt niemanden in der Maschine, den du zur Verantwortung ziehen kannst.
IBM hat das 1979 in einem internen Trainingsmanual formuliert: “A computer can never be held accountable. Therefore, a computer must never make a management decision.” 47 Jahre alt, und aktueller als je zuvor.
Wenn selbst die Experten scheitern
Auch die, die es eigentlich besser wissen müssten, stolpern über dieselben Grenzen. Ein großer Consulting-Konzern musste einem Bundesstaat eine AI-generierte Analyse erstatten, die voller Fake-Zitate und erfundener Studien steckte. Eine Kanzlei, die einen der großen AI-Hersteller vertritt, musste vor Gericht zugeben, dass ihre Schriftsätze eine komplett erfundene Referenz enthielten. Generiert vom Produkt ihres eigenen Mandanten.
Und dann McKinsey selbst. Die Firma, die 94 Prozent ohne ROI misst und gleichzeitig allen rät, in AI zu investieren, hat ihr eigenes AI-Tool “Lilli” nicht im Griff. Forscher von Codewall haben das System in zwei Stunden kompromittiert: eine SQL-Injection-Schwachstelle, fast ein Dutzend API-Endpunkte ohne jede Authentifizierung, vollständiger Zugriff auf die Produktionsdatenbank mit Millionen von Chat-Nachrichten und der gesamten Wissensbasis. Codewall kommentiert: “This was not a startup. This was McKinsey & Company with first-class technology teams and substantial security investments.” Eine Schwachstelle, die ein erfahrener Security-Mensch beim Code-Review gefunden hätte.
Das sind keine Anekdoten. Es ist ein strukturelles Problem. AI-Output sieht überzeugend aus. Immer. Auch wenn er falsch ist. Ohne Menschen, die prüfen, hinterfragen und verstehen, was sie da absegnen, wird dieser Output zur Zeitbombe. Das gilt für Texte, für Code und für ganze Systeme.
AI Washing
Parallel dazu etabliert sich ein neues Muster: AI als Narrativ. Layoffs werden mit AI begründet, obwohl die eigentlichen Ursachen Managementfehler, sinkende Margen oder verfehlte Strategie sind. Produkte werden als “AI-powered” vermarktet, obwohl dahinter menschliche Arbeit steckt.
Das bekannteste Beispiel: Supervan, ein Logistik-Startup, das Investoren eine AI-gesteuerte Plattform verkaufte. In den Insolvenzunterlagen zeigte sich, dass die angeblich automatisierten Prozesse in Wahrheit von Hunderten schlecht bezahlter Arbeiter in Indien manuell erledigt wurden. Die AI war eine Fassade. Kein Einzelfall: Die SEC hat inzwischen begonnen, gegen AI Washing vorzugehen, weil immer mehr Unternehmen AI-Fähigkeiten vortäuschen, die nicht existieren.
Die Kluft zwischen Versprechen und Realität wächst. Und je länger sie wächst, desto härter wird die Korrektur.
Das eigentliche Problem
All diese Beispiele sind öffentlich. Die Daten liegen auf dem Tisch. Die Fails sind dokumentiert. Und trotzdem wird sich in den meisten Unternehmen wenig ändern. Warum?
Weil die ehrliche Frage, die sich viele stellen, nicht lautet: “Wie nutzen wir AI besser?” Sondern: “Warum soll ich überhaupt was ändern? Hat doch bisher auch so geklappt.”
Das ist das eigentliche Problem. Nicht die Technologie. Nicht mal die überzogenen Erwartungen. Sondern die fehlende Erkenntnis, dass sich etwas ändern muss. Kein Druck, keine Motivation, kein Gefühl der Dringlichkeit. Die Quartalszahlen sehen okay aus. Die Projekte laufen irgendwie. Der AI-Chatbot auf der Website macht einen modernen Eindruck. Reicht doch.
Nur: “Reicht doch” ist die gefährlichste Haltung in einer Welt, die sich gerade fundamental verschiebt. Die Unternehmen, die heute ihre Talent-Pipeline austrocknen, merken den Schmerz nicht morgen. Sie merken ihn in drei, vier, fünf Jahren, wenn die erfahrenen Leute weg sind und niemand nachgerückt ist. Wenn die technischen Schulden so hoch sind, dass jede Änderung am System ein Risiko wird. Wenn die Konkurrenz nicht schneller automatisiert hat, sondern klüger investiert.
Der Wandel passiert nicht, weil jemand eine Studie liest. Er passiert, wenn der Schmerz groß genug wird. Und für viele wird er das. Die Frage ist nur, ob sie dann noch die Menschen haben, die das Ruder rumreißen können.
Die Recovery-Phase
Die Gewinner in dieser Phase sind nicht die, die am meisten automatisiert haben. Es sind die, die verstanden haben, wo AI aufhört und menschliches Urteilsvermögen anfängt. Architekten und erfahrene Entwickler, die begreifen, warum AI-Logik versagt. Die Systeme stabilisieren, Risiken begrenzen und Entscheidungen treffen können, die kein Modell treffen sollte. Der Markt bewegt sich weg von blinder Automatisierung hin zu gezielter Kombination.
AI verschiebt den Wert menschlicher Arbeit nach oben. Routineaufgaben werden billiger, ja. Aber Urteilsvermögen, Verantwortung, Systemverständnis, Kontextwissen: all das wird wertvoller. Nicht trotz AI, sondern wegen ihr.
Wer AI als Werkzeug versteht, das menschliche Beurteilung braucht, baut robuste Systeme. Wer versucht, Menschen komplett aus der Schleife zu nehmen, riskiert teure Fehlinvestitionen, Qualitätsprobleme und Vertrauensverlust.
Vielleicht ist die ehrlichste Frage, die sich jede Führungskraft gerade stellen sollte, nicht “Wo können wir AI einsetzen?”, sondern “Wo dürfen wir auf keinen Fall aufhören, Menschen einzusetzen?” Die Antwort darauf wird in drei Jahren darüber entscheiden, welche Unternehmen noch stehen und welche ihre teuerste Abkürzung bereuen.