VOM GETUSCHEL ZUR DIGITALEN BÜHNE – Verena Fink im TeleTalk Magazin

Kürzlich bin ich im neuen MIT-Report State of Al in Business 2025 über eine krasse Zahl gestolpert: 95% aller generativen Kl-Projekte in Unternehmen bringen keinen messbaren Nutzen. Klingt wie ein Weckruf?

Seit Monaten sprechen alle über Produktivitätsgewinne durch KI, über Automatisierung, über Effizienz. Ich treibe durch meine KI-Projekte und Bücher selbst die Verbreitung von KI voran und finde es wichtig, auch über diese Erfolgslücke zu sprechen. In den USA sind laut dem Bericht Milliardenbeträge in Pilotprojekte geflossen, die nie über den Teststatus hinausgekommen sind. Nur fünf Prozent der Unternehmen schaffen es, Kl so zu integrieren, dass sie wirklich wirkt. Der Rest steckt fest im sogenannten Pilot Purgatory – einem Dauerexperiment ohne Ergebnis.

Warum ist das so?


Nicht, weil die Technologie zu schwach wäre. Sie ist leistungsfähig wie nie zuvor. Das Problem liegt im menschlich-digitalen Zusammenspiel: KI-Systeme treten oft mit übertriebenem Selbstbewusstsein auf, auch wenn sie falsch liegen. Und Menschen vertrauen diesem Tonfall zu schnell. So entsteht ein Teufelskreis aus Kontrolle, Korrektur und Zeitverlust – besonders in Branchen, in denen Präzision zählt. In der Contact-Center-Welt kennen viele das Muster. Ein schwacher Chatbot beantwortet Kundenanfragen, doch jede zweite Antwort muss von Mitarbeitenden geprüft werden. Was als Entlastung gedacht war, wird zur zusätzlichen Last. Effizienz verpufft, weil Vertrauen fehlt.

Das MIT nennt dieses Phänomen die „GenAl-Divide“ – die Kluft zwischen Experiment und Wirkung. Systeme, die keine Rückmeldung verarbeiten, bleiben auf dem Stand null. Sie lernen nicht, sie passen sich nicht an, sie wiederholen Fehler. Genau darin liegt die wahre Lernlücke der Kl: Sie scheitert nicht an Rechenleistung, sondern an fehlender Selbstreflexion. Manche Unternehmen ziehen daraus Konsequenzen. Sie entwickeln KI-Systeme mit Demut – Werkzeuge, die nicht alles wissen müssen, aber erkennen, wann sie unsicher sind. Statt Antworten als endgültige Wahrheit zu präsentieren, kann Kl heute lernen, ihr eigenes Vertrauen zu kalibrieren. Jede Ausgabe erhält dabei z. B. einen Vertrauenswert, der zeigt, wie sicher die Einschätzung ist. Wenn die Unsicherheit zu groß ist, hält das System inne – und meldet: „Ich weiß es nicht.“ Diese Pause ist kein Schwächezeichen, sondern Teil einer neuen Logik von reflektierender Intelligenz. Die KI kann auch anzeigen, warum eine Antwort unsicher ist – etwa wegen fehlender Daten, widersprüchlicher Quellen oder unklarer Rahmenbedingungen.

Dadurch entsteht ein Dialog über Wissen und Nichtwissen, der das gemeinsame Lernen von Mensch und Maschine fördert.
Das klingt technisch, ist aber pragmatisch. Im Kundenservice bedeutet das: Eine Kl, die signalisiert, wenn sie unsicher ist, spart Zeit und stärkt Vertrauen. Sie zwingt Menschen und Maschine in einen echten Dialog. Mitarbeitende übernehmen nicht mehr die Rolle des Korrektors, sondern des Trainers. Das Ergebnis ist weniger Frust, weniger Nacharbeit – und mehr Qualität im Kundenerlebnis.

Diese „vorsichtig richtige“ Kl funktioniert dort, wo andere scheitern. Nicht, weil sie mehr Daten oder Power hat, sondern weil sie ehrlicher ist. Sie integriert sich leise in Prozesse, lernt aus Feedback und verbessert sich mit jeder Interaktion. Das eigentliche Fazit des MIT-Reports ist also aus meiner Sicht kein Abgesang, sondern eine Einladung. Ki scheitert nicht, weil sie zu wenig kann – sondern weil wir sie oft falsch führen.
Wer sie als Partnerin begreift, die lernen darf, öffnet den Weg zu echter Produktivität.
Vielleicht ist das die wichtigste Erkenntnis für alle, die mit Kun-den, Daten und Dialogen arbeiten: Nicht die lauteste, sondern die lernendste KI gewinnt!