Jenseits des Prompts: Die neurosymbolische Zukunft der CX
Von Josef Novak, Chief Innovation Officer und Mitgründer bei Spitch
Ich habe die letzte Woche damit verbracht, mit drei verschiedenen Perspektiven in die Zukunft der KI einzutauchen: nämlich in Andrej Karpathys „March of Nines“, das 2026 CIO Playbook for Governance, und eine faszinierende Fallstudie über „autonome Architekten“, die Multi-Agenten-Schwärme nutzen, um Altdatenbanken neu zu gestalten.
Auf den ersten Blick scheinen Datenbank-Sharding und Contact-Center-IVR Welten voneinander entfernt zu sein. Tatsächlich glaube ich jedoch, dass diese Trends im Zentrum einer einzigen, dringenden Herausforderung zusammenlaufen: Wie entwickeln wir die KI von „beeindruckenden Demos“ hin zu einer „vertrauenswürdigen Lösung auf Enterprise-Niveau“?
Die 90-%-Falle (Der „March of Nines“)
Karpathy stellt in seinem Artikel fest, dass es in der Regel der einfache Teil ist, ein Modell auf 90 % Genauigkeit zu bringen. Nun ja, nicht immer, aber in der Enterprise-CX sind 90 % ein Misserfolg. Wenn einer von zehn Kunden von Ihren KI-Agenten missverstanden wird, bricht das Vertrauen an vorderster Front zusammen. Doch jede weitere Neun – 99 %, 99,9 %, 99,99 % – wird dramatisch schwieriger zu erreichen.
Um die Lücke zu diesen letzten „Neunen“ zu schließen, mit denen wir schliesslich einen akzeptablen und dann aussergewöhnlichen Service erreichen, müssen wir aufhören, LLMs als eigenständige Zauberkästen zu betrachten. Wir müssen sie als Komponenten innerhalb einer grösseren, gesteuerten Architektur behandeln.
Das „Grounding-Problem“ in der Konversation
Das Experiment der „autonomen Architekten“ verdeutlichte eine kritische Hürde: das Grounding-Problem. Ein KI-Agent kann ein mathematisch perfektes Datenbankschema vorschlagen, das funktional nutzlos ist, weil es die „komplizierten“ politischen oder betrieblichen Nuancen des Unternehmens nicht versteht.
Im Contact Center ist das Grounding sogar noch wichtiger. Ein S2S-Modell hört vielleicht einen Kunden sagen: „Ich bin hiermit fertig“, und kommt mathematisch zu dem Schluss, dass die Absicht „Anruf beenden“ lautet. Ein menschlicher Mitarbeiter – oder ein gut konzipiertes System – weiss jedoch, dass dies im Kontext „Eskalation zur Kundenbindung“ bedeuten kann.
Ohne ein Framework, um diese „neuronalen“ Interpretationen in einer „symbolischen“ Geschäftslogik zu verankern, bauen Sie keine Automatisierung auf; Ihre Organisation generiert lediglich technische Schulden.
Unser Ansatz: Der neurosymbolische Hybrid
Bei Spitch.ai betrachten und konzipieren wir Collaborative AI als unterstützende Kraft, nicht als Ersatz. Wir adressieren die Verankerung durch die Verschmelzung dreier Elemente:
- Das Neuronale (LLMs): Wir verwenden hochmoderne Speech-to-Speech-Modelle sowie multimodale LLMs, um Nuancen, Empathie und die Komplexität menschlicher Sprache zu bewältigen.
- Das Symbolische (Leitplanken): Wir binden diese „Kreativität“ in deterministische Zustandsautomaten und „Legacy“-Logik wie DTMF- und Transferprotokolle ein.
- Die menschliche Autorität: Alle Dienste existieren, um Menschen zu unterstützen – sowohl die Kunden, die anrufen, um Probleme zu lösen, als auch die menschlichen Agenten, die letztendlich für deren Lösung verantwortlich sind.
Wir betrachten DTMF, starre Transferlogik oder schrittweise gesteuerte Anrufflüsse nicht als „alte Technologie“. Wir sehen sie als symbolische Anker. Sie sind die Leitplanken auf Plattformebene, die verhindern, dass sich ein S2S-Modell während einer Live-Interaktion „verzettelt“ – und die Struktur, die es LLMs ermöglicht, dort zu glänzen, wo sie am stärksten sind.
Multi-Agent-Debatte zur Entwurfszeit
Eine der wirkungsvollsten jüngsten Veränderungen, die wir implementieren, ist der Übergang von einfacher Prompt-Completion zu verteiltem Reasoning.
- Im Training: Wir setzen in der Designphase „Multi-Agenten-Schwärme“ ein. Ein Agent agiert als frustrierter Kunde, ein anderer als Compliance-Kritiker und ein dritter als Optimierer. Sie „diskutieren“ den Ablauf der Customer Journey, bevor ein einziger Kunde ihn jemals hört.
- In der Produktion: Wir optimieren die Konfiguration, um Latenzzeiten und Token-Verbrauch zu reduzieren, was eine schlankere Customer-Journey-Vorlage hinterlässt, die innerhalb der „symbolischen“ Schienen operiert, welche die KI-Agenten validiert haben. Aufgabenspezifische KI-Agenten übernehmen weiterhin dedizierte Rollen wie die Auftragserfassung oder das Eskalationsmanagement, aber Aufgaben wie die Erstellung einer konsistenten Erstbegrüßung oder das Abrufen von CRM-Informationen können als statisch orchestrierte Schritte gehandhabt werden, die den Token-Verbrauch minimieren.
Der Aufstieg des Experience-Kurators
Dieser Wandel verändert die Rolle des Customer Journey Designers. Sie müssen kein professioneller Linguist oder Programmierer mehr sein; vielmehr müssen Sie Ihr Contact Center sowie das Unternehmen und die Kunden, die es bedient, verstehen. Wie die „autonomen Architekten“ der Daten entwickeln sich unsere Nutzer von „Maurern“ von IVR-Skripten zu Kuratoren von Customer Experience Journeys. Der Wert liegt hier darin, dass die CX-Stakeholder, die den Betrieb am besten kennen, mehr denn je befähigt sind, die Customer-Journey-Architekturen zu steuern, die den grössten Nutzen bringen.
Der Wettbewerbsvorteil im Jahr 2026 wird nicht dem Unternehmen mit dem „klügsten“ Modell gehören. Er wird dem Unternehmen gehören, das die am besten gesteuerte, fundierte und orchestrierte Autonomie liefern kann. Sie werden Unternehmen dabei helfen, ihre CX-Visionen effektiver als je zuvor zu verwirklichen und sicherzustellen, dass Kunden immer das finden, wonach sie suchen.
Bei Spitch.ai bauen wir nicht nur Agenten, die sprechen. Wir bauen die Frameworks, die sie zum Zuhören bringen. Kontaktieren Sie uns, um mehr über unsere Collaborative Agentic AI Platform und Lösungen zu erfahren.
