Multimodale Modelle und Agentische KI: Generative KI im Jahr 2025
Mit dem Eintritt in das Jahr 2025 formt die generative KI weiterhin unsere Kommunikation, Problemlösung und Interaktion mit Technologie sowie untereinander um. Dies wird durch signifikante Fortschritte bei Großen Multimodalen Modellen (LMMs) und das rapide Wachstum der Agentischen KI hervorgehoben. Diese und andere Innovationen versprechen, Künstliche Intelligenz schneller, leistungsfähiger und stärker in unser tägliches Leben integriert zu machen, während sie gleichzeitig weiterhin wichtige Fragen bezüglich Vertrauen, Regulierung und Implementierung aufwerfen.
Große Multimodale Modelle: Erweiterung des KI-Spektrums
Multimodale Modelle – Systeme, die Text, Vision, Sprache und in einigen Fällen weitere Modalitäten integrieren – erweitern die Fähigkeiten von KI-Workflows weit über die größtenteils textbasierten Systeme hinaus, die noch vor einem Jahr dominierten. Dies zeigt sich bereits in der Evolution multimodaler Unternehmensdienstleistungen, die von Google, OpenAI und Anthropic angeboten werden. Doch auch Open Source hält Schritt, mit Modellen wie Alibabas QVQ-72B Preview und Metas bevorstehendem Llama 4-Release, das sich auf Sprache und Reasoning
konzentriert. Open-Source-KI demokratisiert weiterhin den Zugang und fördert Innovationen in allen Branchen.
Auch die visuelle KI macht bemerkenswerte Fortschritte. Metas Segment Anything Model (SAM) isoliert visuelle Elemente mit minimaler Eingabe und ermöglicht Anwendungen in der Videobearbeitung, Forschung und im Gesundheitswesen. Unterdessen hat das ARMOR-System von Carnegie Mellon und Apple mit seinen verteilten Tiefensensoren die räumliche Wahrnehmung von Robotern verbessert, wodurch Kollisionen um 63,7% reduziert und Daten 26-mal schneller als mit herkömmlichen Methoden verarbeitet werden können.
Auch Sprachsysteme machen Fortschritte. Modelle wie Hertz und Kyutais Moshi erreichen beeindruckende Reaktionszeiten – in einigen Fällen unter 120 Millisekunden – und versprechen immer natürlichere Interaktionen. Dennoch bestehen Herausforderungen fort: Stimmenpersonalisierung, Kontextbeibehaltung und Inferenzkosten bleiben kritische Herausforderungen.
Agenten-KI: Auf dem Weg zu größerer Autonomie
Agenten-KI repräsentiert einen Wandel in der Funktionsweise von LLMs, indem sie ihnen durch kontrollierten Zugriff auf Werkzeuge und Arbeitsabläufe verschiedene Grade von Autonomie gewährt. Im Gegensatz zu traditionellen „KI-Contact-Center-Agenten“, die primär als Konversationsschnittstellen dienen, existieren Agenten-KI-Systeme entlang eines Kontinuums integrativer Fähigkeiten. Diese Evolution ermöglicht es ihnen, reale Probleme jenseits ihrer Trainingsdaten durch Interaktion mit externen Systemen zu lösen.
Agenten-KI im Contact Center kann breit verstanden werden als entlang eines Spektrums der Autonomie operierend, das wie folgt aussehen könnte:
- Geringe Agentur (☆☆☆): LLMs generieren Textantworten auf Benutzereingaben.
- Moderate Agentur (★☆☆ – ★★☆): LLMs klassifizieren und leiten Anrufe weiter, rufen Kundendaten ab oder interagieren mit Werkzeugen wie Bestellauskunft und FAQ-Abruf.
- Hohe Agentur (★★★): LLMs verwalten autonom Gesprächsverläufe, initiieren oder beenden Interaktionen und treffen in Echtzeit zielbasierte Entscheidungen.
Diese Sichtweise der Agenten-KI wird von großen Akteuren wie HuggingFace unterstützt, „Agentur entwickelt sich auf einem kontinuierlichen Spektrum, je nachdem, wie viel oder wenig Macht Sie dem LLM in Ihrem Workflow geben.“, sowie von Branchenanalysten wie Gartner, „KI-Agentur ist ein Spektrum.“ Dieses Spektrum verdeutlicht, wie sich Agenten-KI an verschiedene Geschäftsanforderungen anpassen kann. Zum Beispiel exzellieren innerhalb der einheitlichen Spitch-Plattform Lösungen mit hoher Agentur wie der Coaching-Simulator oder Sprachassistenten und Chatbots in anpassbaren natürlichen Antworten und fortgeschrittenem Anruf-Routing, während werkzeugintegrierte Systeme wie Agent Assist und Speech Analytics komplexe Hintergrundautomatisierung für Live-Interaktionen und Nachgesprächsanalysen durchführen.
Im Jahr 2025 wird die rasche Expansion von Agenten-KI-Anwendungsfällen – insbesondere im Kundenbeziehungsmanagement – Arbeitsabläufe neu definieren und es Unternehmen ermöglichen, eine Balance zwischen Automatisierung, Effizienz und Benutzererfahrung zu finden.
Kleiner, Intelligenter, Schneller: Der Aufstieg der SLMs
Auch Small Language Models (SLMs) sind im Trend. In einigen Fällen entsprechen diese Modelle der Leistung größerer Systeme wie GPT-4 bei zielgerichteten Aufgaben, während sie auf Standardhardware laufen. Diese Verschiebung adressiert die Bedürfnisse von Unternehmen nach skalierbarer, kosteneffektiver KI. In diesem Bereich haben Google Research und DeepMind kürzlich einen neuen Ansatz vorgestellt, bei dem SLMs als Lehrer verwendet werden, um wesentlich größere Modelle zu trainieren.
Contact Center als Fallstudie
Der sich entwickelnde Einfluss der generativen KI ist besonders in Contact Centern evident. Laut einem aktuellen Bericht von McKinsey spiegelt diese Verschiebung drei wesentliche Veränderungen wider, die die Branche erfassen: Contact Center werden nun als Geschäftschancen statt als Triagepunkte betrachtet, Organisationen erweitern ihre KI-Ökosysteme, um diese Bestrebungen zu unterstützen, und es gibt einen wachsenden Fokus auf die Weiterqualifizierung von Mitarbeitern durch besseres Onboarding, Training und Coaching.
Frühe Anwender wie Klarna haben von einer 14-prozentigen Reduzierung der Kundenservicekosten berichtet, während KI-gesteuerte Systeme bis zu 80 % der Routineinteraktionen bewältigen. KI-gestützte Trainingsplattformen, wie die derzeit bei Spitch entwickelte, revolutionieren auch die Personalentwicklung, indem sie Echtzeit-Coaching und personalisierte Simulationen anbieten, die die Einarbeitungszeit verkürzen und die Mitarbeiterleistung verbessern.
Trotz dieser Fortschritte bleibt die Akzeptanz begrenzt. Nur 6,1 % der US-amerikanischen Unternehmen implementierten im Jahr 2024 KI-Lösungen. Zu den Herausforderungen gehören die Integration in bestehende Systeme, hohe Schulungskosten und ein erhebliches öffentliches Misstrauen. Laut Qualtrics bleiben 75 % der Verbraucher skeptisch gegenüber der Nutzung von KI durch Unternehmen, was einem Rückgang von 11 % gegenüber 2023 entspricht.
Überwindung von Inferenz-Herausforderungen
Die Inferenz bleibt ein Engpass für die weit verbreitete KI-Adoption. Unternehmen wie Groq und Cerebras entwickeln spezialisierte Hardware für Echtzeit-Anwendungen und erreichen bis zu 70-fach schnellere Inferenzgeschwindigkeiten. Andere, wie Acurast, nutzen verteiltes Rechnen, um fortschrittliche Modelle auf handelsüblichen Geräten auszuführen und bieten skalierbare Lösungen für nicht zeitkritische Aufgaben. Währenddessen gewähren große Anbieter wie OpenAI erhebliche Rabatte auf die Inferenz ihrer Standard-Kundenmodelle.
Regulierung, Daten & Vertrauen
Mit dem nun in Kraft getretenen EU AI Act bietet Europa einen der fortschrittlichsten regulatorischen Rahmen für den KI-Einsatz, der technische Robustheit, Transparenz und Datenschutz betont. Die Herausforderung, die Einhaltung zu bewerten, bleibt jedoch ungelöst. Jüngste Forschungen der ETH Zürich unterstreichen diese Lücke und zeigten, dass keines der heute am weitesten verbreiteten großen Sprachmodelle (LLMs) die Anforderungen des Gesetzes vollständig erfüllt. Im Jahr 2025 wird es weiterhin eine wichtige Priorität bleiben, Compliance-Benchmarks zu entwickeln, die die legislative Auslegung mit praktischen Evaluierungsmethoden in Einklang bringen und so sowohl Sicherheit als auch Innovation gemeinsam fördern.
OpenAI-Mitbegründer Ilya Sutskever bemerkte kürzlich, wir nähern uns dem „Peak Data.“ Die Verfügbarkeit hochwertiger Trainingsdatensätze schwindet, was die Branche in Richtung synthetischer Datengenerierung und Echtzeit-Lernen drängt. Diese Fortschritte werden wahrscheinlich die Wachstumstrajektorie der KI in den kommenden Jahren definieren und sich von der Mustererkennung hin zu echtem Denken und adaptivem Lernen bewegen.
Unterdessen müssen Unternehmen weiterhin Datentransparenz, ethische Praktiken und messbare Kundenvorteile priorisieren, um die öffentliche Skepsis zu überwinden und die Akzeptanz voranzutreiben.
Ausblick 2025: Praktische KI im großen Maßstab
Dieses Jahr verspricht erneut zu überraschen und eine beschleunigte Adoption sowie praktische Integration von KI in geschäftliche und Verbraucheranwendungen. Zu den wichtigsten zu beobachtenden Trends gehören:
- Verbreitung multimodaler Modelle: Erweiterte Anwendungen in Branchen wie Gesundheitswesen, Logistik und Kundenservice.
- Evolution der Agentic KI: Schnell voranschreitende Autonomie von Modellen mit hoher Handlungsfähigkeit, die die Effizienz in Arbeitsabläufen und bei der Problemlösung vorantreibt.
- Unternehmensadoption: Breitere Implementierung, wobei KI einen stetig wachsenden Prozentsatz der Routineaufgaben in Organisationen der frühen Anwender übernimmt.
- Kosteneffizienz: Inferenzkosten sinken unter 10 Dollar pro Million Token, was KI zugänglicher macht und auf zunehmend komplexe Probleme anwendbar macht.
Die Herausforderung für Organisationen besteht darin, Innovation mit Vertrauen, Automatisierung mit Kundenzufriedenheit und Compliance mit Skalierbarkeit in Einklang zu bringen. Erfolg wird denjenigen zuteil, die diese Spannungen umsichtig navigieren und dabei klaren, messbaren Wert liefern - ein Unterfangen, bei dem die strategische Beratung durch Spitch und dessen Partner-Ökosystem eine entscheidende Rolle spielt, um Unternehmen bei der Anpassung an diese sich rapide verändernde Landschaft zu unterstützen.
Generative KI ist nicht bloß ein Werkzeug - sie ist eine transformative Kraft. Im Jahr 2025 werden Unternehmen, die ihr Potenzial verantwortungsvoll nutzen, die nächste Welle der Mensch-Maschine-Kollaboration anführen.