Modèles multimodaux et IA agentique : l’IA générative en 2025
À l’aube de 2025, l’IA générative continue de redéfinir notre façon de communiquer, de résoudre des problèmes et d’interagir avec la technologie et entre nous. Cela se manifeste notamment par des avancées significatives dans les modèles multimodaux de grande envergure (LMM) et la croissance rapide de l’IA agentique. Ces innovations, ainsi que d’autres, promettent de rendre l’IA plus rapide, plus performante et plus intégrée dans notre vie quotidienne, tout en continuant à soulever d’importantes questions concernant la confiance, la réglementation et la mise en œuvre.
Modèles multimodaux de grande envergure : élargir le champ d’action de l’IA
Les modèles multimodaux – des systèmes qui intègrent le texte, la vision, la parole, et dans certains cas davantage – étendent les capacités des flux de travail d’intelligence artificielle bien au-delà des systèmes principalement textuels qui dominaient il y a à peine un an. Cela est déjà évident avec l’évolution des services d’entreprise multimodaux proposés par Google, OpenAI et Anthropic. Cependant, l’Open Source reste compétitif, avec des modèles tels que la prévisualisation QVQ-72B d’Alibaba et la prochaine version Llama 4 de Meta se concentrant sur la parole et le raisonnement
, l’IA Open Source continue de démocratiser l’accès et de favoriser l’innovation dans tous les secteurs.
L’IA visuelle réalise également des progrès significatifs. Le modèle Segment Anything Model (SAM) de Meta isole les éléments visuels avec un minimum d’intervention, permettant des applications dans l’édition vidéo, la recherche et les soins de santé. Parallèlement, le système ARMOR de Carnegie Mellon et Apple, doté de capteurs de profondeur distribués, a amélioré la perception spatiale des robots, réduisant les collisions de 63,7 % et traitant les données 26 fois plus rapidement que les méthodes traditionnelles.
Les systèmes vocaux progressent également. Des modèles tels que Hertz et Moshi de Kyutai atteignent des temps de réponse impressionnants – dans certains cas inférieurs à 120 millisecondes – promettant des interactions toujours plus naturelles. Cependant, des défis persistent : la personnalisation de la voix, la rétention du contexte et les coûts d’inférence demeurent des enjeux cruciaux.
IA agentique : vers une plus grande autonomie
L’IA agentique représente un changement dans le fonctionnement des modèles de langage de grande taille, leur accordant divers degrés d’autonomie grâce à un accès contrôlé aux outils et aux flux de travail. Contrairement aux « Agents de Centre de Contact IA » traditionnels, qui servent principalement d’interfaces conversationnelles, les systèmes d’IA agentique existent le long d’un continuum de capacités intégratives. Cette évolution leur permet de résoudre des problèmes du monde réel au-delà de leurs données d’entraînement en interagissant avec des systèmes externes.
L’IA agentique dans le centre de contact peut être globalement comprise comme fonctionnant selon un spectre d’autonomie qui pourrait ressembler à ceci :
- Faible agentivité (☆☆☆) : Les LLM génèrent des réponses textuelles aux entrées de l’utilisateur.
- Agentivité modérée (★☆☆ – ★★☆) : Les LLM classifient et acheminent les appels, récupèrent les données clients, ou interagissent avec des outils tels que la recherche de commandes et la consultation de FAQ.
- Forte agentivité (★★★) : Les LLM gèrent de manière autonome les flux de conversation, initient ou concluent les interactions, et prennent des décisions en temps réel basées sur des objectifs.
Cette vision de l’IA agentique est soutenue par des acteurs majeurs comme HuggingFace, « L’agentivité évolue sur un spectre continu, selon que vous accordez plus ou moins de pouvoir au modèle de langage de grande taille dans votre flux de travail. », ainsi que par des analystes de l’industrie comme Gartner, « L’Agentivité de l’IA est un Spectre. » Ce spectre souligne comment l’IA agentique peut s’adapter à différents besoins commerciaux. Par exemple, au sein de la plateforme unifiée Spitch, des solutions à forte agentivité comme le Simulateur de Coaching, ou les Assistants Vocaux et les chatbots excellent dans les réponses naturelles personnalisables et le routage d’appels avancé, tandis que les systèmes intégrés aux outils comme l’Assistant d’Agent et l’Analyse Vocale effectuent une automatisation complexe en arrière-plan pour les interactions en direct et les analyses post-appel.
En 2025, l’expansion rapide des cas d’utilisation de l’IA agentique — particulièrement dans la gestion de l’expérience client — est prête à redéfinir les flux de travail, permettant aux entreprises de trouver un équilibre entre automatisation, efficacité et expérience utilisateur.
Plus Petits, Plus Intelligents, Plus Rapides : L’Essor des MLP
Les Modèles de Langage Petits (MLP) sont également en vogue. Dans certains cas, ces modèles égalent les performances de systèmes plus larges comme GPT-4 dans des tâches ciblées tout en fonctionnant sur du matériel standard. Ce changement répond aux besoins des entreprises en matière d’IA évolutive et rentable. Sur ce front, Google Research et DeepMind ont récemment introduit une nouvelle approche utilisant les MLP comme enseignants pour former des modèles beaucoup plus grands.
Les Centres de Contact comme Étude de Cas
L’impact évolutif de l’IA générative est particulièrement évident dans les centres de contact. Selon un récent rapport de McKinsey, ce changement reflète trois transformations majeures qui balaient l’industrie : les centres de contact sont désormais considérés comme des opportunités commerciales plutôt que des points de triage, les organisations élargissent leurs écosystèmes d’IA pour soutenir ces aspirations, et il y a un accent croissant sur le perfectionnement du personnel avec une meilleure intégration, formation et coaching.
Les adopteurs précoces comme Klarna ont signalé une réduction de 14% des coûts de service client, tandis que les systèmes basés sur l’IA gèrent jusqu’à 80% des interactions de routine. Les plateformes de formation alimentées par l’IA comme celle actuellement développée chez Spitch transforment également le développement de la main-d’œuvre, offrant un coaching en temps réel et des simulations personnalisées qui réduisent le temps d’intégration et améliorent les performances des employés.
Malgré ces gains, l’adoption reste limitée. Seules 6,1% des entreprises américaines ont mis en œuvre des solutions d’IA en 2024. Les défis incluent l’intégration avec les systèmes existants, les coûts élevés de formation et une méfiance publique significative. Selon Qualtrics, 75% des consommateurs restent sceptiques quant à l’utilisation de l’IA par les entreprises, un déclin de 11% par rapport à 2023.
Surmonter les Défis d’Inférence
L’inférence reste un goulot d’étranglement pour l’adoption généralisée de l’IA. Des entreprises comme Groq et Cerebras développent du matériel spécialisé pour les applications en temps réel, atteignant des vitesses d’inférence jusqu’à 70 fois plus rapides. D’autres, comme Acurast, exploitent l’informatique distribuée pour exécuter des modèles avancés sur des appareils grand public, offrant des solutions évolutives pour les tâches non critiques en termes de temps. Pendant ce temps, les grands fournisseurs comme OpenAI réduisent considérablement les prix de l’inférence sur leurs modèles standard destinés aux clients.
Réglementation, données et confiance
Avec l’entrée en vigueur de la loi européenne sur l’IA, l’Europe fournit l’un des cadres réglementaires les plus avancés pour le déploiement de l’IA, mettant l’accent sur la robustesse technique, la transparence et la confidentialité. Cependant, le défi de l’évaluation de la conformité reste non résolu. Des recherches récentes de l’ETH Zurich mettent en évidence cet écart et révèlent qu’aucun des modèles de langage de grande envergure (LLM) les plus largement utilisés aujourd’hui ne répond pleinement aux exigences de la loi. En 2025, il demeurera une priorité importante de continuer à développer des critères de conformité qui alignent l’interprétation législative avec des méthodes d’évaluation pratiques, garantissant ainsi que la sécurité et l’innovation prospèrent ensemble.
Comme l’a récemment fait remarquer Ilya Sutskever, cofondateur d’OpenAI, nous approchons du « pic des données. » La disponibilité d’ensembles de données d’entraînement de haute qualité s’amenuise, poussant l’industrie vers la génération de données synthétiques et l’apprentissage au moment de l’inférence. Ces avancées définiront probablement la trajectoire de croissance de l’IA dans les années à venir, passant de la reconnaissance de motifs à un véritable raisonnement et un apprentissage adaptatif.
Parallèlement, les entreprises doivent continuer à prioriser la transparence des données, les pratiques éthiques et les avantages mesurables pour les clients afin de surmonter le scepticisme du public et stimuler l’adoption.
Perspectives 2025 : L'IA Pratique à Grande Échelle
Cette année s'annonce pleine de surprises et promet une adoption accélérée et une intégration pratique de l'IA dans les applications commerciales et grand public. Les tendances clés à surveiller incluent :
- Prolifération des Modèles Multimodaux : Extension des applications dans des secteurs comme la santé, la logistique et le service client.
- Évolution de l’IA Agentique : Avancement rapide de l’autonomie des modèles à forte agentivité, stimulant l’efficacité dans les flux de travail et la résolution de problèmes.
- Adoption par les Entreprises : Mise en œuvre plus large, avec l’IA gérant un pourcentage toujours croissant de tâches de routine dans les organisations pionnières.
- Efficacité des Coûts : Les coûts d’inférence passant sous la barre des 10 dollars par million de tokens, rendant l’IA plus accessible et plus applicable à des problèmes de plus en plus complexes.
Le défi pour les organisations est d'équilibrer l'innovation avec la confiance, l'automatisation avec la satisfaction client, et la conformité avec l'évolutivité. Le succès viendra à ceux qui navigueront judicieusement parmi ces tensions tout en apportant une valeur claire et mesurable - une entreprise où le conseil stratégique fourni par Spitch et son écosystème de partenaires joue un rôle crucial pour aider les entreprises à s'adapter à ce paysage en rapide évolution.
L'IA générative n'est pas simplement un outil - c'est une force transformatrice. En 2025, les entreprises qui embrasseront son potentiel de manière responsable mèneront la prochaine vague de collaboration homme-machine.