Anche in questo inizio di 2025, l'IA generativa sta rimodellando il modo in cui comunichiamo, risolviamo i problemi e interagiamo con la tecnologia e tra di noi. Questo aspetto risulta evidente osservando i notevoli progressi dei Large Multimodal Models (LMM) e la rapida crescita dell'IA agenziale. Queste e altre innovazioni promettono di rendere l'IA più veloce, più potente e più integrata nella nostra vita quotidiana, pur continuando a sollevare importanti problematiche di fiducia, regolamentazione e implementazione.
I modelli multimodali - sistemi che integrano testo, visione, voce e in alcuni casi altri elementi - stanno estendendo le capacità dei flussi di lavoro dell'IA ben oltre i sistemi di solo testo che erano predominanti anche solo un anno fa. Questo aspetto risulta già ben evidente con l'evoluzione dei servizi aziendali multimodali offerti da Google, OpenAI e Anthropic. Tuttavia, l'open source sta tenendo il passo, con modelli come QVQ-72B Preview di Alibaba e Llama 4 di Meta, che uscirà tra poco e il quale si concentra su "parlato e ragionato", l'IA open source continua a democratizzare l'accesso e a promuovere l'innovazione in ogni ambito.
Anche l'intelligenza artificiale visiva sta facendo passi da gigante. Il Segment Anything Model (SAM) di Meta isola gli elementi visivi con un input minimo, consentendo applicazioni nei campi del montaggio video, della ricerca e della sanità. Nel frattempo, il sistema ARMOR di Carnegie Mellon e Apple, con i suoi sensori di profondità distribuiti, ha migliorato la consapevolezza spaziale dei robot, riducendo le collisioni del 63,7% ed elaborando i dati 26 volte più velocemente rispetto ai metodi tradizionali.
Anche i sistemi vocali stanno facendo dei progressi. Modelli come Hertz e Moshi di Kyutai raggiungono tempi di risposta impressionanti, in alcuni casi inferiori a 120 millisecondi, consentendo interazioni sempre più naturali. Tuttavia, le sfide non sono finite: la personalizzazione della voce, la conservazione del contesto e i costi dell'inferenza rimangono problemi cruciali.
L'IA agenziale rappresenta un cambiamento nelle modalità di funzionamento degli LLM, garantendo loro vari gradi di autonomia attraverso l'accesso controllato a strumenti e flussi di lavoro. A differenza dei tradizionali "agenti IA di contact center", che fungono principalmente da interfacce di conversazione, i sistemi IA agenziali si collocano all’interno di una serie continua di capacità integrative. Questa evoluzione consente loro di risolvere problemi del mondo reale andando oltre i dati di addestramento, interagendo con sistemi esterni.
L'IA agenziale nel contact center può essere intesa in senso lato per operare lungo uno spettro di autonomia che potrebbe avere il seguente aspetto:
Agenzia bassa (☆☆☆): gli LLM generano risposte testuali agli input dell'utente.
Agenzia moderata (★☆☆ - ★★☆): gli LLM classificano e instradano le chiamate, recuperano i dati dei clienti oppure interagiscono con strumenti come la ricerca degli ordini e il recupero delle domande frequenti.
Agenzia alta (★★★): gli LLM gestiscono autonomamente i flussi di conversazione, iniziano o concludono le interazioni e prendono decisioni in tempo reale basate sugli obiettivi.
Questa visione dell'IA agenziale è supportata da protagonisti importanti come HuggingFace, "L'agenzia evolve su uno spettro continuo, man mano che si dà più o meno potere all'LLM nel flusso di lavoro.", nonché da analisti del settore come Gartner, "L'agenzia IA è uno spettro." Questo spettro evidenzia come l'IA agenziale possa adattarsi a diverse esigenze aziendali. Ad esempio, all'interno della piattaforma unificata Spitch, le soluzioni per le agenzie di alto livello come il simulatore di coaching o gli assistenti vocali e i chatbot eccellono nelle risposte naturali personalizzabili e nello smistamento avanzato delle chiamate, mentre i sistemi integrati negli strumenti come Agent Assist e Speech Analytics eseguono un'automazione complessa dietro le quinte per le interazioni dal vivo e le analisi successive alle chiamate.
Nel 2025, la rapida espansione dei casi d'uso dell'IA agenziale, in particolare nella gestione dell'esperienza del cliente, è destinata a ridefinire i flussi di lavoro, consentendo alle aziende di trovare un equilibrio tra automazione, efficienza ed esperienza dell'utente.
Anche gli Small Language Models (SLM) sono di tendenza. In alcuni casi questi modelli eguagliano le prestazioni di sistemi più grandi come GPT-4 in attività mirate, pur funzionando su hardware standard. Questo cambiamento risponde alle esigenze aziendali di un'intelligenza artificiale scalabile ed economica. Su questo fronte, Google Research e DeepMind hanno recentemente introdotto un nuovo approccio per utilizzare gli SLM come insegnanti per addestrare modelli molto più grandi.
L'impatto dell'IA generativa risulta particolarmente evidente nei contact center. Secondo un recente rapporto McKinsey, questo cambiamento riflette tre grandi novità che stanno interessando il settore: i contact center sono ora visti come opportunità di business piuttosto che come punti di smistamento, le organizzazioni stanno espandendo i loro ecosistemi di IA a supporto di queste aspirazioni e c'è una crescente attenzione alla qualificazione del personale con un migliore onboarding, formazione e coaching.
I primi utilizzatori, come Klarna, hanno registrato una riduzione del 14% dei costi del servizio clienti, mentre i sistemi guidati dall'IA gestiscono fino all'80% delle interazioni di routine. Anche le piattaforme di formazione basate sull'IA, come quella attualmente sviluppata da Spitch, stanno trasformando lo sviluppo della forza lavoro, fornendo coaching in tempo reale e simulazioni personalizzate che riducono i tempi di onboarding e migliorano le prestazioni dei dipendenti.
Nonostante questi vantaggi, l'adozione rimane limitata. Nel 2024, solo il 6,1% delle aziende statunitensi ha implementato soluzioni di IA. Le sfide includono l'integrazione con i sistemi preesistenti, gli elevati costi di formazione e la notevole sfiducia del pubblico. Secondo Qualtrics, il 75% dei consumatori rimane scettico sull'uso dell'IA nelle aziende, con un calo dell'11% rispetto al 2023.
L'inferenza rimane un ostacolo all'adozione diffusa dell'IA. Aziende come Groq e Cerebras stanno sviluppando hardware specializzato per applicazioni in tempo reale, raggiungendo velocità di inferenza fino a 70 volte superiori. Altre, come Acurast, sfruttano l'elaborazione distribuita per eseguire modelli avanzati su dispositivi commodity, offrendo soluzioni scalabili per attività non cruciali in termini di tempo. Nel frattempo, grandi fornitori come OpenAI stanno scontando pesantemente l'inferenza sui loro modelli standard rivolti ai clienti.
Con l'entrata in vigore della legge sull'IA dell'UE, l'Europa offre uno dei quadri normativi più avanzati per la diffusione dell'IA, ponendo l'accento sulla solidità tecnica, la trasparenza e la privacy. Tuttavia, la sfida di valutare la conformità rimane irrisolta. Una recente ricerca del Politecnico di Zurigo mette in luce questa lacuna e rivela che nessuno dei modelli linguistici di grandi dimensioni (LLM) oggi più diffusi soddisfa pienamente i requisiti della legge. Nel 2025, continuare a sviluppare parametri di conformità che allineino l'interpretazione legislativa con i metodi di valutazione pratici rimarrà una priorità importante, garantendo che sicurezza e innovazione prosperino insieme.
Il cofondatore di OpenAI, Ilya Sutskever, ha recentemente osservato che ci stiamo avvicinando al "picco dei dati": la disponibilità di set di dati di addestramento di alta qualità sta diminuendo, spingendo il settore verso la generazione di dati sintetici e l'apprendimento per inferenza. Questi progressi definiranno probabilmente la traiettoria di crescita dell'IA nei prossimi anni, passando dalla corrispondenza dei modelli al vero ragionamento e all'apprendimento adattivo.
Nel frattempo, le aziende devono continuare a dare priorità alla trasparenza dei dati, alle pratiche etiche e ai vantaggi misurabili per i clienti, per superare lo scetticismo dell'opinione pubblica e favorirne l'adozione.
Quest'anno sembra destinato a sorprendere ancora e promette un'adozione accelerata e l'integrazione pratica dell'IA nelle applicazioni aziendali e di consumo. Le tendenze principali da tenere d'occhio sono:
Proliferazione dei modelli multimodali: applicazioni in espansione in settori come sanità, logistica e servizio clienti.
Evoluzione dell'IA agenziale: l'autonomia dei modelli ad alta agenzia, in rapida progressione, favorisce l'efficienza dei flussi di lavoro e la risoluzione dei problemi.
Adozione aziendale: implementazione più ampia, con l'IA che gestisce una percentuale sempre maggiore di attività di routine nelle organizzazioni che adottano per prime.
Efficienza dei costi: i costi di inferenza scendono sotto i 10 dollari per milione di token, rendendo l'IA più accessibile e applicabile a problemi sempre più complessi.
La sfida per le organizzazioni consiste nel bilanciare l'innovazione con la fiducia, l'automazione con la soddisfazione dei clienti e la conformità con la scalabilità. Il successo arriderà a coloro che sapranno gestire queste tensioni in modo ponderato, fornendo al contempo un valore chiaro e misurabile: uno sforzo in cui la consulenza strategica fornita da Spitch e dal suo ecosistema di partner svolge un ruolo cruciale nell'aiutare le aziende ad adattarsi a questo panorama in rapida evoluzione.
L'IA generativa non è un semplice strumento ma una forza di trasformazione. Nel 2025, le aziende che adotteranno il suo il potenziale in modo responsabile, guideranno la prossima ondata di collaborazione uomo-macchina.