Registration is wrong! Please check form fields.
Publication detail:

Interazioni human-like con l’intelligenza artificiale

Spitch news Technopolis Giovanni Mannarino.jpgPer molto tempo, come clienti siamo stati abituati a interagire con i fornitori in modo diretto, di persona o al telefono, trovando dall’altra parte un essere umano in grado di replicare alle nostre richieste o necessità. Quell’epoca non è certo ancora passata, ma oggi è sempre più frequente trovarsi a poter dialogare con un interlocutore virtuale. I chatbot sono uno strumento piuttosto diffuso, ma ora sta arrivando il tempo dei voicebot, programmi in grado di lavorare sul linguaggio naturale, sulla sua comprensione e interpretazione. Come ci stiamo arrivando? Ne abbiamo parlato con Giovanni Mannarino, sales director Italy di Spitch.ai.

L’intelligenza artificiale è davvero uno spartiacque tra il “prima” e il “dopo” della customer experience?

Nelle interazioni completamente umane, le tecnologie sono intervenute nel tempo soprattutto per mettere ordine nei flussi conversazionali e guidare gli operatori nel supporto al cliente. Con l’avvento dell’intelligenza artificiale è divenuto possibile ridurre i flussi di ingaggio attraverso gli Ivr (Interactive Voice Response, ndr) conversazionali, primo passo di un’interazione fra macchina e uomo. Il vero scoglio, tuttavia, è sempre stato rappresentato dalla comprensione del linguaggio naturale. Le prime esperienze sono state negative, poiché i sistemi di automatic speech & recognition non erano in grado di cogliere le sfumature e la varietà delle espressioni usate dalle persone. Ora, invece, i voicebot possono arrivare a risolvere problemi perché sanno non solo riconoscere l’intento della comunicazione, ma anche gestire temi e porre domande funzionali alla richiesta iniziale.

Come fanno questi programmi a capire domande magari molto specifiche?

La speech analytics esiste già da diverso tempo, ma prima era usata solo per capire che cosa volessero i clienti. I voicebot, invece, devono essere in grado di gestire interazioni evolute, quindi devono lavorare su dataset di training per poter articolare risposte sempre più pertinenti. Per fare un esempio pratico, il settore energetico è stato per molto tempo statico, fatto di poche tariffe e varianti. Oggi le dinamiche dei costi e fattori come la guerra in Ucraina stanno ridisegnando il panorama, con richieste che un automa vocale non sarebbe in grado di supportare, per esempio il pagamento rateizzato. Il prodotto di Spitch.ai analizza tutte le interazioni machine-to-human, raccogliendo intenti che la macchina prima non sapeva come risolvere. Avendo dipartimenti di data analytics interni evoluti, si possono impostare anche in un giorno nuovi intenti.

Quali mercati in Italia sono più reattivi a queste evoluzioni tecnologiche?

Sicuramente il citato comparto dell’energia sta trainando, per sfruttare anche opportunità connesse a bonus e aperture al mercato libero. Banche e assicurazioni si sono mosse con una certa decisione da qualche tempo, mentre retail e telecomunicazioni stanno inseguendo. Può apparire singolare che le telecomunicazioni siano più indietro, ma occorre tener presente le dinamiche sociali e una tradizione più legata ai classici call center.