Le interfacce conversazionali (chatbot) sono una grande miniera di dati per i marketer. Gli utenti raccontano dei propri bisogni attraverso l’interfaccia più naturale che possano avere: il loro pensiero tradotto sotto forma di testo o voce. I designer dell’interazione sono costretti a ribaltare la prospettiva di progettazione. Non devono incanalare l’utente in processi predeterminati, ma devono intercettare una forma espressiva libera, interpretarla e restituire un risultato significativo per l’utente.
I data analyst possono, invece, attingere a piene mani da una fonte di nuovi valori e insight, per alcuni versi derivanti da modalità di rilevazione anche più spiazzanti di quelle alle quali siamo abituati per la loro semplicità: dal desumere l’insight a misurare il bisogno dichiarato, senza filtri.
Si affacciano nuovi kpi per prevedere, misurare e migliorare le performance dei nuovi progetti che adotteranno le interfacce conversazionali. A parte le metriche facilmente assimilabili a concetti di paritetico valore per il web (per esempio total user, active user ecc.), i valori vanno divisi in due grandi insiemi: le message metric, che sono legate principalmente alle interazioni delle persone con la macchina, e le bot metric, che invece misurano le performance del bot. Fra esse, quelle che ritengo particolarmente intriganti in termini di dati riguardano l’analisi delle interazioni fra uomo e macchina, che in qualche caso invertono l’ordine di lettura fra un buon risultato su un qualsiasi altro canale e un buon risultato d’interazione con un bot. Lo step per conversation (spc) insieme alla session leght (sl), per esempio, misurano il tempo trascorso e la quantità di messaggi scambiati fra l’utente e il bot fino al raggiungimento di un determinato obiettivo. Lunghezze di sessione sono spesso indicative di una qualche forma di errore e idealmente la maggior parte dei chatbot dovrebbe mirare a risolvere la richiesta di un utente in pochi passaggi di conversazione. Praticamente il contrario di quanto avviene su altri touchpoint, dove l’aumentare del tempo speso da parte di un utente suggerisce una buona rilevanza dei contenuti. I chatbot invocano risposte di fallback quando non riescono a trovare una risposta adeguata al messaggio di un utente. Invece di non dire nulla, è meglio che un chatbot risponda facendo sapere all’utente che non è stata trovata una corrispondenza. Monitorando le chatbot fallback response (cfr), non solo si evidenziano le lacune di elaborazione del linguaggio naturale (nlp), ma emergono le aspettative da parte degli utenti finali riguardo ai contenuti mancanti, ai quali gli stessi utenti danno più peso di chi ha addestrato il bot. In definitiva, designer e data analyst possono sicuramente lavorare a braccetto al fine di comprendere come restituire valore agli utenti: per migliorare l’accuratezza della capacità del bot d’interpretare e rispondere; per garantire un’experience che non abbassi la motivazione dell’utente nel conversare con un bot anziché con un essere umano; per accrescere la qualità e l’emozionalità delle conversazioni.
Nuovi indicatori per migliorare le performance dei chatbot
Federico Rocco31/10/2018