Empatia sintetica – Come l’IA sta amplificando gli errori dell’UX
È allettante pensare che i problemi della customer experience possano essere risolti grazie all’intelligenza artificiale. Quando i modelli di linguaggio sono in grado di analizzare enormi volumi di feedback, produrre un discorso UX fluente e simulare empatia, si crea l’impressione che la comprensione sia finalmente stata raggiunta. Questa impressione, tuttavia, è fuorviante. La crisi della customer experience non è computazionale, ma epistemica. Il problema non è la mancanza di capacità analitica o di sofisticazione tecnologica, bensì una crescente incertezza su ciò che stiamo realmente misurando e sulle condizioni stesse in cui la comprensione può emergere.
I modelli di linguaggio parlano fluentemente il linguaggio della customer experience. Utilizzano la terminologia corretta, riconoscono stati emotivi e costruiscono interpretazioni plausibili delle motivazioni degli utenti. È proprio questa fluidità a creare l’illusione di comprensione. Quando il linguaggio scorre senza sforzo, le organizzazioni iniziano a credere che il fenomeno stesso sia sotto controllo. Questo prosegue una traiettoria già visibile nelle fasi precedenti della pratica della customer experience: prima il modello si è allontanato dalla realtà, poi la misurazione ha smesso di vedere l’essere umano e ora il linguaggio stesso offre una falsa sensazione di certezza. Più l’IA parla in modo convincente dell’esperienza, più diventa facile presumere che l’esperienza sia stata compresa.
Empatia sintetica e circuito chiuso
Nell’era dell’IA, la customer experience è entrata in una nuova fase che può essere descritta come empatia sintetica. I modelli di linguaggio sono in grado di generare personas, simulare feedback e produrre analisi che imitano la comprensione empatica. Scrivono report sulla frustrazione degli utenti, individuano punti di attrito e propongono miglioramenti in modi che appaiono umani e persuasivi.
Il problema non è che questi strumenti siano imprecisi. Il problema è che rinchiudono la customer experience interamente in un circuito linguistico. Quando la pratica UX inizia a basarsi su feedback sintetico generato dall’IA, scompare l’ultima necessità di incontrare un essere umano reale. L’esperienza non nasce più dall’interazione con la realtà, ma da un sistema in cui l’IA analizza una finzione prodotta dall’IA e la chiama comprensione.
Questo non è un uso improprio dell’intelligenza artificiale. È l’esito logico di un paradigma della customer experience in cui l’esperienza è definita principalmente attraverso il linguaggio. Se l’esperienza è intesa come una narrazione che può essere analizzata, riassunta e ottimizzata, allora un modello di linguaggio è lo strumento perfetto. Allo stesso tempo, l’UX smette di osservare il comportamento umano reale e diventa una struttura auto-rinforzante.
Il linguaggio è un segnale lento, lo stato è rapido
A questo punto emerge un problema teorico fondamentale nel rapporto tra IA e customer experience. Il linguaggio è un segnale lento. È retrospettivo, simbolico e già interpretato. L’esperienza, al contrario, si manifesta come uno stato simultaneo, incarnato e intensivo. Quando l’esperienza viene tradotta in testo, una parte significativa di essa va perduta.
Intensità, ritmo, tensione fisiologica e pressione contestuale non si trasmettono facilmente attraverso le parole. Non sono immediatamente espliciti e resistono a un’articolazione fluida. Eppure sono proprio questi elementi a modellare il modo in cui le persone agiscono all’interno dei sistemi: come esitano, si adattano, si conformano o si ritirano. L’esperienza non è una storia, ma uno stato in cui le realtà biologiche e cognitive sono strettamente intrecciate.
I modelli di linguaggio operano a livello simbolico. Elaborano parole, significati e probabilità. L’esperienza umana, invece, ha luogo a livello biologico e cognitivo, dove il significato precede il linguaggio. Ne deriva una discrepanza fondamentale: l’essere umano non è un prompt. Quando cerchiamo di comprendere l’esperienza attraverso il linguaggio, siamo già in ritardo.
Quando l’UX crede che l’esperienza sia ciò che le persone dicono
La storia della misurazione della customer experience è in gran parte la storia dei sondaggi. Si presume che i sondaggi forniscano un canale diretto verso l’esperienza umana. In realtà, misurano una narrazione retrospettiva dell’esperienza. Questa limitazione non è nuova, ma l’IA la amplifica.
Quando la pratica UX si affida a feedback analizzato dall’IA, impariamo a credere che le parole equivalgano all’esperienza. L’espressione linguistica ottiene lo status di realtà. Così facendo, perdiamo la capacità di cogliere ciò che resta non detto. I modelli di linguaggio non leggono tra le righe e non possono percepire la tensione cognitiva che nasce dal disallineamento tra l’obiettivo dell’utente e le possibilità offerte dal sistema. Questo non è un limite dell’IA, ma una caratteristica intrinseca.
I fattori più rilevanti per l’esperienza sono spesso proprio quelli che non vengono articolati. Un utente frustrato può non avere la capacità o la motivazione per descrivere ciò che è andato storto. L’adattamento viene interpretato come soddisfazione e il silenzio come approvazione. Quando l’UX equipara l’esperienza a ciò che le persone dicono, smette di vedere l’essere umano nella sua interezza.
Baseline dinamiche e cecità statistica
A questo punto, la distinzione deve essere espressa con la massima chiarezza possibile. I modelli di linguaggio predicono l’essere umano medio. Sono costruiti su dataset enormi in cui le differenze individuali vengono appiattite in probabilità. La customer experience, tuttavia, non si verifica nella media. Emerge sempre come una deviazione rispetto alla baseline momentanea di un individuo. L’esperienza è definita dal momento in cui lo stato di una persona non corrisponde alla norma, non da quelli in cui tutto procede come previsto.
È proprio per questo che i modelli di linguaggio sembrano funzionare in modo eccellente quando nulla va storto. Descrivono accuratamente il comportamento tipico. Falliscono nel punto in cui la customer experience diventa davvero significativa: nelle situazioni in cui lo stato cognitivo, fisiologico o contestuale di un individuo devia dalla norma. Questo non è un difetto tecnico, ma una conseguenza strutturale del tentativo di dedurre la deviazione dalle medie.
I modelli di linguaggio operano sulla probabilità statistica. Predicono la parola successiva più probabile. Il comportamento umano, invece, si sviluppa in relazione a una baseline situazionale. Ogni persona è il proprio punto di riferimento, e tale punto di riferimento è in continuo mutamento.
Il carico cognitivo, lo stress, la pressione temporale e l’ambiente rimodellano il comportamento di momento in momento. Questa baseline dinamica non può essere dedotta dal linguaggio né dagli aggregati statistici. Quando l’UX integra l’IA nell’interpretazione della customer experience, crea una cecità strutturale. Il modello può essere preciso nel proprio quadro, ma non cattura lo stato vissuto dell’individuo.
Questo problema non può essere risolto aggiungendo più dati o affinando gli algoritmi. Nasce dal tentativo di comprendere l’esperienza al livello sbagliato. La probabilità statistica non rivela nulla sullo stato in cui una persona si trova quando incontra un sistema.
Illusioni di controllo amplificate
In passato, le metriche fornivano alle organizzazioni un senso di controllo. L’IA ora moltiplica questa illusione. Le dashboard basate sull’IA offrono sintesi eleganti, insight condensati e una comprensione apparentemente profonda del cliente. Le organizzazioni hanno la sensazione di capire più che mai.
Allo stesso tempo, il contatto con l’esperienza umana reale si indebolisce ulteriormente. Più l’IA ci parla dell’esperienza, meno la incontriamo direttamente. L’incertezza che originariamente definiva la customer experience come campo di ricerca scompare. Al suo posto emerge una fiducia fondata sulla fluidità linguistica piuttosto che sull’osservazione.
Verso una comprensione basata sui segnali
Questo non significa che l’IA sia inutile o che il pensiero sulla customer experience sia arrivato a un vicolo cieco. Significa che il punto di partenza è errato. Forse l’esperienza non dovrebbe essere chiesta, ma osservata. Forse non dovrebbe essere modellata come un percorso, ma come uno stato. Forse, invece delle medie, dovremmo prestare attenzione all’intensità, al ritmo e all’accumulo della tensione.
Questa non è una soluzione, ma un cambio di direzione. La domanda non è come progettare sondaggi migliori o modelli di linguaggio più sofisticati, ma se siamo disposti ad abbandonare l’illusione di controllo basata sul linguaggio e imparare a vedere l’esperienza mentre si dispiega.
Ed è proprio in questo punto che oggi prende avvio il ripensamento della customer experience.
