News

Arriva il software che legge le emozioni così il nostro viso diventa un libro aperto

 Firenze_17-18_ottobre_002

Federico Rampini, La Repubblica

NEW YORK . La colpa o il merito, all’origine, potrebbe essere del nostro Cesare Lombroso. Il pioniere dell’antropologia criminale, era convinto che la fisionomia umana andasse studiata, scomposta, catalogata per stabilire dei legami scientifici tra volto e psiche. Anche se le teorie lombrosiane sono state abbandonate, dal suo impulso iniziale nacquero altre discipline che applicavano la psicologia allo studio delle nostre espressioni. Nell’èra digitale, quegli studi aprono conseguenze inaspettate: il software che decifra le emozioni. Una nuova frontiera della tecnologia, dalle ricadute molteplici: nel marketing, ma non solo. Se il nostro volto diventa “trasparente”, come un libro aperto; se ogni mossa dei nostri muscoli facciali si presta ad essere interpretata da una webcamera, da un computer, da uno smartphone, l’intelligenza artificiale fa un balzo avanti inaudito.

Già nel luglio 2013 il New York Times rivelò una lista di big della distribuzione — vi figura anche l’italiano Benetton insieme a catene Usa come Nordstrom, Family Dollar, Warby Parker — che sperimentano queste nuove tecnologie. Tra le aziende hi-tech che forniscono la strumentazione per spiarci: la Euclid Analytics di Palo Alto nella Silicon Valley, la Cisco anch’essa californiana, la Nomi di New York o la Brickstream di Atlanta, ed anche società inglesi come la Realeyes, russe come Synqera. L’obiettivo è lo stesso: leggerci nel pensiero. Le videocamere, che sono un oggetto familiare nei negozi perché da tempo usate come anti-furto, stanno assumendo funzioni molto più complesse. Una società come Realeyes (“occhi veri”) installa nei negozi delle telecamere con funzioni di “facial recognition”. La tecnologia di ricognizione facciale studia le nostre reazioni e decompone le nostre emozioni, di fronte a ogni reparto, a ogni vetrina espositiva; queste informazioni vengono elaborate in tempo reale per lanciarci delle offerte su misura, ad personam .

Ora il Wall Street Journal rivela che è in atto un’accelerazione in questi software decifra- emozioni. Grazie a uno scienziato ottantenne che forse si offenderebbe della definizione di “lombrosiano”. Lui si chiama Paul Ekman, è psicologo di formazione, e dagli anni Settanta si dedica allo studio dell’espressività umana. Ha catalogato più di cinquemila movimenti dei muscoli facciali, associandoli a emozioni, stati d’animo, reazioni psichiche provocate da eventi esterni. Più di recente, secondo quanto rivela il Wall Street Journal, il professor Ekman da pensionato ha accettato un incarico di consulenza per una startup di San Diego, in California. L’azienda neonata si chiama Emotient, una crasi da “quoziente emotivo”. Emotient è l’ultima arrivata nella schiera delle imprese hi-tech che si occupano di ricognizione facciale, altre start-up del settore sono Affectiva e Eyeris. La gara tra loro consiste nel mettere a punto un algoritmo che analizzi a gran velocità tutti i micro-movimenti del volto, della bocca, degli occhi, associando a ciascuno un possibile significato. Le applicazioni nel campo del marketing sono già cominciate. La casa automobilistica giapponese Honda sta usando il software di Emotient per osservare le reazioni di automobilisti- cavia di fronte ai suoi nuovi modelli. Coca Cola e Unilever invece fanno uso del software Affectiva per studiare nei minimi dettagli le emozioni che i loro spot pubblicitari provocano nel telespettatore.

Le start-up che ci “leggono nell’anima” non vogliono limitarsi agli usi commerciali. I loro inventori sono convinti che il software decifra-emozioni può avere applicazioni molto più nobili. Due sono gli esempi citati in quest’ottica. Uno riguarda la possibilità di avvistamento preventivo dei segnali stanchezza, da parte di lavoratori ad alto rischio di incidenti. Un pilota aereo, un macchinista di treni ad alta velocità, il camionista di un Tir, potrebbe essere aiutato da questo software: facendo scattare l’allarme ai primi cenni di stanchezza sul volto, si salverebbero vite umane. Altri esempi di applicazioni ad alta utilità sociale vengono associati all’insegnamento: percepire i primi segnali di noia e distrazione in una classe di studenti, aiuterebbe i prof a migliorare i loro metodi didattici per ottenere più concentrazione e migliori risultati nell’apprendimento.

Una sfida avvincente che questi software devono affrontare, riguarda le diversità etniche. Il modo in cui le nostre emozioni si traducono in espressioni facciali, può variare molto a seconda che io sia italiano o svedese, cinese o afroamericano. Qui la tecnologia e la potenza informatica intervengono in aiuto: Affectiva ha potuto catalogare 7 miliardi di reazioni emotive selezionandole da 2,4 milioni di video, con espressioni del viso filmate in 80 paesi diversi.

Condividi questa storia

Articoli correlati