Individual Differences in Facial Expression: Stability over Time, Relation to Self-Reported Emotion, and Ability to Inform Person Identification

pfadmin 20 agosto 2012 0
Individual Differences in Facial Expression: Stability over Time, Relation to Self-Reported Emotion, and Ability to Inform Person Identification

Per il riconoscimento automatico delle espressioni facciali serve prendere in considerazione più fonti di informazione e badare alle differenze individuali, incluse quelle culturali. L’obiettivo della ricerca è osservare le differenze indivuali per specifiche configurazioni di Action units.

Nel primo esperimento 65 giovani adulti hanno visto due brevi filmati comici di 5′ a distanza di 12 mesi. Sono state misurate le espressioni legate a emozioni positive con EMG (è stato considerato solo l’EMG del muscolo zigomatico maggiore), analisi facciale automatica (AFA) e scoring manuale FACS. È stata misurata anche situazione di controllo (senza cortometraggio), e la telecamera era nascosta.

Risultati: l’EMG era in accordo con il sollevamento delle labbra nel 72% dei casi. Le donne sorridevano più rapidamente alle battute degli uomini. Nella seconda misurazione il livello di attività dello zigomatico maggiore diminuiva, ma gli individui si classificavano più o meno nello stesso ordine di attivazione.

Nel secondo studio 85 individui di mezz’età con ischemia miocardica passeggera (TMI) sono stati sottoposti a due colloqui clinici con intervista strutturata di tipo A, a distanza di 4 mesi, ed è stato effettuato scoring manuale con il FACS di segmenti di due minuti. L’intervista è costruita in modo da elicitare espressioni legate alla personalità di tipo A – in particolare disgusto e disprezzo – e sorrisi.

Risultati: è stata osservata elevata stabilità per: le AU 1, 4, 5, 6, 7, 10, 14, 15, 18, 20, 24; le combinazioni di AU 1+4, 1+2+4 e 12+15; la AU1 sinistra; la AU10 destra e sinistra; un aggregato di AU destre sulla metà superiore del viso.

Si è provato a riconoscere le persone alla seconda intervista sulla base delle frequenze delle loro AU alla prima e seconda intervista. La probabilità di corretto riconoscimento è del 50%, laddove il caso prevederebbe l’1%. È stato effettuato un confronto con un software di riconoscimento facciale, FaceIt: è stato analizzato 1/30 dei fotogrammi e i 3 con maggiore affidabilità sono stati utilizzati per training (visita 1) e testing (visita 2). La probabilità di corretta identificazione è comparabile a quella sulla base delle Action Units, gli errori sono tra loro indipendenti sebbene le facce più facilmente identificate da FaceIt siano individuate meglio anche con la codifica delle AU.

Conclusioni

Si evidenzia stabilità nelle espressioni del volto degli individui, al punto da poter individuare le persone a distanza di 4 o 12 mesi solo sulla base delle espressioni del volto, con probabilità molto superiore al caso.

Le correlazioni tra espressioni del volto ed emozioni auto-riportate erano significative, ma basse. Viene tuttavia ipotizzato che questo sia dovuto all’essersi concentrati su certe specifiche AU.

Gli autori ipotizzano che tenere conto della baseline facciale di ogni individuo, e delle AU che utilizza più spesso, possa permettere di inferire molto meglio le emozioni tradite dalle espressioni facciali.

Laura Casetta

Marcello Passerelli

Bibliografia

Cohn, G.F., Schmidt, K., Gross, R. & Ekman, P. (2002). Individual Differences in Facial Expression: Stability over Time, Relation to Self-Reported Emotion, and Ability to Inform Person Identification. Proceedings of the International Conference on Multimodal User Interfaces.

Leave A Response »