Automatic person and personality recognition from facial expressions
Martens, L. 2012 (tesi di dottorato)
INTRODUZIONE
Studi dimostrano come sia possibile identificare uno specifico individuo sulla base delle sue espressioni facciali (Schmidt & Cohn, 2001, Cohn, Schmidt, Gross, & Ekman, 2002, Tulyakov, Slowe, Zhi & Govindaraju, 2007). Recenti ricerche suggeriscono, inoltre, la possibilità di inferire dal particolare pattern di espressioni facciali di un individuo i suoi tratti di personalità (Tulyakov, Slowe, Zhi & Govindaraju, 2007).
METODO
La tesi presenta due esperimenti: in entrambi le espressioni facciali dei soggetti durante un’intervista sono codificate con codifica FACS tramite il software CERT, che è in grado di riconoscere automaticamente 20 AU codificandone l’intensità. In entrambi gli esperimenti viene utilizzata la procedura collect-clean-classify, che si articola in tre fasi: raccolta dei dati con CERT, pulizia manuale per evitare errori di identificazione del viso ed eliminazione degli outlier, classificazione dei soggetti tramite algoritmi di apprendimento con training supervisionato. Nel primo esperimento si applicano gli algoritmi k-nearest neighbour e LDA (Linear Discriminant Analysis) per verificare se gli individui vengano identificati correttamente dopo la fase di training. Nel secondo, gli stessi algoritmi sono utilizzati per predire i punteggi dei soggetti al test di personalità NEO PI-R, che utilizza il costrutto dei Big Five.
RISULTATI
Nel primo esperimento, il grado di successo nel riconoscimento è molto elevato. Si raggiunge il 99% di successo con l’algoritmo LDA, laddove la probabilità di classificare correttamente in modo casuale è del 3%.
I risultati del secondo esperimento sono meno buoni. La probabilità di classificare correttamente in base al caso è del 33%, e tale probabilità è superata per tutti i fattori. Tuttavia, adottando come criterio di controllo la ‘majority rule’ (assegnare automaticamente il soggetto alla classe con numerosità maggiore), soltanto per il fattore di Agreeableness gli algoritmi hanno performance migliore. In generale, gli algoritmi hanno performance migliori per Agreeableness ed Extraversion. Il k-nearest neighbor con k=1 ha buona performance per il fattore Openness.
COMMENTO PERSONALE
Ad essere analizzato non è un articolo, ma una tesi di dottorato. Questo significa che non è peer-reviewed, ma dall’altro lato il testo è molto dettagliato nel presentare la metodologia, esponendola in modo chiaro e completo. Questo rende il testo particolarmente prezioso in vista di studi futuri.
Gli studi qui presentati esplorano, peraltro, un argomento studiato molto di rado, per cui questi esperimenti risultano essere lo ‘stato dell’arte’, sia come ipotesi sperimentali sia come metodologia utilizzata (la codifica FACS automatizzata comincia solo adesso a essere utilizzata efficacemente).
I risultati del primo esperimento sono molto incoraggianti, e in linea con le ricerche precedenti. I risultati del secondo esperimento non risultano ottimali. Tuttavia, numerose problematiche della ricerca potrebbero essere risolte in studi futuri, in particolare la povertà del campione e il fatto che le interviste non fossero state svolte con l’obiettivo di codifica FACS o analisi della personalità. Inoltre, è auspicabile che in futuro software come CERT possano riconoscere una gamma di AU sempre più ampie e con affidabilità sempre maggiore, arricchendo la qualità dei dati anche partendo dallo stesso materiale.
Marcello Passerelli
Laura Casetta
Bibliografia
Cohn, J., Schmidt, K., Gross, R. & Ekman, P. (2002). Individual differences in facial expression: stability over time, relation to self-reported emotion, and ability to inform person identification. In Proceedings of the International Conference on Multimodal User Interfaces (ICMI), pages 491–496.
Schmidt, K.L. & Cohn, J.F. (2001). Dynamics of facial expression: Normative characteristics and individual differences, Proceedings IEEE ICME, pp. 547-550.
Tulyakov, S., Slowe, T., Zhi, Z., & Govindaraju, V. (2007). Facial Expression Biometrics Using Tracker Displacement Features, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition pp. 1-5.