Reconhecimento facial

Da WikiCiências
Share/Save/Bookmark
Revisão das 16h01min de 20 de dezembro de 2019 por Admin (discussão | contribs)

(dif) ← Revisão anterior | Revisão actual (dif) | Revisão seguinte → (dif)
Ir para: navegação, pesquisa

Referência : Orvalho, V., (2019) Reconhecimento facial, Rev. Ciência Elem., V7(4):073
Autoras: Verónica Orvalho
Editor: José Ferreira Gomes
DOI: [http://doi.org/10.24927/rce2019.073]
PDF Download


Hoje em dia fala-se muito de reconhecimento facial sendo esta tecnologia conotada, pelo público em geral, como já utilizada em diversos campos incluindo o das Ciências Forenses. Na realidade, o que vulgarmente se denomina por Reconhecimento Facial é simplesmente uma tecnologia capaz de identificar uma pessoa a partir de uma imagem digital ou de um vídeo.


De um modo geral, os métodos de reconhecimento facial funcionam comparando as características faciais selecionadas de uma determinada imagem com os rostos existentes num banco de dados. Embora a exatidão do sistema de reconhecimento facial, como tecnologia biométrica (biometria tem origem nas palavras gregas bios (vida) e metrikos (medida)), seja inferior ao reconhecimento de íris oculares e de impressões digitais, ele é ainda amplamente adotado pela sua simplicidade.

No entanto, todos reconhecemos que as expressões faciais fornecem uma fonte essencial de informações habitualmente usadas na comunicação humana, desempenhando um papel crucial na interação entre seres humanos. Para estes, o seu reconhecimento é automático e baseado na exploração das variações, em tempo real, das características faciais. A replicação desse processo natural usando sistemas de visão computacional ainda é um desafio, uma vez que os requisitos da automação e do sistema em tempo real são comprometidos para se conseguir obter uma deteção exata das emoções.

Na ausência de outras informações, como por exemplo a fala, as expressões faciais podem transmitir emoções, opiniões e pistas sobre os estados cognitivos. Existem vários campos de investigação focados no desenvolvimento de sistemas automáticos para o reconhecimento de emoções faciais.

Eles são representados principalmente por:

  • Interação cognitiva humano-robô – na qual a evolução de robôs e agentes animados por computador acaba por resultar num problema social de comunicação entre esses sistemas e os seres humanos (Hong et al., 2007);
  • Interação homem-computador – no qual a análise de expressões faciais é amplamente utilizada em telecomunicações, ciências comportamentais, videogames e outros sistemas que requerem descodificação de emoções faciais para comunicação (Fernandes et al., 2011).

Assim, foram desenvolvidos vários sistemas de reconhecimento de rosto para deteção de recursos faciais em tempo real (e.g. (Bartlett et al., 2003)). Inclusivamente foram realizados estudos psicológicos para descodificar essas informações usando apenas expressões faciais, tal como sucede no Facial Action Coding System (FACS) desenvolvido por Ekman (Ekman e Friesen, 1978).

Conforme comprovado na investigação realizada por Jamshidnezhad e Nordin, em 2012, a sequência comum entre os sistemas de reconhecimento de expressões faciais existentes, para classificação das mesmas (Bettadapura, 2009), é composta por 3 etapas:

  1. a fase de reconhecimento facial;
  2. a fase de obtenção de características faciais;
  3. a fase classificadora de Machine Learning, na qual se faz o treino preliminar do modelo e posterior previsão on-line das expressões faciais.

Conforme reivindicado na investigação acima mencionada, a segunda fase da sequência anteriormente apontada (obtenção de características faciais) influencia fortemente a exatidão e o custo computacional de todo o processo. Na realidade, a escolha do tipo de características a conseguir e os métodos correspondentes a serem utilizados para a obtenção das mesmas, são fundamentais para o desempenho geral.

Os métodos habitualmente utilizados para a obtenção das feições podem ser divididos em:

  • métodos geométricos, nos quais as características são extraídas de locais com formas ou pontos salientes, como sejam a boca ou os olhos (Kapoor et al., 2003);
  • métodos baseados na aparência, como sejam carrancas ou rugas (Fischer, 2004).

As características geométricas são selecionadas a partir de pontos de referência de partes essenciais da face, i.e. olhos, sobrancelhas e boca, obtidos a partir de uma técnica de reconhecimento de características da face. Esses métodos de extração são caracterizados pela sua simplicidade e baixo custo computacional, mas a sua exatidão depende muito do desempenho do reconhecimento facial. Exemplos de metodologias de classificação de expressões, que utilizam extração de traços geométricos, são descritos em vários artigos científicos como sejam (Cheon e Kim, 2009; Niese et al., 2012; Gang et al., 2009; Hammal et al., 2007; Seyedarabi et al., 2004; Kotsia e Pitas, 2007).

No entanto, elevada exatidão na deteção de expressões requer, geralmente, uma calibração a partir de uma face neutra, um aumento do custo computacional, uma diminuição do número de expressões detetadas ou um posicionamento manual dos nós da grelha.

Por outro lado, características baseadas na aparência funcionam diretamente na imagem e não em pontos extraídos (e.g. (Kotsia et al., 2008) (Shan et al., 2009) e (Chatterjee e Shi, 2010). Geralmente analisam a textura da pele, extraindo características relevantes para a deteção de expressões. Ao requerer uma quantidade maior de dados, o método baseado na aparência torna-se mais complexo do que o da abordagem geométrica, comprometendo também o tempo real exigido pelo processo (as características baseadas em aparência mostram alta variabilidade no tempo de desempenho de 9,6 a 11,99 segundos (Zhang et al. 2012)).

Abordagens híbridas, que combinam extração geométrica e aparência, podem ser consideradas (Youssif e Asker, 2011) mais exatas, mas ainda são caracterizadas por um elevado custo computacional. Assim, o desejável é um método de extração de características que forneça desempenhos comparáveis aos métodos baseados em aparência, sem comprometer os requisitos de tempo real e de automação do sistema. Para tal, é importante resolver os seguintes quatro principais problemas de reconhecimento de expressões faciais (Bettadapura, 2009):

  1. requisito em tempo real: a comunicação entre humanos é um processo em tempo real com uma escala de tempo de cerca de 40 milissegundos, o problema em tempo real pode ser resolvido utilizando uma extração de características de baixa complexidade, sem comprometer a exatidão da deteção de expressões;
  2. capacidade de reconhecimento de expressões padrão, múltiplas, em pessoas com diferentes características faciais antropométricas, é importante investigar todas as seis expressões faciais universais - Alegria, Tristeza, Surpresa, Medo, Nojo e Raiva - bem como Neutra e Conflituosa para solucionar este problema;
  3. capacidade de reconhecimento das expressões faciais sem calibração neutra de comparação de faces, nomeadamente o reconhecimento de oito emoções diferentes sem a necessidade de qualquer processo de calibração utilizando faces neutras;
  4. capacidade de auto-calibração automática, para evitar qualquer intervenção manual na localização das características geométricas.

Uma explicação detalhada da otimização destas quatro questões pode ser obtida através da leitura de um artigo baseado na investigação de Verónica Orvalho e co-autores (Loconsole et al., 2014). Desse artigo são aqui reproduzidas as Figuras 1, 2 e 3 que mostram um conjunto de detalhes utilizados na deteção de algumas características faciais.

Atualmente existem variadíssimas aplicações do reconhecimento facial, como sejam as redes sociais, a verificação de identidade, o FaceID e, ainda, serviços de segurança e publicidade de entre muitas outras. Existem também variadíssimas maneiras de supostamente enganar os sistemas de reconhecimento facial, como sejam o uso de óculos especialmente concebidos para enganar sistemas de identificação facial, a utilização de acessórios com luzes LED, o uso de máscaras realistas ou, mesmo, a utilização de maquilhagem e corte de cabelo.


FIGURA 1. subconjunto composto por 19 pontos dos 66 marcos faciais usados para extrair características faciais geométricas (reproduzido de Loconsole et al., 2014).


FIGURA 2. A) Definição da elipse superior da região da boca. B) Definição da elipse inferior da região da boca (reproduzido de Loconsole et al., 2014)..


FIGURA 3. A) Resultado final da construção facial a partir de oito elipses. B) As características das elipses faciais mudam de acordo com a expressão facial da pessoa (reproduzido de Loconsole et al., 2014).

Mas, paralelamente, muitos são os erros cometidos por reconhecimentos faciais incorretos, levando mesmo à detenção de pessoas, por parte das autoridades, como tem sucedido já em países onde o sistema de reconhecimento facial trabalha lado a lado com a estatística. Por isso, assim que o sistema aponta, por exemplo e dependendo do país, para 70% de possibilidade de uma pessoa ser a procurada, ela é detida.

Mais ainda, lembram-se do problema levantado, há já anos, por George Orwell no seu famoso livro 1984, que imaginou um futuro aterrador no qual o governo do Big Brother usaria ferramentas para nos vigiar a todos? Como os nossos rostos são tão individualistas quanto as nossas impressões digitais, a tecnologia de reconhecimento facial dita que a privacidade termina no momento em que saímos de casa...

Por outro lado, as organizações policiais e de segurança, armadas com a tecnologia de reconhecimento facial têm uma vantagem adicional na deteção de terroristas conhecidos, criminosos internacionais e fugitivos.

Adicionalmente, tecnologias de reconhecimento facial estão atualmente em uso, em determinados países para evitar que pessoas obtenham documentos de identificação falsos, e.g. cartões de cidadão e cartas de condução, e, ainda para evitar fraudes em votações.

Em conclusão: reconhecimento facial, uma vantagem ou uma desvantagem? Qual é a sua opinião?

Referências

  1. BARTLETT, M. et al. Real time face detection and facial expression recognition: Development and applications to human computer interaction, In Computer Vision and Pattern Recognition Workshop. CVPRW’03. Con- ference on, volume 5, pages 53–53. IEEE. 2003.
  2. BETTADAPURA, V. Face expression recognition and analysis: The state of the art, Emotion, pages 1–27. 2009.
  3. CHATTERJEE, S. & SHI, H. A novel neuro fuzzy approach to human emotion determination. In Digital Image Computing: Techniques and Applications (DICTA), 2010 International Conference on, pages 282–287. IEEE. 2010.
  4. CHEON, Y. & KIM, D. Natural facial expression recognition using differential-aam and manifold learn- ing, Pattern Recognition, 42(7):1340 – 1350. 2009.
  5. LOCONSOLE, C. et al Real-Time Emotion Recognition: a Novel Method for Geometrical Facial Features Extraction, VISAPP 2014 – 9th International Conference on Computer Vision Theory and Applications, Lisbon, Portugal. 2014.
  6. EKMAN, P. & FRIESEN, W Facial Action Coding System: A Technique for the Measurement of Facial Movement, Consulting Psychologists Press, Palo Alto. 1978.
  7. FERNANDES, T. et al LIFEisGAME - An Interactive Serious Game for Teaching Facial Expression Recognition, Interfaces, pages 1–2. 2011.
  8. GANG, l. et al. Geometric feature based facial expression recognition using multiclass support vector machines, In Gran- ular Computing, 2009, GRC ’09. IEEE International Conference on, pages 318 –321. 2009.
  9. HAMMAL, Z. et al. Facial expression classification: An approach based on the fusion of facial deformations using the transferable belief model, International Journal of Approximate Reasoning, 46(3):542 – 567. Special Section: Aggregation Opera- tors. 2007.
  10. HONG, J. et al. A fast learning algorithm for robotic emotion recognition, In Computational Intelligence in Robotics and Automa- tion, 2007. CIRA 2007. International Symposium on, pages 25–30. Ieee. 2007.
  11. JAMSHIDNEZHAD, A. & NORDIN, M. Challenging of facial expressions classification systems: Survey, crit- ical considerations and direction of future work, Re- search Journal of Applied Sciences, 4. 2012.
  12. KAPOOR, A. et al. Fully automatic upper facial action recognition, In Proceedings of the IEEE International Workshop on Analysis and Modeling of Faces and Gestures, AMFG ’03, pages 195–, Washington, DC, USA. IEEE Computer Society. 2003.
  13. KO, K. & SIM, K. Development of a facial emo- tion recognition method based on combining aam with dbn, In Cyberworlds (CW), 2010 International Con- ference on, pages 87–91. IEEE. 2010.
  14. KOTSIA, I. et al. An analysis of fa- cial expression recognition under partial facial image occlusion, Image and Vision Computing, 26(7):1052 – 1067. 2008.
  15. KOTSIA, I. & PITAS, I. Facial expression recognition in image sequences using geometric deformation fea- tures and support vector machines, Image Processing, IEEE Transactions on, 16(1):172 –187. 2007.
  16. NIESE, R. Facial expression recognition based on geometric and optical flow features in colour image sequences, Computer Vision, IET, 6(2):79 –89. 2012.
  17. SEYEDARABI, H. et al. Recognition of six basic facial expressions by feature-points tracking using rbf neural network and fuzzy inference system, In Multimedia and Expo, 2004. ICME ’04. 2004 IEEE International Conference on, volume 2, pages 1219 –1222 Vol.2. 2004.
  18. SHAN, C. et al. Facial ex- pression recognition based on local binary patterns: A comprehensive study. Image and Vision Computing, 27(6):803–816. 2009.
  19. YOUSSIF, A. & ASKER, W. Automatic fa- cial expression recognition system based on geometric and appearance features, Computer and Information Science, pages 115–124. 2011.
  20. ZHANG, L. et al. Discovering the best feature extraction and selection algorithms for spontaneous facial expression recogni- tion, 2012 IEEE International Conference on Multi- media and Expo. 2012.


Criada em 16 de Outubro de 2019
Revista em 19 de Outubro de 2019
Aceite pelo editor em 17 de Dezembro de 2019