#AZURE – Un ejemplo completo de Face APIs y Emotions APIs #ProjectOxford

Hola

Hoy vamos a ver un poco la implementación y el detalle que nos brinda Project Oxford para trabajar con Emotion APIs. En primer lugar un gif con un ejemplo de reconocimiento de edad, sexo y emociones en una app WPF.

2015 11 14 Project Oxford Emotions

Vemos como en una foto sse reconocen 64 MVPs (meuda gente) y luego un poco de Han Solo y con Martina en la playa.

Si  analizamos un poco el código veremos que en la clase FaceAPI, he creado una operacion para la detección de emociones. Esta operación, utiliza el stream de la imagen seleccionada, y además un array con la ubicación de las caras que se encontraron previamente en el proceso de detección de rostros.

Clipboard03

Una vez realizada la detección de emociones, actualizo esta información en la coleccción con los rostros detectados. Por ahora, esto lo hago buscando los mismos rectangles en ambas colecciones, tal vez debo mejorar esta rutina.

Además, en la case que representa un rostro, he creado una propiedad que muestra la emoción con el valor más alto.

Clipboard02

Este valor es el que luego muestro en la app junto al restro en la foto.

Clipboard03

El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid !

El Bruno

References

8 comments

Leave a comment

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d bloggers like this: