#AZURE – Un ejemplo completo de Face APIs y Emotions APIs #ProjectOxford

Hola

Hoy vamos a ver un poco la implementación y el detalle que nos brinda Project Oxford para trabajar con Emotion APIs. En primer lugar un gif con un ejemplo de reconocimiento de edad, sexo y emociones en una app WPF.

2015 11 14 Project Oxford Emotions

Vemos como en una foto sse reconocen 64 MVPs (meuda gente) y luego un poco de Han Solo y con Martina en la playa.

Si  analizamos un poco el código veremos que en la clase FaceAPI, he creado una operacion para la detección de emociones. Esta operación, utiliza el stream de la imagen seleccionada, y además un array con la ubicación de las caras que se encontraron previamente en el proceso de detección de rostros.

Clipboard03

Una vez realizada la detección de emociones, actualizo esta información en la coleccción con los rostros detectados. Por ahora, esto lo hago buscando los mismos rectangles en ambas colecciones, tal vez debo mejorar esta rutina.

Además, en la case que representa un rostro, he creado una propiedad que muestra la emoción con el valor más alto.

Clipboard02

Este valor es el que luego muestro en la app junto al restro en la foto.

Clipboard03

El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid !

El Bruno

References

Advertisements

8 thoughts on “#AZURE – Un ejemplo completo de Face APIs y Emotions APIs #ProjectOxford

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s