Hola
Hoy vamos a ver un poco la implementación y el detalle que nos brinda Project Oxford para trabajar con Emotion APIs. En primer lugar un gif con un ejemplo de reconocimiento de edad, sexo y emociones en una app WPF.
Vemos como en una foto sse reconocen 64 MVPs (meuda gente) y luego un poco de Han Solo y con Martina en la playa.
Si analizamos un poco el código veremos que en la clase FaceAPI, he creado una operacion para la detección de emociones. Esta operación, utiliza el stream de la imagen seleccionada, y además un array con la ubicación de las caras que se encontraron previamente en el proceso de detección de rostros.
Una vez realizada la detección de emociones, actualizo esta información en la coleccción con los rostros detectados. Por ahora, esto lo hago buscando los mismos rectangles en ambas colecciones, tal vez debo mejorar esta rutina.
Además, en la case que representa un rostro, he creado una propiedad que muestra la emoción con el valor más alto.
Este valor es el que luego muestro en la app junto al restro en la foto.
El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford
Saludos @ Madrid !
El Bruno
References
- Project Oxford Emotion APIs
- Mi serie de posts sobre Azure ML Emotion APIs
- Mi serie de posts sobre Azure ML Face APIs
8 comments