Hola !
Hace algún tiempo, escribí un par de post donde expliqué cómo usar Azure Machine Learning Face APIs en diferentes tipos de apps: aplicaciones de consola, apps Windows Presentation Foundation y Windows Store Apps (las demos y paso a paso en la sección de referencias). Las rutinas de Face Analysis que utilicé son parte de la iniciativa de Project Oxford, donde además de las mencionada, podemos encontrar otras funciones útiles como Vision Analysis y LUIS (Language Understanding Intelligent Service).
En mi serie de posts, compartí algunos ejemplos de código sobre cómo detectar y mostrar caras en imágenes estáticas. Ahora tenemos un nuevo servicio para añadir a nuestras aplicaciones: APIs para la detección de emociones. Esta nueva API nos permite añadir una nueva capa de información con las emociones asociadas a un rostro. Cuando ejecutamos el proceso de aprendizaje de máquina en una imagen, podemos obtener información de detección de cara junto con información adicional para emociones agrupados en una sección llamada “Scores”.
Por ejemplo, en la siguiente imagen mía y de mi niña en la playa
Emoción APIs detecta sólo 1 rostro (gracias gafas !) y también la siguiente información de emociones
“Scores”: {
“Anger”: 0.0000022761285,
“Contempt”: 0.000227006109,
“Disgust”: 1.07316886e-7,
“Fear”: 8.930022e-7,
“Happiness”: 0.5243546,
“Neutral”: 0.475262463,
“Sadness”: 0.000147109211,
“Surprise”: 0.000005583676
Y el SDK es bastante amigable al momento de mostrarnos esta información: .
En los próximos días escribiré una serie de posts con más detalle sobre las capacidades de Emotion API. Hoy he actualizado los ejemplos de mi repositorio público para las apps de Consola y WPF.
El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford
Saludos @ Madrid
-El Bruno
References
- Project Oxford Emotion APIs
- Mi serie de posts sobre Azure ML Face APIs
9 comments