#VS2015 – Detección de rostros en Navidad #FateDetection #Coding4Fun

Hola!

Si bien ya han pasado las navidades, mis niños siguen queriendo jugar con sus gorros de Papa Noel. Como la mitad ya han sido regalados, con 4 líneas en la app que detecta rostros, pues podemos tener GORROS VIRTUALES !!!

2016 01 04 FaceDetection Merry Christmas

Como siempre el código fuente en GitHub y un par de detalles a tener en cuenta

  • La app es Windows Universal App, la puedes instalar en Windows Phone 10 y podrás tener la misma diversion en formato pequeño
  • Los 2 botones superiores habilitan el mostrar y ocultar los marcos de la cara y el gorro de Santa
  • Sobre el código de la rutina para dibujar el marco, he creado la que pone el gorro de Santa
  • Sigo teniendo pendiente mejorar el Resize de la app 😉

Saludos @ Madrid

-El Bruno

References

 

Advertisements

#AZURE – Utilizando #VisionAPI en nuestras aplicaciones

Hola

Después de ver los ejemplos de Face API para detección de rostros y Emotion APIs para detección de emociones, hoy es el momento de realizar un repaso por las capacidades que nos brinda Vision API.

Este servicio permite analizar imágenes y el resultado de este análisis nos muestra información como la categorías asociadas a la imagen, detección de pornográfica, colores dominantes, etc.

Por ejemplo, la siguiente imagen es un collage con imágenes de la copa del mundo de rugby de Londres de hace un mes. Además del análisis de rostros y emociones, en la 3ra columna, mostramos la información del resultado del análisis con Vision API.

Clipboard01

En la misma podemos ver que la categoría detectada es outdoor, y que además también ha detectado los rostros.

Categories :
Name : outdoor_sportsfield; Score : 0.7890625
Faces :
Age : 17; Gender : Female
Age : 41; Gender : Male
Age : 10; Gender : Female
Age : 6; Gender : Female

En el caso de una imagen mía en un Ford Mustang, nuevamente se detectan rostros, emociones, y la categoría de coches.

Clipboard03

En próximos posts comentaré el detalle de la utilización de esta API, sin embargo un detalle interesante es que ya tenemos algunos paquetes NuGet para trabajar con estas APIs. Todavía no son PCLs, asi que solo los podremos utilizar en projectos Desktop, aunque con 10 minutos de trabajo puedes create tu implementación PCL de las mismas.

Clipboard05

Un ejemplo analizando paisajes y personas se puede ver en el siguiente video

2015 11 19 Oxfordd Vision

El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid !

El Bruno

References

#AZURE – Display #EmotionsAPI and #FaceAPI in the detected face frame

Hello

Some days ago, someone asked me about the chance to display age, gender and emotions information in the frame of a detected face. So, I make a couple of improvements in the GitHub samples and now you’ll find something similar to the similar image:

Clipboard02

The source code is available on GitHub https://github.com/elbruno/ProjectOxford

Greetings @ Madrid

El Bruno

References

#AZURE – Mostrar detalles de #EmotionsAPI y #FaceAPI en el marco del rostro

Hola

Hace unos días alguien me preguntó sobre la posiblidad de mostrar edad, sexo y detalles de emociones en un marco sobre el rostro detectado. He actualizado los ejemplos en GitHub para mostrar un ejemplo como el siguiente

Clipboard02

El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid !

El Bruno

References

#AZURE – Complete sample of Face APIs and Emotions APIs #ProjectOxford

Hello

Today we will see a little implementation and the detail provided by Project Oxford if we want to work with Emotion APIs. Firstly a gif with an example of recognition of age, gender and emotions in a WPF app.
2015 11 14 Project Oxford Emotions

We see a photo with some faces recognized: 64 MVPs (nice set of people) and then a bit of Han Solo and another one with Martina on the beach.

If you look at the code a little we will see that in the FaceAPI class, I have created an operation for the detection of emotions. This operation uses the stream of the selected image, and also an array with the location of the faces that were previously found in the process of face detection.

Clipboard03

Once the detection of emotions is complete, I update this information in the collection with the detected faces. For now, I do this looking for the same rectangles in both collections, perhaps I should improve this routine.
In addition, in the case that represents a face, I’ve created a property showing the excitement with the highest value.
Clipboard02

This value is that then show in the app along with the face frame.
.

Clipboard03

The source code is available on GitHub https://github.com/elbruno/ProjectOxford

Greetings @ Madrid

El Bruno

References

#AZURE – Hello Emotions! Face APIs and Emotions APIs are the perfect combo to analyze people moods!

Clipboard01

Hello !

Some time ago, I wrote a couple of posts where I explained how to use Azure Machine Learning Face APIs in some apps like Console Apps, Windows Presentation Foundation apps and Windows Store Apps (see references section). These features are part of the Project Oxford initiative, where we can find other useful features like Vision Recognition and LUIS (Language Understanding Intelligent Service).

In my series of posts, I shared some code samples on how to detect and display faces in static images. Now we have a new cool service to add into our apps: Emotion APIs. The emotion features allows us to add a new layer of information with emotions. When we run the Machine Learning process into an image, we can get face detection information along with extra information for emotions grouped in a section named “Scores”.

In example, in the next picture (my self and my little princess in the beach)

Clipboard02

Emotion APIs detects only 1 face (thanks glasses!) and also the following emotion information

"Scores": {
 "Anger": 0.0000022761285,
 "Contempt": 0.000227006109,
 "Disgust": 1.07316886e-7,
 "Fear": 8.930022e-7,
 "Happiness": 0.5243546,
 "Neutral": 0.475262463,
 "Sadness": 0.000147109211,
 "Surprise": 0.000005583676

And, the cool SDK is also very developer friendly with a new property for each one of the values.

Clipboard05

In the next few days, I’ll wrote a series of posts with detailed sample on Emotion API. Today I’ve updated my public repository on GitHub with WPF and Console App samples.

The source code is available in GitHub https://github.com/elbruno/ProjectOxford

Regards @ Madrid

-El Bruno

References

#AZURE – Face APIs y Emotions APIs es la combinación perfecta para analizar sentimientos en imágenes!

Clipboard01

Hola !

Hace algún tiempo, escribí un par de post donde expliqué cómo usar Azure Machine Learning Face APIs en diferentes tipos de apps: aplicaciones de consola, apps Windows Presentation Foundation y Windows Store Apps (las demos y paso a paso en la sección de referencias). Las rutinas de Face Analysis que utilicé son parte de la iniciativa de Project Oxford, donde además de las mencionada, podemos encontrar otras funciones útiles como Vision Analysis y LUIS (Language Understanding Intelligent Service).

En mi serie de posts, compartí algunos ejemplos de código sobre cómo detectar y mostrar caras en imágenes estáticas. Ahora tenemos un nuevo servicio para añadir a nuestras aplicaciones: APIs para la detección de emociones. Esta nueva API nos permite añadir una nueva capa de información con las emociones asociadas a un rostro. Cuando ejecutamos el proceso de aprendizaje de máquina en una imagen, podemos obtener información de detección de cara junto con información adicional para emociones agrupados en una sección llamada “Scores”.

Por ejemplo, en la siguiente imagen mía y de mi niña en la playa

Clipboard02

Emoción APIs detecta sólo 1 rostro  (gracias gafas !) y también la siguiente información de emociones

“Scores”: {
“Anger”: 0.0000022761285,
“Contempt”: 0.000227006109,
“Disgust”: 1.07316886e-7,
“Fear”: 8.930022e-7,
“Happiness”: 0.5243546,
“Neutral”: 0.475262463,
“Sadness”: 0.000147109211,
“Surprise”: 0.000005583676

Y el SDK es bastante amigable al momento de mostrarnos esta información: .

Clipboard05

En los próximos días escribiré una serie de posts con más detalle sobre las capacidades de Emotion API. Hoy he actualizado los ejemplos de mi repositorio público para las apps de Consola y WPF.

El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid

-El Bruno

References

#AZURE Hello Face: WebCam and Windows 8.1 apps

Hello!

New post for Azure Machine Learning Face APIs series

1. Face APIs in Azure

2. Hello Face: Face APIs in a Console App

3. Hello Face: Face APIs in a WPF App

4. Hello Face: Face APIs in a Windows 8.1 App

5. Hello Face: Frame in each detected face in Windows 8.1 App

6. Hello Face: Windows 8.1 Apps and MVVM

7. Hello Face: Webcam and Windows 8.1 Apps

Yesterday I got a MVVM related question, today is how hard is to use the webcam and Face APIs. So you must add first some capabilities into your app so you can Access camera and mic, and I use this class (and old one) which takes and picture and returns a Storage File.

You can use an UI (like in the video) or in silet mode. Both returns a StorageFile, so you can reuse the code from previous posts.

A live sample like always

The source code is available in GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid

/El Bruno

Resources:

Scrum is not for amateurs

– MSDN System.UI.Xaml.Canvas

– MSDN Windows.Storage.StorageFile

#AZURE Hello Face: WebCam y apps Windows 8.1 (7)

Hola!

Nuevo post para la serie de Face Api en Azure

1. Face APIs en Azure

2. Hello Face: Face APIs en una Console App

3. Hello Face: Face APIs en una WPF App

4. Hello Face: Face APIs en una app Windows 8.1

5. Hello Face: Marcos sobre cada rostro detectado en la app Windows 8.1

6. Hello Face: MVVM en apps Windows 8.1

7. Hello Face: WebCam y Apps Windows 8.1

Ayer la pregunta fue sobre MVVM, hoy me llega una sobre qué tan complicado es integrar Face API con la webcam. Pues bien, una vez habilitados los permisos en el manifiesto de la aplicación, yo he utilizado esta clase que escribí hace un tiempo, para tomar una foto con la webcam por defecto y luego retornar un StorageFile.

Esta clase saca las fotos utilizando la UI o en modo silencioso. En ambos casos, retorna un StorageFile, con lo que la implementación es muy similar a la anterior. El resultado es un Frame en cada rostro detectado, por ejemplo

El código fuente en GitHub se puede descargar desde https://github.com/elbruno/ProjectOxford

Saludos @ Madrid

/El Bruno

Resources:

Scrum no es para aficionados

– MSDN System.UI.Xaml.Canvas

– MSDN Windows.Storage.StorageFile

#AZURE Hello Face: Windows 8.1 apps and MVVM (6)

Hello!

New post for Azure Machine Learning Face APIs series

1. Face APIs in Azure

2. Hello Face: Face APIs in a Console App

3. Hello Face: Face APIs in a WPF App

4. Hello Face: Face APIs in a Windows 8.1 App

5. Hello Face: Frame in each detected face in Windows 8.1 App

6. Hello Face: Windows 8.1 Apps and MVVM

Some people wants to see the world on fire, and most of them usually doesn’t care about simplicity. In example, for a simple app with a view and a button, they add an unnecessary infrastructure which really doesn’t add any value (my post about Scrum is not for beginners may be can explain this topic). So if we need to Upgrade my previous sample, to be used with an MVVM pattern, one solution can be these one.

First we need to create a Canvas Collection, and complete some face location information for each Canvas, like width and height. BTW, try to create a data binding for a Margin is almost impossible.

I added some transparency into the background color of the Canvas so it will be added in a cool way over each face, In the XAML file we add an ItemsControl and complete the Items Source property with our binding.

Done ¡!! We get a new Canvas in each detected face, similar to this one.

The source code is available in GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid

/El Bruno

Resources:

Scrum is not for amateurs

– MSDN System.UI.Xaml.Canvas