#VS2015 – #FateDetection and Merry Christmas #Coding4Fun

Hi!

Although Christmas is gone, my children still love to play with their Santa hats. Half of them have already have been given, but I get out my dev superpowers and with 4 lines of code I add some VIRTUAL HATS in the face detection app !!!

2016 01 04 FaceDetection Merry Christmas

Like always the source is on GitHub and a couple of details

  • The app is Windows Universal App, you can install it on Windows Phone 10, and you can have the same fun in small format
  • The top 2 buttons enable the show and hide frames the face and Santa Hat
  • On the code of the routine to draw the frame, I have created that puts the Santa Hat
  • I still have pending improved the Resize of the app ūüėČ

Greetings @ Madrid

-El Bruno

References

 

Advertisements

#AZURE ‚Äď Utilizando #VisionAPI en nuestras aplicaciones

Hola

Después de ver los ejemplos de Face API para detección de rostros y Emotion APIs para detección de emociones, hoy es el momento de realizar un repaso por las capacidades que nos brinda Vision API.

Este servicio permite analizar imágenes y el resultado de este análisis nos muestra información como la categorías asociadas a la imagen, detección de pornográfica, colores dominantes, etc.

Por ejemplo, la siguiente imagen es un collage con imágenes de la copa del mundo de rugby de Londres de hace un mes. Además del análisis de rostros y emociones, en la 3ra columna, mostramos la información del resultado del análisis con Vision API.

Clipboard01

En la misma podemos ver que la categoría detectada es outdoor, y que además también ha detectado los rostros.

Categories :
Name : outdoor_sportsfield; Score : 0.7890625
Faces :
Age : 17; Gender : Female
Age : 41; Gender : Male
Age : 10; Gender : Female
Age : 6; Gender : Female

En el caso de una imagen mía en un Ford Mustang, nuevamente se detectan rostros, emociones, y la categoría de coches.

Clipboard03

En próximos posts comentaré el detalle de la utilización de esta API, sin embargo un detalle interesante es que ya tenemos algunos paquetes NuGet para trabajar con estas APIs. Todavía no son PCLs, asi que solo los podremos utilizar en projectos Desktop, aunque con 10 minutos de trabajo puedes create tu implementación PCL de las mismas.

Clipboard05

Un ejemplo analizando paisajes y personas se puede ver en el siguiente video

2015 11 19 Oxfordd Vision

El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid !

El Bruno

References

#AZURE ‚Äď Display #EmotionsAPI and #FaceAPI in the detected face frame

Hello

Some days ago, someone asked me about the chance to display age, gender and emotions information in the frame of a detected face. So, I make a couple of improvements in the GitHub samples and now you’ll find something similar to the similar image:

Clipboard02

The source code is available on GitHub https://github.com/elbruno/ProjectOxford

Greetings @ Madrid

El Bruno

References

#AZURE ‚Äď Mostrar detalles de #EmotionsAPI y #FaceAPI en el marco del rostro

Hola

Hace unos días alguien me preguntó sobre la posiblidad de mostrar edad, sexo y detalles de emociones en un marco sobre el rostro detectado. He actualizado los ejemplos en GitHub para mostrar un ejemplo como el siguiente

Clipboard02

El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid !

El Bruno

References

#AZURE ‚Äď Complete sample of Face APIs and Emotions APIs #ProjectOxford

Hello

Today we will see a little implementation and the detail provided by Project Oxford if we want to work with Emotion APIs. Firstly a gif with an example of recognition of age, gender and emotions in a WPF app.
2015 11 14 Project Oxford Emotions

We see a photo with some faces recognized: 64 MVPs (nice set of people) and then a bit of Han Solo and another one with Martina on the beach.

If you look at the code a little we will see that in the FaceAPI class, I have created an operation for the detection of emotions. This operation uses the stream of the selected image, and also an array with the location of the faces that were previously found in the process of face detection.

Clipboard03

Once the detection of emotions is complete, I update this information in the collection with the detected faces. For now, I do this looking for the same rectangles in both collections, perhaps I should improve this routine.
In addition, in the case that represents a face, I’ve created a property showing the excitement with the highest value.
Clipboard02

This value is that then show in the app along with the face frame.
.

Clipboard03

The source code is available on GitHub https://github.com/elbruno/ProjectOxford

Greetings @ Madrid

El Bruno

References

#AZURE ‚Äď Un ejemplo completo de Face APIs y Emotions APIs #ProjectOxford

Hola

Hoy vamos a ver un poco la implementación y el detalle que nos brinda Project Oxford para trabajar con Emotion APIs. En primer lugar un gif con un ejemplo de reconocimiento de edad, sexo y emociones en una app WPF.

2015 11 14 Project Oxford Emotions

Vemos como en una foto sse reconocen 64 MVPs (meuda gente) y luego un poco de Han Solo y con Martina en la playa.

Si  analizamos un poco el código veremos que en la clase FaceAPI, he creado una operacion para la detección de emociones. Esta operación, utiliza el stream de la imagen seleccionada, y además un array con la ubicación de las caras que se encontraron previamente en el proceso de detección de rostros.

Clipboard03

Una vez realizada la detección de emociones, actualizo esta información en la coleccción con los rostros detectados. Por ahora, esto lo hago buscando los mismos rectangles en ambas colecciones, tal vez debo mejorar esta rutina.

Además, en la case que representa un rostro, he creado una propiedad que muestra la emoción con el valor más alto.

Clipboard02

Este valor es el que luego muestro en la app junto al restro en la foto.

Clipboard03

El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid !

El Bruno

References

#AZURE – Hello Emotions! Face APIs and Emotions APIs are the perfect combo to analyze people moods!

Clipboard01

Hello !

Some time ago, I wrote a couple of posts where I explained how to use Azure Machine Learning Face APIs in some apps like Console Apps, Windows Presentation Foundation apps and Windows Store Apps (see references section). These features are part of the Project Oxford initiative, where we can find other useful features like Vision Recognition and LUIS (Language Understanding Intelligent Service).

In my series of posts, I shared some code samples on how to detect and display faces in static images. Now we have a new cool service to add into our apps: Emotion APIs. The emotion features allows us to add a new layer of information with emotions. When we run the Machine Learning¬†process into an image, we can get face detection information along with extra information for emotions grouped in a section named “Scores”.

In example, in the next picture (my self and my little princess in the beach)

Clipboard02

Emotion APIs detects only 1 face (thanks glasses!) and also the following emotion information

"Scores": {
 "Anger": 0.0000022761285,
 "Contempt": 0.000227006109,
 "Disgust": 1.07316886e-7,
 "Fear": 8.930022e-7,
 "Happiness": 0.5243546,
 "Neutral": 0.475262463,
 "Sadness": 0.000147109211,
 "Surprise": 0.000005583676

And, the cool SDK is also very developer friendly with a new property for each one of the values.

Clipboard05

In the next few days, I’ll wrote a series of posts with detailed sample on Emotion API. Today¬†I’ve¬†updated my public repository on GitHub with WPF and Console App samples.

The source code is available in GitHub https://github.com/elbruno/ProjectOxford

Regards @ Madrid

-El Bruno

References

#AZURE ‚Äď Face APIs y Emotions APIs es la combinaci√≥n perfecta para analizar sentimientos en im√°genes!

Clipboard01

Hola !

Hace alg√ļn tiempo, escrib√≠ un par de post donde expliqu√© c√≥mo usar Azure Machine Learning Face APIs en diferentes tipos de apps: aplicaciones de consola, apps Windows Presentation Foundation y Windows Store Apps (las demos y paso a paso en la secci√≥n de referencias). Las rutinas de Face Analysis que utilic√©¬†son parte de la iniciativa de Project¬†Oxford, donde adem√°s de las mencionada, podemos encontrar otras funciones √ļtiles como Vision Analysis y LUIS (Language Understanding Intelligent Service).

En mi serie de posts, compart√≠ algunos ejemplos de c√≥digo sobre c√≥mo detectar y mostrar caras en im√°genes est√°ticas. Ahora tenemos un nuevo servicio para a√Īadir a nuestras aplicaciones: APIs para la detecci√≥n de¬†emociones. Esta nueva API¬†nos permite a√Īadir una nueva capa de informaci√≥n con las emociones asociadas a un rostro. Cuando ejecutamos el proceso de aprendizaje de m√°quina en una imagen, podemos obtener informaci√≥n de detecci√≥n de cara junto con informaci√≥n adicional para emociones agrupados en una secci√≥n llamada “Scores”.

Por ejemplo, en la siguiente imagen m√≠a y de mi ni√Īa en la playa

Clipboard02

Emoción APIs detecta sólo 1 rostro  (gracias gafas !) y también la siguiente información de emociones

“Scores”: {
“Anger”: 0.0000022761285,
“Contempt”: 0.000227006109,
“Disgust”: 1.07316886e-7,
“Fear”: 8.930022e-7,
“Happiness”: 0.5243546,
“Neutral”: 0.475262463,
“Sadness”: 0.000147109211,
“Surprise”: 0.000005583676

Y el SDK es bastante amigable al momento de mostrarnos esta información: .

Clipboard05

En los pr√≥ximos d√≠as escribir√© una serie de posts con m√°s detalle sobre las capacidades de Emotion API. Hoy he actualizado los ejemplos de¬†mi repositorio p√ļblico para las apps de Consola y WPF.

El código fuente esta disponible en GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid

-El Bruno

References

#AZURE Hello Face: WebCam and Windows 8.1 apps

Hello!

New post for Azure Machine Learning Face APIs series

1. Face APIs in Azure

2. Hello Face: Face APIs in a Console App

3. Hello Face: Face APIs in a WPF App

4. Hello Face: Face APIs in a Windows 8.1 App

5. Hello Face: Frame in each detected face in Windows 8.1 App

6. Hello Face: Windows 8.1 Apps and MVVM

7. Hello Face: Webcam and Windows 8.1 Apps

Yesterday I got a MVVM related question, today is how hard is to use the webcam and Face APIs. So you must add first some capabilities into your app so you can Access camera and mic, and I use this class (and old one) which takes and picture and returns a Storage File.

You can use an UI (like in the video) or in silet mode. Both returns a StorageFile, so you can reuse the code from previous posts.

A live sample like always

The source code is available in GitHub https://github.com/elbruno/ProjectOxford

Saludos @ Madrid

/El Bruno

Resources:

Scrum is not for amateurs

– MSDN System.UI.Xaml.Canvas

– MSDN Windows.Storage.StorageFile

#AZURE Hello Face: WebCam y apps Windows 8.1 (7)

Hola!

Nuevo post para la serie de Face Api en Azure

1. Face APIs en Azure

2. Hello Face: Face APIs en una Console App

3. Hello Face: Face APIs en una WPF App

4. Hello Face: Face APIs en una app Windows 8.1

5. Hello Face: Marcos sobre cada rostro detectado en la app Windows 8.1

6. Hello Face: MVVM en apps Windows 8.1

7. Hello Face: WebCam y Apps Windows 8.1

Ayer la pregunta fue sobre MVVM, hoy me llega una sobre qué tan complicado es integrar Face API con la webcam. Pues bien, una vez habilitados los permisos en el manifiesto de la aplicación, yo he utilizado esta clase que escribí hace un tiempo, para tomar una foto con la webcam por defecto y luego retornar un StorageFile.

Esta clase saca las fotos utilizando la UI o en modo silencioso. En ambos casos, retorna un StorageFile, con lo que la implementación es muy similar a la anterior. El resultado es un Frame en cada rostro detectado, por ejemplo

El código fuente en GitHub se puede descargar desde https://github.com/elbruno/ProjectOxford

Saludos @ Madrid

/El Bruno

Resources:

Scrum no es para aficionados

– MSDN System.UI.Xaml.Canvas

– MSDN Windows.Storage.StorageFile