[#AZURE] Face APIs con #Azure (1)

Hola!

Desde hace un tiempo en las sesiones de Coding4Fun siempre aprovecho para hablar un poco de lo que han avanzado los procesos de detección de rostros, reconocimiento facial, detección de emociones, etc. Si te gusta Azure, ahora es un gran momento para comenzar a probar el mismo, ya que utilizando experimentos de Machine Learning, hay disponible una serie de features para realizar este tipo de acciones.

En esta serie de posts mostraré como configurar Azure para tener activa una instancia de Face APIs, como publicar la misma como servicio y finalmente como consumir la misma desde una app .Net.

Lo primero es consumir Face API, desde la gallery de Azure Machine Learning. Para esto accedemos al MarketPlace y agregamos Face APIs.

Clipboard01

El asistente es bastante simple, y además es gratis. Por ahora solo está disponible en la region de West US, aunque eso no nos afecta mucho.

Clipboard02

Una vez creado el mismo, ya lo podemos ver en la lista de elementos que tenemos en nuestra cuenta de Azure. El siguiente paso es bastante importante, ya que es donde generaremos la key que nos identificará para utilizar este servicio desde nuestras apps. Para esto debemos acceder al portal de Face APIs desde la opción “Manage”

Clipboard02

En el mismo nos encontraremos con nuestras claves primarias y secundarias, además de la opción de regenerarlas

Clipboard02

Y listo !!! Ya tenemos nuestro entorno de Azure preparado para utilizar Face APis. Sobre las capacidades que posee estas APIs escribiré más adelante, sin embargo toda la información y el SDK se puede encontrar en la página oficial del Project Oxford, donde además de Face APIs, hay APIs para Speech Recognition y Computer Vision. Vamos, que es un sitio para pasárselo en grande 😉

Saludos @ Home

/El Bruno

Project Oxford, http://www.projectoxford.ai/face

Face Api Machine Learning, http://gallery.azureml.net/MachineLearningAPI/b0b2598aa46c4f44a08af8891e415cc7

Advertisements

[#FACEDETECTION] Cool Iimprovements in the faces detection algorithms (now occluded faces also !)

Clipboard01

Hello!

Now that I have finally returned to Madrid after MWC, it’s time to update some draft posts. A couple of days ago many people was amazed when I mentioned the base algorithm for face detection is from the year 2001. That’s it, more than 10 years since the work by Paul Viola and Michael Jones. This algorithm has matured so much and now we can find it as an example in many programming languages, and almost all the cameras and smartphones with cameras have it built to detect faces in real time.

Picture1

If anyone is interested in seeing how the algorithm of Viola-Jones, the wikipedia entry (link) is a work of art.

Now, the basis of this algorithm is that the faces must be “looking to the camera” for the image can be processed correctly. This is what is being sought are the shadows and imaginary lines that are created between the eyes and the nose. This leaves us out of the results of detection, faces that are not straight and looking to the camera.

A few days ago Sachin Farfade and Mohammad Saberian in the laboratories of Yahoo in California, in addition to Li-Jia Li at Stanford University have shown a new approach to face detection, which includes also the faces that are not straight. The name of this algorithm is “Deep den Face Detector” and stands out among other similar speed and “simplicity”. That Yes, the purification and refining of the same is being performed with Machine Learning algorithms quite complex.

If someone wants to stick a fun time reading scientific articles in the official paper explained how one gets to this approach.

Greetings Finally @ Madrid

/El Bruno

References

Multi-view Face Detection Using Deep Convolutional Neural Networks, http://arxiv.org/abs/1502.02766

Viola-Jones face detection, http://en.wikipedia.org/wiki/Viola%E2%80%93Jones_object_detection_framework

[#FACEDETECTION] Mejoras en los algoritmos para deteción de rostros (ahora casi de perfil!)

Clipboard01

Hola!

Ahora que por fin he vuelto a Madrid después del MWC, me toca ponerme al día con los posts atrasados. El otro día mucha gente se quedó asombrada cuando comenté que el algoritmo “base” para la detección de rostros es del 2001. Eso mismo, más de 10 años del trabajo de Paul Viola y Michael Jones. Este algoritmo ha madurado tanto que ahora ya podemos encontrarlo como ejemplo en muchos lenguajes de programación, y casi todas las cámaras de fotos y smartphones con cámaras de fotos lo tienen integrado para detectar rostros en tiempo real.

Picture1

Si alguien está interesado en ver como funciona el algoritmo de Viola-Jones, la entrada que posee en la wikipedia es una obra de arte.

Ahora bien, la base de este algoritmo es que los rostros deben estar “de frente” en la imagen que se procesa. Esto es ya que lo que se busca son las sombras y líneas imaginarias que se crean entre los ojos y con la nariz. Esto nos deja fuera de los resultados de detección, a los rostros que no estén de frente.

Hace unos días, Sachin Farfade y Mohammad Saberian en los Laboratorios de Yahoo en California, además de Li-Jia Li en la Universidad de Stanford han mostrado una nueva aproximación para la detección de rostros, que incluye además los rostros que no estén de frente. El nombre de este algoritmo es “Deep Dense Face Detector” y se destaca entre otros similares por la velocidad y “simplicidad”. Eso sí, la depuración y refinación del mismo se está realizando con unos algoritmos de Machine Learning bastante complejos.

Si alguien tiene ganas de pegarse un rato entretenido leyendo artículos científicos, en el paper oficial se explica como se llega a esta aproximación.

Saludos Finally @ Madrid

/El Bruno

Referencias

Multi-view Face Detection Using Deep Convolutional Neural Networks, http://arxiv.org/abs/1502.02766

Viola-Jones face detection, http://en.wikipedia.org/wiki/Viola%E2%80%93Jones_object_detection_framework