#Podcast – Machine Learning .Net, Guest In Interface Podcast #MLNet

200w_d

Hi !

Back to a podcast, this time invited by the great Rodrigo Diaz Concha to talk about Machine Learning Net. The audio can be found here

As expected, during Build 2018 there were a lot of announcements and novelties around the topic of Artificial Intelligence (AI).  One of these announcements by Microsoft was the immediate availability of ML.NET: a Framework of Machine Learning For .net developers with the C# or F # languages.  ML.NET is an Open project Source, and you can run on Windows, Linux, and MacOS.

To talk about this and more related topics, in this episode we have the presence of Bruno Capuano, who has been a Microsoft MVP for 11 years and currently serves as innovation Lead for Avanade Canada.

During this interesting talk, Bruno explains to us what is ML.NET, where we can apply his notions, what is the state of the development tools currently, the Roadmap of this FrameworkAs well as a description of what we can do with this fascinating technology.

Greetings @ Toronto

El Bruno

References

Advertisements

#Podcast – Machine Learning .Net, invitado en Interfaz #MLNet

200w_d

Buenas!

De vuelta a un podcast, esta vez invitado por el gran Rodrigo Diaz Concha para hablar de Machine Learning .Net. El audio se puede encontrar aquí

Como era de esperarse, durante Build 2018 hubo una gran cantidad de anuncios y novedades al rededor del tema de Inteligencia Artificial (AI).  Uno de estos anuncios por parte de Microsoft fue la disponibilidad inmediata de ML.NET: un framework de Machine Learning para los desarrolladores de .NET con los lenguajes C# o F#.  ML.NET es un proyecto Open Source, y puede ejecutar en Windows, Linux y macOS.

Para hablarnos de este y más temas relacionados, en este episodio contamos con la presencia de Bruno Capuano, quien es un Microsoft MVP desde hace 11 años y que actualmente se desempeña como Innovation Lead para Avanade Canadá.

Durante esta interesante charla, Bruno nos explica qué es ML.NET, dónde podemos aplicar sus nociones, cuál es el estado de las herramientas de desarrollo actualmente, el roadmap de este framework, así como también una descripción de qué podemos hacer con esta fascinante tecnología.

Saludos @ Toronto

El Bruno

References

#AI – Some news in Cognitive Services presented at #MSBuild 2018

Hi!

Again, it’s time to write about some topics what has most caught my attention in the news presented during Microsoft Build 2018. In this case I will only comment on some news related to Vision and Speech.

Vision

  • Computer Vision, now supports Object Detection. We have the ability to detect objects in an image. I have to see more in depth that we can both exploit this capacity in Custom Vision.
  • Custom Vision, new formats to export models. Until now we had the ability to export Custom Vision models to CoreML and TensorFlow.
    Now we have 2 new options that really are impressive

    • Export to ONNX. About this I wrote about it. Now we can use these models natively as part of our UWP Apps in Windows 10.
    • Export to Docker File. Especially designed for mixed scenarios with Azure Functions and Azure IOT Edge

I1

Speech

The first thing to comment is a big but very necessary change.

We now have a single service that handles: Speech to Text, Text to Speech and Speech Intent Recognition.

The 2nd point to note is that we now have the ability to Create our own Voice Models. This means that we could create Alexa or Cortana style assistants using our own voice. Ideal to give to your partner, your mother or your worst enemy.

And with this I put pause for today. Happy coding!

Greetings @ Toronto

El Bruno

 

#AI – Algunas novedades en Cognitive Services presentadas en #MSBuild 2018

Buenas!

Otra vez apunto el post a lo que mas me ha llamado la atención en las novedades presentadas en Microsoft Build 2018. En este caso solo comentare algunas novedades relacionadas a Vision y Speech.

Vision

  • Computer Vision, ahora soporta Object Detection. Tenemos la capacidad de detectar objetos en una imagen. Tengo que ver mas a fondo que tanto podemos explotar esta capacidad en Custom Vision.
  • Custom Vision, nuevos formatos para exportar modelos. Hasta ahora teníamos la capacidad de exportar modelos de Custom Vision a CoreML y a TensorFlow. Ahora tenemos 2 nuevas opciones que realmente son impresionantes
    • Exportar a ONNX. Sobre esto ya escribí al respecto. Ahora podremos utilizar estos modelos de forma nativa como parte de nuestras UWP Apps en Windows 10.
    • Exportar a Docker File. Especialmente pensado para escenarios mixtos con Azure Functions y Azure IOT Edge

I1

Speech

Lo primero a comentar es un cambio grande pero muy necesario.

Ahora tenemos un único servicio que se encarga de: Speech to Text, Text to Speech y Speech Intent Recognition.

El 2do punto a destacar es que ahora tenemos la capacidad de crear nuestros propios Voice Models. Esto significa que podríamos crear asistentes del estilo Alexa o Cortana utilizando nuestra propia voz. Ideal para regalar a tu pareja, tu madre o a tu peor enemigo.

Y con esto pongo pausa por today. Happy coding!

Saludos @ Toronto

El Bruno

 

#Build – Project #Kinect for Azure

0.jpg

Hi!

About 6 months ago I commented in a post the official “goodbye” of Microsoft Kinect. After many years working with this device, it was a very unpleasant feeling to have to put it aside.

Well, today among the stack of new features that were presented in Microsoft Build, there is one that I have to review

Project Kinect for Azure

As it turns out, in the middle of the IoT Edge presentation, when you least expect it, a slide appears talking about Project Kinect for Azure. And smart, if you did not see it, you lost. Luckily, Alex Kipman, had published a few minutes before a complete article on LinkedIn Press about it.

Let’s go for it. Although Microsoft has discontinued Microsoft Kinect, that does not mean that it has left aside the research and development related to depth sensors. Hololens is an excellent example of how it has advanced in aspects such as size and energy consumption, also having an excellent capacity for perception. And the sensors in Hololens belong to “the 3rd generation of depth sensors”.

Note: 1st generation Kinect for Xbox 360, 2nd generation Kinect for Xbox One, 3rd generation Hololens.

Well, Project Kinect for Azure presents the 4th generation of depth sensors. I still do not know what the characteristics and capabilities of these new sensors will be, although I would like to speculate that they will be designed to natively integrate some of the capabilities of Azure Cognitive Services. In addition to the improvements that can be expected in terms of quality, capacity, etc.

It’ a happy time to be a Kinect Developer again!

Greetings @ Burlington

El Bruno

References

#Build – Project #Kinect for Azure

0.jpg

Buenas!

Hace unos 6 meses comentaba en un post el “adiós” oficial de Microsoft Kinect. Después de muchos años trabajando con este device, era una sensación no muy agradable el tener que dejarlo de lado.

Pues bien, hoy entre la pila de novedades que se presentaron en Microsoft Build, hay una que tengo que reseñar

Project Kinect for Azure

Pues resulta que en medio de la presentación de IoT Edge, cuando menos te lo esperabas aparece una slide hablando de Project Kinect for Azure. Y listo, si no lo viste, perdiste. Por suerte, Alex Kipman, había publicado unos minutos antes un completo articulo en LinkedIn Pulse al respecto.

Vamos a ello. Si bien Microsoft ha discontinuado Microsoft Kinect, eso no quiere decir que haya dejado de lado la investigación y desarrollo relacionados a sensores de profundidad. Hololens es un excelente ejemplo de cómo se ha avanzado en aspectos como el tamaño y el consumo de energía, teniendo además una excelente capacidad de percepción. Y los sensores en Hololens pertenecen a “la 3ra generación de sensores de profundidad”.

Nota: 1ra generación Kinect for Xbox 360, 2da generación Kinect for Xbox One, 3ra generación Hololens.

Pues bien, Project Kinect for Azure presenta la 4ta generación de sensores de profundidad. Todavía no tengo en claro cuáles serán las características y capacidades de estos nuevos sensores, aunque me animo a especular que estarán pensados para integrar de forma nativa algunas de las capacidades de Azure Cognitive Services. Además de las mejoras que se pueden esperar en términos de calidad, capacidad, etc.

It’ a happy time to be a Kinect Developer again!

Saludos @ Burlington

El Bruno

References