#Event – Introduction to Microsoft AI (Jan 25th at Mississauga)

DC90O9TXoAAXS1m

Hi!

Back to event mode and this time along with Margaryta (@in4Margaret) to share some experiences on working with Microsoft’s Artificial Intelligence platform. As usually happens in these cases, she is the expert and I will only bring my point of view and my experience as a developer using and learning about these services.

The event is next January 25th thanks to the Mississauga .Net User Group. More details below

Introduction to Microsoft AI

Margaryta and Bruno as duo will walk through the Microsoft AI platform and capabilities to allow any developer to infuse intelligence into their applications and target entirely new scenarios enabled by the latest innovations in AI. You’ll learn about API’s that provide object recognition, face detection and identification, emotion recognition, OCR, computer vision, video services, language understanding, sentiment analysis and more. They will also demonstrate how you can add customized intelligence to your solution or leverage AI services in conjunction with the Microsoft Bot Service.

Meetup: https://www.meetup.com/MississaugaNETUG/events/246767415/

Greetings @ Burlington

El Bruno

Advertisements

#Event – Introducción a Microsoft AI (Jan 25th at Mississauga)

DC90O9TXoAAXS1m

Buenas!

Vuelta a los eventos y esta vez junto con Margaryta (@in4Margaret) para hablar sobre la plataforma de Artificial Intelligence de Microsoft. Como suele suceder en estos casos, ella es la experta y yo solo aportare mi punto de vista y experiencia como developer utilizando y aprendiendo sobre estos servicios.

El evento es el próximo 25 de enero para Mississauga .Net User Group. Mas detalles a continuación

Introduction to Microsoft AI

Margaryta and Bruno as duo will walk through the Microsoft AI platform and capabilities to allow any developer to infuse intelligence into their applications and target entirely new scenarios enabled by the latest innovations in AI. You’ll learn about API’s that provide object recognition, face detection and identification, emotion recognition, OCR, computer vision, video services, language understanding, sentiment analysis and more. They will also demonstrate how you can add customized intelligence to your solution or leverage AI services in conjunction with the Microsoft Bot Service.

Registro: https://www.meetup.com/MississaugaNETUG/events/246767415/

Saludos @ Burlington

El Bruno

#Event – Materials used during the [#AI: Hype or Reality] session at #MSTechSummit Toronto

HI!

Microsoft Tech Summit Toronto 2017 has ended and the time has come to share the materials of my presentation.

During my AI for the Enterprises session, I did not resist commenting on one of the most sympathetic examples in the world of AI: Muffin or Chihuahua. I strongly suggest to the people to search for this on the Internet, there are serious articles and others not so much about it.

The Muffins and Chiahuahuas topic seems to have been very successful because I was almost 45 minutes answering questions after the session (sorry Sabrina for getting late to the next session!).

Between the toilet paper story and the muffins slide, I hope that someone of the audience will be encouraged to try and use Azure Cognitive Services.

As usual the slides I’ve used on my presentation

And a couple of important links, mostly related to the the topics we shared in my session of AI and in the panel of AI Ask the experts

Happy Coding!

Greetings @ Toronto

El Bruno

#Opinion – News and more news on Artificial Intelligence and we can expect in the near future

Hello!

At the beginning of this year, I participated in a meeting with the general manager of Avanade Canada at the Microsoft Technology Center, where we presented our global Vision on technologies and trends for this year. It’s named “Avanade Techvision 2017” and this year is the first time that all the topics we talked about were covered under a general theme: Artificial Intelligence.

Avanade-Tech-Vision

Over the next 5/10 years evolution in AI will impact on the way the society works. Obviously here we need to talk about topics such as creating new jobs, augmenting and optimizing existing jobs with devices like Hololens, and many other changes. In example, in the near future, thanks to artificial intelligence, we can detect signs of diabetes in our body, only using the camera of our smartphone. A photo analyzed in the device, supported by a DNN, can quickly tell us if we are at risk for diabetes. (See references)

However, an interesting detail in this aspect is that the current hardware needs to upgrade at lot to get there. Nowadays, the consumer focused hardware is the one that has to accelerate to be able to live up to it. In one hand we have big players, like specialized laboratories with enough money, and they already have special computers which give them the ability to apply AI algorithms. The big challenge is like bringing the IA to the final consumer in an affordable way. Without large data exchange costs using the cloud, and with processors which are battery efficient.

Yesterday I wrote about the new HPU processor with AI capabilities that will be incorporated in the new version of Hololens. Microsoft has already been responsible for developing the V1 of this HPU processor, and it is no wonder that this new processor, which some call “AI co-processor”, not only has applications in Hololens, but also in other devices such as smartphones, laptops and tablets.

Today I read in Wired the article “The rise of AI is forcing Google and Microsoft to become Chipmakers“, which describes the approach that Google also has about it. HPU incorporates the concept of a re-programmable chip, where for example for Hololens you can add AI capabilities for voice recognition and recognition of movements and gestures with the hands (naturally necessary in Hololens).

Another example is Google. Google works on a processor called Tensor Processor Unit. This processor also implements DNN capabilities, and has saved Google the creation of 15 Data Centers for speech-recognition-related activities. I guess, that 15 Data Centers out of the house improvement budget, should be an interesting savings for the board of directors of Google.

Note: TPU is nominated based on TensorFlow. TensorFlow is an AI system originally created by the Google Brain team and was published in open source mode a few years ago. It’s the core of a lot of Google’s internal work and is widely supported by the AI developer community.

 

And if this were not enough, the CEOs of a couple of big companies start to have some not nice words between each others on the Artificial Intelligence world. In this case it is Elon Musk (aka Tony Stark) who in tweet said that the knowledge of Mark Zuckerberg on AI is limited.

In reality, this arises because they both have two very different views on how to use and legislate artificial intelligence. Elon Musk wants to regulate the use of AI, in his words:

(AI) presents fundamental risk to the existence of human civilization.

According to Elon, you won’t have to spend much time before we see robots killing people down the street. (If you are thinking on a Terminator Rise of the Machines scenarios, you are wrong, I’ll write about this later in a new post)

Marc Zuckerberg has another completely different view, MZ says:

I’m optimistic. And I think people who oppose and try to paint these apocalyptic scenarios, I just don’t get it. It’s really negative and, in fact, somehow I think it’s pretty irresponsible.

Beyond all this, what is clear is that all the biggest Tech companies in the world are investing (one way or another) in something related to Artificial Intelligence. Every little advance that is made on the subject will affect the way we live and work.

I am almost sure that my children will not have the need to learn how to drive. In 10 years, cars will be electric and most will be autonomous. Depending on where you live, you probably don’t have the need to learn how to drive, because a car (which doesn’t have to be yours) will be the one to help you move when you need to travel from one place to another.

Scenarios like the previous one, are not far from being a reality. And what today seems to us science fiction, in a few years will be our day to day.

Greetings @ Burlington

El Bruno

References

#Opinión – Lo que invierten los grandes en Inteligencia Artificial y que podemos esperar en un futuro cercano

Hola!

A principio de este año, participe en una reunión con el General Manager de Avanade Canada en el Microsoft Technology Centre, donde presentamos la visión global de Avanade sobre tecnologías para este año. La llamamos “Avanade TechVision 2017” y este año es la primera vez que todos los tópicos sobre los que hablamos estaban englobados bajo un tema general, la Inteligencia Artificial.

Avanade-Tech-Vision

Nosotros sabemos que durante los próximos 5/10 años la evolución en este aspecto impactara en la forma en la que nos desenvolvemos en la sociedad. Obviamente aquí tocamos temas como la creación de nuevos trabajos, la especialización y optimización de trabajos existentes con dispositivos como Hololens, y muchos otros cambios más. En pocos años, y gracias a la Inteligencia Artificial, podremos detectar signos de diabetes en nuestro organismo, solamente utilizando la cámara de nuestro smartphone. Una foto analizada localmente por un proceso de DNN, nos comunicara si tenemos riesgo de padecer diabetes. (ver referencias)

Sin embargo, un detalle interesante en este aspecto es que el hardware se está quedando atrás. En realidad, el hardware de consumo es el que tiene que acelerar para poder estar a la altura. A mi entender, laboratorios especializados con el dinero suficiente, desde hace tiempo que poseen ordenadores especiales, que les brindan la capacidad de aplicar algoritmos de AI. El gran reto es como llevar la IA al consumidor final de forma barata, sin grandes gastos de datos utilizando el cloud, y con procesadores que no consuman mucha bateria.

Ayer escribí sobre el nuevo procesador HPU con capacidades de AI que se incorporara en la nueva versión de Hololens. Microsoft ya se ha encargado de desarrollar la V1 de este procesador HPU, y no es de extrañar que este nuevo procesador, al que algunos llaman “AI co-processor”, no solo tenga aplicaciones en Hololens, sino también en otros dispositivos como smartphones, laptops y tablets.

Hoy leo en Wired el artículo “The rise of AI is forcing Google and Microsoft to become Chipmakers”, donde describe el enfoque que también tiene Google al respecto. HPU incorpora el concepto de un chip reprogramable, donde por ejemplo para Hololens se pueden agregar capacidades de AI para reconocimiento de voz y reconocimiento de movimientos y gestos con las manos (naturalmente necesarios en Hololens).

Google, por su parte, trabaja en un procesador llamado Tensor Processor Unit. Este procesador también implementa capacidades de DNN, y ha ahorrado a Google la creación de 15 data centers para actividades relacionadas con el reconocimiento de voz. Supongo yo, que 15 data centers fuera del presupuesto de gastos del hogar, debe ser un ahorro interesante para el Board of Directors de Google.

Nota: TPU viene nominado en base a Tensor Flow. TensorFlow es un sistema de AI creado originalmente por el equipo de Google Brain y que fue publicado en modo Open Source hace unos años. Es el core de mucho del trabajo interno de Google y está ampliamente soportado por la comunidad de desarrolladores de AI.

Y por si esto fuera poco, los CEOs de un par de grandes empresas se comienzan a dar palos relacionados con la Inteligencia Artificial. En este caso se trata de Elon Musk (aka Tony Stark) que en tweet dijo que el conocimiento de Mark Zuckerberg sobre AI es limitado.

En realidad, esto surge porque ambos tienen 2 visiones muy diferentes respecto a cómo utilizar y legislar la inteligencia artificial. Elon Musk quiere regular la utilización de AI, en sus palabras:

(AI) presents fundamental risk to the existence of human civilization.

Según Elon, no tendrá que pasar mucho tiempo antes que veamos robots matando personas por la calle.

Marc Zuckerberg tiene otra visión completamente diferente, MZ comenta:

Soy optimista. Y creo que la gente que se opone y trata de pintar estos escenarios apocalípticos, simplemente, no lo entiendo. Es realmente negativo y, de hecho, de alguna manera pienso que es bastante irresponsable.

Mas allá de todo esto, lo que si está claro es que todos los grandes están invirtiendo (de una forma u otra) en algo relacionado con la Inteligencia Artificial. Cada pequeño avance que se haga en el tema incidirá en la forma en la que vivimos y trabajamos. Yo estoy casi seguro, que mis niños no tendrán la necesidad de aprender a conducir. Dentro de 10 años, los coches serán eléctricos y la mayoría serán autónomos. Dependiendo del sitio donde vivas, es muy probable que no tengas la necesidad de aprender a conducir, ya que un coche (que no tiene porque ser el tuyo) será el que te ayude a moverte cuando necesites viajar de un sitio a otro.

Escenarios como el anterior, no están lejos de ser una realidad. Y lo que hoy nos parece ciencia ficción, en unos años será nuestro día a día.

Saludos @ Burlington

El Bruno

References

AI – #CNTK, una solucion open source de inteligencia artificial de #MSResearch

Clipboard02

Hola !

Empecemos por CNTK que es la versión corta de “Computational Network Toolkit” (ya lo sé, es que la palabra acrónimo nunca me ha gustado). Este toolkit ha sido creado por el equipo de Microsoft Research, y su principal objetivo es describir redes neuronales como una serie de pasos procesados mediante un grafo dirigido (resumen muy corto, lo sé)

Durante los últimos días he pasado un par de horas jugando con el kit de herramientas. El primer paso es, como siempre la sección Get Started en GitHub.

A menos que seas un experto en C++, que quieras compilar los controladores gráficos, quieras aprender OpenCV y mucho mas, te recomiendo empezar directamente con la instalación local e ir a los ejemplos.

Importante: Si aun así quieres jugar con fuego, hay una sección de despliegue y compilación para Windows donde se describe todos los pasos necesarios para clonar, compilar y desplegar en modo local. Yo traté de hacer esto y básicamente tiré abajo otros proyectos locales en mi ordenador.

Por lo tanto, en este momento la sección de Ejemplos te puede dar algunas ideas para empezar a aprender a conocer el Toolkit. En la sección de ejemplos podemos encontrar

Como se puede ver en las muestras, el foco principal del CNTK está en speech recognition. Microsoft tiene una larga historia en esto, productos como Cortana, Skype TranslationProject Oxford Speech APIs son el resultado de años de investigación sobre reconocimiento de voz. (Realmente necesito escribir algunos posts sobre proyecto Oxford Audio API, hasta ahora mi enfoque estaba en video y detección de rostros)

Otro punto importante en el toolkit es el soporte de AZURE. Usando una combinación del CNTK y Azure GPU Lab, el equipo de investigación de MS Research creó una plataforma GPU distribuida que puede ser utilizada por la comunidad para avanzar en investigación de AI.

Por ejemplo, en un artículo de TechNet, se describe una comparación entre tres otras herramientas computacionales y CNTK. (Torch, TheanoCaffe, como recientemente abierto con herramientas de GoogleIBM). Los resultados se exponen debajo y CNTK ha demostrado para ser más eficaz que los otros.

image

Por último, esto no es (como siempre) un area donde sea un experto, pero es algo que me gusta mucho. También es un tema que pienso, que cada developer debe conocer un poco, empezando por a conocer las bases, la tecnología, la plataforma,

Saludos @ Toronto

-El Bruno

References

#AI – #CNTK the #opensource computational network toolkit from #MSResearch #Microsoft

Clipboard02

Hi !

CNTK stands for “Computational Network Toolkit”. This toolkit is a creation from the Microsoft Research team, which main focus is to describe neural networks as a series of computational steps via a directed graph (short resume I know)

So, during the past days I spend some hours playing around with the toolkit. First step is probably to read something about or go directly to the Get Started section on GitHub.

Unless you are an expert on C++, you like to compile graphics drivers, you want to learn about OpenCV and more, I strongly recommend to start directly with the local installation and go to the samples section.

Important: The setup on Windows section describes all the necessary steps to clone, build and deploy all in local mode. However, I tried to do this, and basically broke other local projects from my own.

So, at this moment the Samples section can give you some ideas to start learning the toolkit. In the Examples section we can find

So, as you can see in the samples, the main focus of CNTK is Speech. And Microsoft has a long story on this, products like Cortana, Skype Translation or Project Oxford Speech APIs are the final result of years of investigation on Speech recognition. (I really need to write some posts about Project Oxford Audio APIs, so far my focus was on video and face detection)

Another important point in the toolkit is the Azure support. Using a combination of CNTK and Azure GPU Lab, the research team created a distributed GPU platform to be used by the community to advance AI research.

As an example, in a TechNet article, they describe a comparison between four other popular computational toolkits and CNTK. (Torch, Theano and Caffe, as just recently open sourced toolkits from Google and IBM). The results are exposed in below chart and, CNTK has proved to be more efficient than the others.

image

Finally, this is not (by far) my main expertise but is something which I really like and also where I really think, every developer must play around and start to know the basis / technology / platform.

Greetings @ Toronto

-El Bruno

References