#Opinion – Bye #Kinect, thanks!

image_thumb17

Today I start without a [Hello!], because based on some news today it should be a sad day. I summarize it in a simple line

Microsoft has decided to discontinue the manufacture of Kinect.

Matthew Lapsen (Xbox Devices Marketing Manager) together with Alex Kipman have made this news to the public, so that’s it. Several years after the launch, the path of Kinect has come to an end. During its launch was the best-selling device in history, Kinect broke several records and generated a hype that few devices at Microsoft have been achieved.

It also time to finally stop listening and left behind to the ones who predicted the failure of Kinect (don’t get me start here). And I say “left behind”, because knowing a bit about how the market has evolved, it is easy to see how the ideas that were housed inside Kinect today exist in many everyday devices.

During the past 2 days I read, at least 10 articles that commented that Microsoft has decided to stop making Kinects, and has passed the baton to Apple which incorporates them in their new iPhone X.

Actually, iPhone X uses 3D scanning capabilities to perform tasks such as Face recognition or to animate some very cute Emojis. This is Kinect technology evolved up to today, a miniaturized sensor inside a $1000 device which allows us to animate Emojis faces! Chan! I sorry, I lost myself.

I once wrote about the reason for the rejection of many people about Kinect, so I will not touch the topic (link). What I do is remember the more than 20 events I gave all around Europe and America sharing my experiences creating Apps for Kinect.

Thank all the people who had the patience to attend these events,and hear how excited I was with each SDK breakthrough. I would also like to thank everyone who helped me with Kinect Apps tests in my house and my office. Remember that to try Apps that used Kinect, the most normal thing was always to have someone in front of it. Here Victor gets the biggest THANK YOU!

hackerman

Finally add that Kinect is one of the few products I have had so much fun. I have been fortunate to present the capabilities of Kinect to many people, clients and events and the truth is that it is one of the moments where I have heard the best ideas to create Apps.
I have not had such a grateful and enthusiastic public until these last years with Hololens.

Note: Hololens have a pair of mini Kinect embedded in the Helmet.

Well, I thank Kinect for everything. I will keep my 4 devices in the collection of gadgets and surely when I have grandchildren I can explain how fabulous it was to detect that a person raised his hand over his head or waved and with that make an App!

Happy Coding!

El Bruno

References

#Opinion – Adios #Kinect, GRACIAS!

image_thumb17

Hoy empiezo sin un [Hola!], ya que internamente es un día que debería ser triste. Lo resumo en una simple línea

Microsoft ha decidido descontinuar la fabricación de Kinect.

Matthew Lapsen (Xbox Devices Marketing Manager) junto con Alex Kipman lo han hecho público. Y listo, varios años después del lanzamiento, el camino de Kinect ha llegado a su fin. Atrás quedan anécdotas como que durante su lanzamiento fue el device más vendido de la historia, que batió varios récords y que genero un hype que pocos devices en Microsoft han logrado.

También quedan atrás todos aquellos que pronosticaban el fracaso de Kinect de una forma avanzada. Y digo quedan atrás, porque conociendo un poco como ha evolucionado el mercado, es fácil ver como las ideas que se alojaban dentro de Kinect hoy existen en muchos devices cotidianos.

Hoy he leído, por lo menos 10 artículos que comentaban que Microsoft ha decidido dejar de fabricar Kinects, y le ha pasado el testigo a Apple que los incorpora en su nuevo iPhone X. En realidad, iPhone X aprovecha capacidades de escaneado 3D para realizar tareas como Face recognition o para animar unos Emojis la mar de cuquis. En eso ha quedado Kinect hoy, miniaturizado en un device de $1000 que nos permite animar las caras de Emojis. ¡Chan! Me empiezo a ir por las ramas.

Alguna vez escribí sobre el porqué del rechazo de muchas personas sobre Kinect, así que no tocare el tema (link). Lo que, si hare es recordar los más de 20 eventos que di por Europa y America hablando de Kinect, y sobre como podíamos crear Apps con el mismo.

Agradecer a toda la gente que tuvo la paciencia de asistir a estos eventos, y escuchar lo emocionado que estaba con cada avance del SDK. También agradecer a todos los que me ayudaron con pruebas de Kinect Apps en la oficina. Recordemos que para probar Apps que usaban Kinect, lo más normal era siempre tener a alguien al frente de la misma. ¡Aquí Victor se lleva el GRACIAS más grande!

hackerman

Finalmente comentar que con pocos productos me he divertido tanto. He tenido la suerte de presentar las capacidades de Kinect a muchas personas, clientes y eventos y la verdad es que es de los momentos en donde he escuchado las mejores ideas para crear Apps. No he vuelto a tener público tan agradecido y entusiasmado hasta estos últimos años con Hololens. Que conviene recordar que tiene un par de mini Kinect embebidas en el Helmet.

Pues bien, yo le doy las gracias a Kinect. Me quedo con mis 4 devices en la colección de gadgets y seguramente cuando tenga nietos les poder explicar lo fabuloso que era poder detectar que una persona levantaba la mano sobre la cabeza o saludaba y con eso hacer una app!

Happy Coding!

El Bruno

References

#Opinion – #GoTouch, draw and share in any surface with 2 clicks!

Hi!

If you are a technology fan, there are some places where you can lost track of time. Best examples maybe are KickStarter or IndieGogo. I usually spend some time here, not only to look for cool projects but also to understand other technology trends like

  • Which are the platforms supported in the most popular projects? Nowadays is kind of weird to find a Windows SDK for most projects, 9 on 10 usually supports only iOS and Android.
  • Which technology / trend are the most popular projects? 3D Printing used to ne huge, now productivity and sharing are the most popular ones.

I don’t have any specific criteria, however I always found some great ones, in example, GoTouch. A quick video

So, one year later, I finally get my hands on my GoTouch. In the meatinme I moved between a couple of different houses, I backed the project with $100, I have some logistical issues, at the end the devices really makes for the waiting time. The device presentation is great.

I4

We start downloading the software from their homepage (references), and then we need to pair the device via BlueTooth.

Important: The package also includes a BlueTooth dongle, with a custom BlueTooth Stack Software for this Dongle, just in case you don’t have BlueTooth in the PC where you are planning to use GoTouch. If you ask me, I kind of not advice you to use this custom BlueTooth software.

I5

Once you have the device paired it’s time to calibrate the device. Quick note here: once you point the device to your monitor / screen it will automatically detect the interaction area and start to infer coordinates from there. This out of the box procedure works very well.

You can also have the option to perform a more refined calibration, when you need to touch a couple of specific points in your screen and it will make the writing and drawing experience very accurate.

I6

As I said, the out of the box calibration is fine, however with the extra calibration the device is amazing. You can see how my little one is having fun with GoTouch at home. And I have a tricky scenario, a monitor with a 21:9 format. Even here GoTouch works great.

2017 09 11 GoTouch 02

And you can use this also in a TV, in a projector screen, in a wall, etc. It works very well also with popular Apps like Paint, Paint3D or even OneNote. At the end, you also et really productive when 2 or more people works in the virtual wall and also collaborates from PCs or smartphones. As soon as I test this I’ll probably share my experiences on this.

Bonus: One year after I backed the project, KickStarter is not for people on a hurry 😀

I2

Greetings @ Toronto

El Bruno

References

#Opinion – #GoTouch, convierte cualquier superficie plana en táctil con 2 clicks!

Hola!

Si te gusta mucho la tecnología, hay lugares que pueden ser la perdición. Por ejemplo, KickStarter o IndieGogo. Yo suelo dedicar un poco de tiempo en cada uno de estos sitios para analizar cuestiones como las siguientes

  • ¿Que plataformas son las más soportadas por los proyectos más populares? Es raro encontrar un SDK para Windows, por lo general 9/10 soportan siempre iOS y Android.
  • ¿Que tipo de proyectos son los más populares? Esto suele ir cambiando mucho, hay épocas donde todos los proyectos son extensiones de 3D Printing, otras épocas son más orientados a productividad de escritorio, etc.

Los criterios son variados, sin embargo, siempre encuentro algo interesante. Por ejemplo, GoTouch. Me ahorro la explicación con un video

Pues bien, después de casi un año de espera, 2 mudanzas, $100 y algunos detalles logísticos, por fin ha llegado a mis manos. La verdad es que la presentación del device es genial.

I4

El software se descarga desde su Home Page (ver referencias) y después solo queda configurar y emparejar el mismo vía BlueTooth.

Importante: El device trae un dongle BlueTooth y un software bluetooth en caso de que no tengas BlueTooth en el ordenador para usar GoTouch. He probado el software para este dongle, y … mejor no instalarlo.

I5

Una vez instalado, el siguiente paso es posicionarlo frente a una pantalla y configurarlo. En mi caso, la prueba era especial, ya que tengo un monitor con formato 21:9, y no lo iba a poner frente al monitor. Decidí ponerlo en diagonal a la izquierda como muestra la siguiente foto. El software que posee GoTouch automáticamente detecta la pantalla para trabajar, esto funciona muy bien. También tenemos la posibilidad de realizar un calibrado, presionando en 4 puntos de la pantalla.

I6

Tengo que reconocer que GoTouch solo funciona bien, aunque después del calibrado es muy pero muy preciso. La siguiente imagen muestra a mi niña “dibujando” en mi pantalla.

2017 09 11 GoTouch 02

Y bien, a partir de aquí, has convertido una pantalla normal en un device táctil con un pen. Puedes usar GoTouch con aplicaciones populares como Paint, Paint3D o inclusive OneNote. Aunque realmente le sacas valor cuando usar las herramientas de colaboración cuando una persona trabaja en la pizarra virtual y otras trabajan desde PCs o smartphones.

Cuando lo pruebe en un entorno colaborativo, comentare algo mas al respecto.

Bonus: Ha pasado casi un año desde que apoye al proyecto 😀

I2

Saludos @ Toronto

El Bruno

 

References

#Opinion – Your vacuum will be your #AR device ! Augmenting #ARKit, #ARCore and #MixedReality

Hi !

I have very good memories about the times when I used to speak in events about Microsoft Robotics. It was the year 2006 and my girl make give me the best present ever: Lego Mindstorm NXT. I’ve spend hours and hours with the Lego and also playing around with Visual Studio try to control my bot using C#. (During those days I really learn about the Microsoft approach to Bluetooth) Microsoft Robotics supported several types of bots, however the most popular ones were Lego Mindstorms and the popular  Roomba vacuum. Yes, roomba used to have a special model with Bluetooth connectivity and, you know, hack the bluetooth, hack the world! You can control the Roomba using Microsoft Robotics.

Of course, once you were there, the next step was to get a 2nd Roomba vacuum and prepare a Sumo fight between the 2 devices. I think it was in TechEd 2008 when it took place the final of Microsoft Robotics challenge, I was lucky enough to be there as an attendee.

giphy.gif

In this line, you are probably thinking: vacuums? bots? how this is related to Augmented Reality? Bruno finally lost it.

Let’s get back a little to the AR world. Most of the AR SDKs relies on some type of sensors to create a model of the surrounding environment. In ARKit and ARCore this is supported by the camera and the motion sensors, in other devices and SDKs you can also have depth sensors.

And what happens if we add information of external sensors into the process of the creation, analysis or exploration of the surrounding 3D model ? Why not use external sensors, whose who can make a Full scan of the indoors of a house? Take a look at this video.

If the SDK can somehow detect “where it is” and make a request to a 3rd party service for a 3D model of the current environment this will be a huge advance. The chance to use this information as an external capability to our mapping process will be a big advance. Today in the AR world, the tracking / mapping is one of the main challenges for all the players (Apple, Microsoft, Google, Facebook, etc …)

Note: Of course, once you have the map, you need to understand “where are you inside the map”, and this is not an easy task. Today we see this as the “lost tracking” scenario, but this is just an idea for the near future.

There are plenty of paths to take from here. In our Avanade TechVision 2017, we constantly suggest our clients to take advantage of the amazing ecosystem of services we have around. I’m sure we didn’t think about using information from a vacuum to be used in a Mixed Reality experience !

Happy Coding!

Greetings @ Burlington

El Bruno

References

#Opinion – Tu #ARKit, #ARCore y #MixedReality apoyados en … tu aspiradora!

Hola!

Siempre recuerdo con cariño los años en los que daba charlas sobre Microsoft Robotics. Allá por el año 2006 mi chica me regalo un Lego Mindstorm NTX y con el mismo recorrí casi toda España dando charlas de sobre esta tecnología. Si bien Microsoft Robotics permitía trabajar con diferentes robots, los más utilizados eran Lego Mindstorms y las aspiradoras Roomba. Éstas últimas poseían La capacidad de conectarse por Bluetooth con un ordenador y de esta forma era posible utilizar Microsoft Robotics.

Obviamente, una vez que tenías una aspiradora Roomba, lo siguiente era conseguir una segunda aspiradora y comenzar hacer lucha de Sumo entre ambas. Creo que fue en el TechEd 2008 donde se celebró la final mundial de luchas de sumo y tuve la suerte de verla en vivo.

giphy.gif

Y seguramente ahora piensas que al Bruno se le fue la cabeza, por qué tiene que ver esto con los kits de Realidad Aumentada de Apple, Android y Microsoft. Pues bien, Hoy por hoy, estos SDKs dependen de que el dispositivo sobre el que se están utilizando tenga algún tipo de sensor para realizar un Mapping del entorno. Pero qué pasaría si, además de la información de estos sensores, se pudiese agregar más información adicional desde otros Devices ¿Por qué no contar con sensores “externos” que puedan hacer un mapeo completo de una casa? Atención al siguiente vídeo.

Sí de alguna forma el SDK pudiese tener una idea de “dónde está” y con esto solicitar información a un servicio de 3ros, pues esto podría ser bastante útil. Porque no utilizar esta información adicional y también utilizar estos límites para tener un mejor modelo 3D del entorno donde posicionemos nuestros hologramas.

Como siempre, las posibilidades son infinitas y, siguiendo una de las premisas de nuestro Avanade TechVision 2017, todo pasa por saber cómo moverse y utilizar servicios en este nuevo ecosistema de servicios. En este caso, integrar información de una aspiradora en un SDK de Realidad Aumentada. ¡Ahí queda la idea para el fin de semana!

Happy Coding!

Saludos @ Burlington

El Bruno

References

#Opinion – How will #ARKit and #ARCore impact on #MixedReality (2017 is still on fire!)

giphy-downsized-large.gif

Hi !

One year ago I wrote a post where I share my opinions on how important is to invest on learn 3D skills if you are a developer. In my own scenario, this was forced by the fact that I want to really understand the process of “create a Hololens App”, so I invested lot of time upgrading myself to this. Also, the bet is not for today, is for the near future (check references).

A few months ago during the Apple Developers Conference, Apple released their SDK to create Augmented Reality Apps: ARKit. ARKit allows us to get some data from the camera, and phone sensors and with this information we can position and build 3D elements in our surrounding environment. If you go deeper, the way that this SDK works is very interesting. I’ll try to explain this in the way I usually understand things (in a very simple way).

It all starts with the information received by the camera, and motion sensors. Using this information, ARKit defines a couple of anchor points or reference points in the camera FOV. The big difference with Hololens, resides in that ARKit does not create a 3D model of the environment, it allows an App to anchor 3D objects in the space, and then it performs some crazy calculation every time the phone moves to get new perspective, size and location of the 3D object. A good way to describe this is, think on what if Pokemon Go was really good in the AR space.

So, that’s it on ARKit, take a look at the references for more.

i1

And now ARCore is here. But to understand this we need to go back a little on time and start with another amazing Google project: Project Tango. Project Tango works on devices (tablets and smart phones) in which we have the standard sensors: camera and motion sensors, and we also have a depth sensor. Using this sources, Project Tango was able to create a virtual 3D model of the environment, and later we can position, build and draw 3D objects on it.

It’s really cool, however, as I commented before, it only works on specific devices, the ones with the additional sensor. And, to avoid the need of this extra sensor, Google presented ARCore. Again, let me try to explain how ARCore works

ARCore is like ARKit, but for Android. That’s it.

Note: Project Tango is still there and evolving, and ARCore focus is different, but I like to present this in this way.

Both platforms, ARKit and ARCore are great as a ramp up to create Augmented Reality Apps. Of course, the final Apps are not going to be as amazing as the one created on AR Devices, but Apple and Google right now have a big advantage on their competition: they can reach to millions of phones to run this Apps without the need of an additional hardware (keep this thought).

This is important, very important. We can take some previous experiences on how other organizations are making the entrance on this AR/VR world. It’s time to review the Mixed Reality history in Flash mode.

  • It all started on 2015 when Microsoft presented Hololens.
  • Until today, there is no competition for Hololens as a single Mixed Reality Experience, wireless device. But, to you need to save $4000 to get the device, price is a constraint.
  • During the past 3 years, there was a lot of advances and great news:
    • The development tools have become more and more powerful. Microsoft choose Unity3D as main tool for design and build of mixed reality Apps and this open the door for a big community of developers, gamers and more.
    • The “price problem” was solved with an interesting approach. Instead of spending $4K on a device, you can get much cheaper Mixed Reality headsets, and you need a PC to use them. They starts on $300.
    • Microsoft is creating cool partnerships, like the one with Steam. Think about all the experience SteamVR have on this field.
    • Microsoft have acquired Minecraft. I think this is with the goal to hit the table and release something amazing based on Minecraft VR, looking for the Wow effect!

And this is great, and as long term plan it makes sense. However, in less than 2 months Apple and Google have also open this market to millions of phone users, and without the need of an extra device (thanks for keeping the thought) and now it’s all in the hands of the people who creates Apps.

Another important one. There are thousands of companies and people building Apps for iPhone and Android. If they start to play around with this new technologies, for sure, we will have something amazing between all the crap which is also going to be generated. Again, the experience using ARKit or ARCore, is not as the ones you get when you use a dedicated device, but we don’t need to underestimate this.

Note: And now it’s time to talk to you my friend, the one who complained about the small Hololens FOV. What do you think now about the new FOV with a 6” device? and when you need it to move with your hand?

giphy.gif

At the end, there is also a bright side here. If you invested time to learn 3D, in something like in example Unity3D, now you can create Apps for any of this platforms using Unity3D. I’m assuming that the porting between platforms will be some kind of easy, with “light” versions of Apps for iPhone and Android, and much more powerful version of the same App for specific devices like Oculus Rift, HTC Vive or any one of the Windows 10 Mixed Reality Devices.

As I said one year ago, amazing times are coming!

Greetings @ Toronto

El Bruno

References

#Opinion – Como afectan #ARKit y #ARCore a #MixedReality (el 2017 sigue con todo!)

giphy-downsized-large.gif

Hola!

Hace aproximadamente un año escribí un post donde comentaba que este es un excelente momento para comenzar a formase en temas relacionados con 3D. En mi caso en particular era por la necesidad de ponerme al día para crear soluciones para Hololens, sin embargo, la apuesta es a largo plazo (ver referencias).

Hace unos meses Apple presentó su SDK para desarrollo de Augmented Reality Apps durante su conferencia anual de desarrolladores. Se trata de ARKit y permite trabajar con datos de la cámara y sensores del teléfono para poder dibujar y posicionar objetos en el espacio 3D. La forma en la que trabaja es interesante, voy a intentar explicarlo, así como lo entiendo yo que soy muy simple (simple como un cubo).

Todo comienza con la información que se recibe desde la cámara y de los sensores de movimiento. Con esta información, ARKit encuentra un par de puntos de referencia en el FOV de la cámara. A diferencia de Hololens ARKit no crea un modelo en 3D del espacio que apunta la cámara, sino que permite anclar objetos en el espacio y luego a medida que el teléfono se mueve, se recalcula la posición, tamaño y perspectiva de estos objetos. Lo mejor es recordar a Pokemon Go y pensar en que hubiese pasado si la parte de AR hubiese estado bien hecha.

Y hasta aquí ARKit, si quieres más, revisa las referencias.

i1

En el otro lado del tablero están los amigos de Google, que desde hace bastante tiempo están impulsando su Project Tango. Project Tango funciona con Devices (tablets y smartphones) en los que además de la cámara, hay un sensor de profundidad. Utilizando la información de cámara, sensores de movimiento y sensores de profundidad, Project Tango permitía crear un modelo 3D del ambiente y en este modelo se podían crear / dibujar objetos 3D.

Esto es genial, sin embargo, como comenté antes, esto solo funciona en Devices con sensor de profundidad. ARCore viene a solucionar esto. Como hice antes, voy a intentar explicar ARCore de la forma en la que lo entiendo yo

ARCore es como ARKit, pero para Android, listo.

La verdad es que ambas plataformas son geniales como un rampup para crear Augmented Reality Apps. Hay que dar por sentado que las mismas no serán tan espectaculares como las apps que se crear en Devices especializados, pero tanto Apple como Google tienen una ventaja que los demás no tienen: millones de teléfonos pueden ejecutar estas AR Apps hoy, si necesidad de comprar ningún device adicional.

Y esto es importante, muy importante, mas aun si vemos la forma en la otros competidores (Microsoft quiza) han entrado en estos mercados. Revisemos por ejemplo la historia de Mixed Reality, en modo light.

  • Todo empieza allá por el 2015 cuando Microsoft presenta Hololenes.
  • Hasta el día de hoy, Hololens no tiene competencia, sin embargo, el precio de entrada es un problema. En mi caso particular, hay quincenas en las que no puedo ahorrar $4000 para comprame unas Hololens
  • Durante estos 3 años se ha trabajado y avanzado mucho, Microsoft:
    • Ha madurado mucho las herramientas de desarrollo. Ha escogido una plataforma muy popular como Unity3D para realizar la parte visual del trabajo de desarrollo y creación de MR Apps.
    • Ha compensado el precio de entrada, realizando partnerships on fabricantes de hardware que crean dispositivos de VR a partir de $300.
    • Se ha asociado con Steam, para aprovechar el tirón y experiencia de SteamVR en el mundo de la realidad Virtual.
    • Ha comprado Minecraft con la esperanza de dar un golpe en la mesa, en algún momento Minecraft VR será un Wow!

Todo esto es genial, y como plan de adopción en un par de años tiene sentido. Sin embargo, Apple y Google han llegado a millones de usuarios en menos de 2 meses y ahora todo queda en manos de los desarrolladores de Apps. Este es otro punto importante, hay tantas empresas y personas creando apps para iPhone y Android, que seguramente entre toda la montaña de cosas inútiles (por no decir mierda) que se cree con ARKit y ARCore, algo bueno saldrá.

Nota: A ti amigo fanboy que te quejabas del FOV de Hololens, a ver que dices ahora de tener un smartphone con tu mano y una cámara de 6 pulgadas como entrada al mundo virtual. In your face!

giphy.gif

Aunque esto tiene también un lado positivo. Si has invertido tiempo en aprender Unity3D, pues ahora ya puedes crear Apps para las 3 plataformas solo utilizando Unity3D. El porting entre plataformas no debería ser muy complicado. Es muy probable que veamos versiones “light” de Apps para iPhone y Android, y luego versiones más completas para Oculus Rift, HTC Vive o algún Mixed Reality Device.

Lo dicho, se vienen tiempos interesantes!

Saludos @ Toronto

El Bruno

References

#Opinion – News and more news on Artificial Intelligence and we can expect in the near future

Hello!

At the beginning of this year, I participated in a meeting with the general manager of Avanade Canada at the Microsoft Technology Center, where we presented our global Vision on technologies and trends for this year. It’s named “Avanade Techvision 2017” and this year is the first time that all the topics we talked about were covered under a general theme: Artificial Intelligence.

Avanade-Tech-Vision

Over the next 5/10 years evolution in AI will impact on the way the society works. Obviously here we need to talk about topics such as creating new jobs, augmenting and optimizing existing jobs with devices like Hololens, and many other changes. In example, in the near future, thanks to artificial intelligence, we can detect signs of diabetes in our body, only using the camera of our smartphone. A photo analyzed in the device, supported by a DNN, can quickly tell us if we are at risk for diabetes. (See references)

However, an interesting detail in this aspect is that the current hardware needs to upgrade at lot to get there. Nowadays, the consumer focused hardware is the one that has to accelerate to be able to live up to it. In one hand we have big players, like specialized laboratories with enough money, and they already have special computers which give them the ability to apply AI algorithms. The big challenge is like bringing the IA to the final consumer in an affordable way. Without large data exchange costs using the cloud, and with processors which are battery efficient.

Yesterday I wrote about the new HPU processor with AI capabilities that will be incorporated in the new version of Hololens. Microsoft has already been responsible for developing the V1 of this HPU processor, and it is no wonder that this new processor, which some call “AI co-processor”, not only has applications in Hololens, but also in other devices such as smartphones, laptops and tablets.

Today I read in Wired the article “The rise of AI is forcing Google and Microsoft to become Chipmakers“, which describes the approach that Google also has about it. HPU incorporates the concept of a re-programmable chip, where for example for Hololens you can add AI capabilities for voice recognition and recognition of movements and gestures with the hands (naturally necessary in Hololens).

Another example is Google. Google works on a processor called Tensor Processor Unit. This processor also implements DNN capabilities, and has saved Google the creation of 15 Data Centers for speech-recognition-related activities. I guess, that 15 Data Centers out of the house improvement budget, should be an interesting savings for the board of directors of Google.

Note: TPU is nominated based on TensorFlow. TensorFlow is an AI system originally created by the Google Brain team and was published in open source mode a few years ago. It’s the core of a lot of Google’s internal work and is widely supported by the AI developer community.

 

And if this were not enough, the CEOs of a couple of big companies start to have some not nice words between each others on the Artificial Intelligence world. In this case it is Elon Musk (aka Tony Stark) who in tweet said that the knowledge of Mark Zuckerberg on AI is limited.

In reality, this arises because they both have two very different views on how to use and legislate artificial intelligence. Elon Musk wants to regulate the use of AI, in his words:

(AI) presents fundamental risk to the existence of human civilization.

According to Elon, you won’t have to spend much time before we see robots killing people down the street. (If you are thinking on a Terminator Rise of the Machines scenarios, you are wrong, I’ll write about this later in a new post)

Marc Zuckerberg has another completely different view, MZ says:

I’m optimistic. And I think people who oppose and try to paint these apocalyptic scenarios, I just don’t get it. It’s really negative and, in fact, somehow I think it’s pretty irresponsible.

Beyond all this, what is clear is that all the biggest Tech companies in the world are investing (one way or another) in something related to Artificial Intelligence. Every little advance that is made on the subject will affect the way we live and work.

I am almost sure that my children will not have the need to learn how to drive. In 10 years, cars will be electric and most will be autonomous. Depending on where you live, you probably don’t have the need to learn how to drive, because a car (which doesn’t have to be yours) will be the one to help you move when you need to travel from one place to another.

Scenarios like the previous one, are not far from being a reality. And what today seems to us science fiction, in a few years will be our day to day.

Greetings @ Burlington

El Bruno

References

#Opinión – Lo que invierten los grandes en Inteligencia Artificial y que podemos esperar en un futuro cercano

Hola!

A principio de este año, participe en una reunión con el General Manager de Avanade Canada en el Microsoft Technology Centre, donde presentamos la visión global de Avanade sobre tecnologías para este año. La llamamos “Avanade TechVision 2017” y este año es la primera vez que todos los tópicos sobre los que hablamos estaban englobados bajo un tema general, la Inteligencia Artificial.

Avanade-Tech-Vision

Nosotros sabemos que durante los próximos 5/10 años la evolución en este aspecto impactara en la forma en la que nos desenvolvemos en la sociedad. Obviamente aquí tocamos temas como la creación de nuevos trabajos, la especialización y optimización de trabajos existentes con dispositivos como Hololens, y muchos otros cambios más. En pocos años, y gracias a la Inteligencia Artificial, podremos detectar signos de diabetes en nuestro organismo, solamente utilizando la cámara de nuestro smartphone. Una foto analizada localmente por un proceso de DNN, nos comunicara si tenemos riesgo de padecer diabetes. (ver referencias)

Sin embargo, un detalle interesante en este aspecto es que el hardware se está quedando atrás. En realidad, el hardware de consumo es el que tiene que acelerar para poder estar a la altura. A mi entender, laboratorios especializados con el dinero suficiente, desde hace tiempo que poseen ordenadores especiales, que les brindan la capacidad de aplicar algoritmos de AI. El gran reto es como llevar la IA al consumidor final de forma barata, sin grandes gastos de datos utilizando el cloud, y con procesadores que no consuman mucha bateria.

Ayer escribí sobre el nuevo procesador HPU con capacidades de AI que se incorporara en la nueva versión de Hololens. Microsoft ya se ha encargado de desarrollar la V1 de este procesador HPU, y no es de extrañar que este nuevo procesador, al que algunos llaman “AI co-processor”, no solo tenga aplicaciones en Hololens, sino también en otros dispositivos como smartphones, laptops y tablets.

Hoy leo en Wired el artículo “The rise of AI is forcing Google and Microsoft to become Chipmakers”, donde describe el enfoque que también tiene Google al respecto. HPU incorpora el concepto de un chip reprogramable, donde por ejemplo para Hololens se pueden agregar capacidades de AI para reconocimiento de voz y reconocimiento de movimientos y gestos con las manos (naturalmente necesarios en Hololens).

Google, por su parte, trabaja en un procesador llamado Tensor Processor Unit. Este procesador también implementa capacidades de DNN, y ha ahorrado a Google la creación de 15 data centers para actividades relacionadas con el reconocimiento de voz. Supongo yo, que 15 data centers fuera del presupuesto de gastos del hogar, debe ser un ahorro interesante para el Board of Directors de Google.

Nota: TPU viene nominado en base a Tensor Flow. TensorFlow es un sistema de AI creado originalmente por el equipo de Google Brain y que fue publicado en modo Open Source hace unos años. Es el core de mucho del trabajo interno de Google y está ampliamente soportado por la comunidad de desarrolladores de AI.

Y por si esto fuera poco, los CEOs de un par de grandes empresas se comienzan a dar palos relacionados con la Inteligencia Artificial. En este caso se trata de Elon Musk (aka Tony Stark) que en tweet dijo que el conocimiento de Mark Zuckerberg sobre AI es limitado.

En realidad, esto surge porque ambos tienen 2 visiones muy diferentes respecto a cómo utilizar y legislar la inteligencia artificial. Elon Musk quiere regular la utilización de AI, en sus palabras:

(AI) presents fundamental risk to the existence of human civilization.

Según Elon, no tendrá que pasar mucho tiempo antes que veamos robots matando personas por la calle.

Marc Zuckerberg tiene otra visión completamente diferente, MZ comenta:

Soy optimista. Y creo que la gente que se opone y trata de pintar estos escenarios apocalípticos, simplemente, no lo entiendo. Es realmente negativo y, de hecho, de alguna manera pienso que es bastante irresponsable.

Mas allá de todo esto, lo que si está claro es que todos los grandes están invirtiendo (de una forma u otra) en algo relacionado con la Inteligencia Artificial. Cada pequeño avance que se haga en el tema incidirá en la forma en la que vivimos y trabajamos. Yo estoy casi seguro, que mis niños no tendrán la necesidad de aprender a conducir. Dentro de 10 años, los coches serán eléctricos y la mayoría serán autónomos. Dependiendo del sitio donde vivas, es muy probable que no tengas la necesidad de aprender a conducir, ya que un coche (que no tiene porque ser el tuyo) será el que te ayude a moverte cuando necesites viajar de un sitio a otro.

Escenarios como el anterior, no están lejos de ser una realidad. Y lo que hoy nos parece ciencia ficción, en unos años será nuestro día a día.

Saludos @ Burlington

El Bruno

References