#Opinion – News and more news on Artificial Intelligence and we can expect in the near future

Hello!

At the beginning of this year, I participated in a meeting with the general manager of Avanade Canada at the Microsoft Technology Center, where we presented our global Vision on technologies and trends for this year. It’s named “Avanade Techvision 2017” and this year is the first time that all the topics we talked about were covered under a general theme: Artificial Intelligence.

Avanade-Tech-Vision

Over the next 5/10 years evolution in AI will impact on the way the society works. Obviously here we need to talk about topics such as creating new jobs, augmenting and optimizing existing jobs with devices like Hololens, and many other changes. In example, in the near future, thanks to artificial intelligence, we can detect signs of diabetes in our body, only using the camera of our smartphone. A photo analyzed in the device, supported by a DNN, can quickly tell us if we are at risk for diabetes. (See references)

However, an interesting detail in this aspect is that the current hardware needs to upgrade at lot to get there. Nowadays, the consumer focused hardware is the one that has to accelerate to be able to live up to it. In one hand we have big players, like specialized laboratories with enough money, and they already have special computers which give them the ability to apply AI algorithms. The big challenge is like bringing the IA to the final consumer in an affordable way. Without large data exchange costs using the cloud, and with processors which are battery efficient.

Yesterday I wrote about the new HPU processor with AI capabilities that will be incorporated in the new version of Hololens. Microsoft has already been responsible for developing the V1 of this HPU processor, and it is no wonder that this new processor, which some call “AI co-processor”, not only has applications in Hololens, but also in other devices such as smartphones, laptops and tablets.

Today I read in Wired the article “The rise of AI is forcing Google and Microsoft to become Chipmakers“, which describes the approach that Google also has about it. HPU incorporates the concept of a re-programmable chip, where for example for Hololens you can add AI capabilities for voice recognition and recognition of movements and gestures with the hands (naturally necessary in Hololens).

Another example is Google. Google works on a processor called Tensor Processor Unit. This processor also implements DNN capabilities, and has saved Google the creation of 15 Data Centers for speech-recognition-related activities. I guess, that 15 Data Centers out of the house improvement budget, should be an interesting savings for the board of directors of Google.

Note: TPU is nominated based on TensorFlow. TensorFlow is an AI system originally created by the Google Brain team and was published in open source mode a few years ago. It’s the core of a lot of Google’s internal work and is widely supported by the AI developer community.

 

And if this were not enough, the CEOs of a couple of big companies start to have some not nice words between each others on the Artificial Intelligence world. In this case it is Elon Musk (aka Tony Stark) who in tweet said that the knowledge of Mark Zuckerberg on AI is limited.

In reality, this arises because they both have two very different views on how to use and legislate artificial intelligence. Elon Musk wants to regulate the use of AI, in his words:

(AI) presents fundamental risk to the existence of human civilization.

According to Elon, you won’t have to spend much time before we see robots killing people down the street. (If you are thinking on a Terminator Rise of the Machines scenarios, you are wrong, I’ll write about this later in a new post)

Marc Zuckerberg has another completely different view, MZ says:

I’m optimistic. And I think people who oppose and try to paint these apocalyptic scenarios, I just don’t get it. It’s really negative and, in fact, somehow I think it’s pretty irresponsible.

Beyond all this, what is clear is that all the biggest Tech companies in the world are investing (one way or another) in something related to Artificial Intelligence. Every little advance that is made on the subject will affect the way we live and work.

I am almost sure that my children will not have the need to learn how to drive. In 10 years, cars will be electric and most will be autonomous. Depending on where you live, you probably don’t have the need to learn how to drive, because a car (which doesn’t have to be yours) will be the one to help you move when you need to travel from one place to another.

Scenarios like the previous one, are not far from being a reality. And what today seems to us science fiction, in a few years will be our day to day.

Greetings @ Burlington

El Bruno

References

Advertisements

#Opinión – Lo que invierten los grandes en Inteligencia Artificial y que podemos esperar en un futuro cercano

Hola!

A principio de este año, participe en una reunión con el General Manager de Avanade Canada en el Microsoft Technology Centre, donde presentamos la visión global de Avanade sobre tecnologías para este año. La llamamos “Avanade TechVision 2017” y este año es la primera vez que todos los tópicos sobre los que hablamos estaban englobados bajo un tema general, la Inteligencia Artificial.

Avanade-Tech-Vision

Nosotros sabemos que durante los próximos 5/10 años la evolución en este aspecto impactara en la forma en la que nos desenvolvemos en la sociedad. Obviamente aquí tocamos temas como la creación de nuevos trabajos, la especialización y optimización de trabajos existentes con dispositivos como Hololens, y muchos otros cambios más. En pocos años, y gracias a la Inteligencia Artificial, podremos detectar signos de diabetes en nuestro organismo, solamente utilizando la cámara de nuestro smartphone. Una foto analizada localmente por un proceso de DNN, nos comunicara si tenemos riesgo de padecer diabetes. (ver referencias)

Sin embargo, un detalle interesante en este aspecto es que el hardware se está quedando atrás. En realidad, el hardware de consumo es el que tiene que acelerar para poder estar a la altura. A mi entender, laboratorios especializados con el dinero suficiente, desde hace tiempo que poseen ordenadores especiales, que les brindan la capacidad de aplicar algoritmos de AI. El gran reto es como llevar la IA al consumidor final de forma barata, sin grandes gastos de datos utilizando el cloud, y con procesadores que no consuman mucha bateria.

Ayer escribí sobre el nuevo procesador HPU con capacidades de AI que se incorporara en la nueva versión de Hololens. Microsoft ya se ha encargado de desarrollar la V1 de este procesador HPU, y no es de extrañar que este nuevo procesador, al que algunos llaman “AI co-processor”, no solo tenga aplicaciones en Hololens, sino también en otros dispositivos como smartphones, laptops y tablets.

Hoy leo en Wired el artículo “The rise of AI is forcing Google and Microsoft to become Chipmakers”, donde describe el enfoque que también tiene Google al respecto. HPU incorpora el concepto de un chip reprogramable, donde por ejemplo para Hololens se pueden agregar capacidades de AI para reconocimiento de voz y reconocimiento de movimientos y gestos con las manos (naturalmente necesarios en Hololens).

Google, por su parte, trabaja en un procesador llamado Tensor Processor Unit. Este procesador también implementa capacidades de DNN, y ha ahorrado a Google la creación de 15 data centers para actividades relacionadas con el reconocimiento de voz. Supongo yo, que 15 data centers fuera del presupuesto de gastos del hogar, debe ser un ahorro interesante para el Board of Directors de Google.

Nota: TPU viene nominado en base a Tensor Flow. TensorFlow es un sistema de AI creado originalmente por el equipo de Google Brain y que fue publicado en modo Open Source hace unos años. Es el core de mucho del trabajo interno de Google y está ampliamente soportado por la comunidad de desarrolladores de AI.

Y por si esto fuera poco, los CEOs de un par de grandes empresas se comienzan a dar palos relacionados con la Inteligencia Artificial. En este caso se trata de Elon Musk (aka Tony Stark) que en tweet dijo que el conocimiento de Mark Zuckerberg sobre AI es limitado.

En realidad, esto surge porque ambos tienen 2 visiones muy diferentes respecto a cómo utilizar y legislar la inteligencia artificial. Elon Musk quiere regular la utilización de AI, en sus palabras:

(AI) presents fundamental risk to the existence of human civilization.

Según Elon, no tendrá que pasar mucho tiempo antes que veamos robots matando personas por la calle.

Marc Zuckerberg tiene otra visión completamente diferente, MZ comenta:

Soy optimista. Y creo que la gente que se opone y trata de pintar estos escenarios apocalípticos, simplemente, no lo entiendo. Es realmente negativo y, de hecho, de alguna manera pienso que es bastante irresponsable.

Mas allá de todo esto, lo que si está claro es que todos los grandes están invirtiendo (de una forma u otra) en algo relacionado con la Inteligencia Artificial. Cada pequeño avance que se haga en el tema incidirá en la forma en la que vivimos y trabajamos. Yo estoy casi seguro, que mis niños no tendrán la necesidad de aprender a conducir. Dentro de 10 años, los coches serán eléctricos y la mayoría serán autónomos. Dependiendo del sitio donde vivas, es muy probable que no tengas la necesidad de aprender a conducir, ya que un coche (que no tiene porque ser el tuyo) será el que te ayude a moverte cuando necesites viajar de un sitio a otro.

Escenarios como el anterior, no están lejos de ser una realidad. Y lo que hoy nos parece ciencia ficción, en unos años será nuestro día a día.

Saludos @ Burlington

El Bruno

References

#Opinion – Some news on #Hololens V2, HPU V2 and how #Microsoft choose the hardware path, build their own Chips

Hi !

I was planning to write this post yesterday, however, a Canadian wasp decided that it was better to leave me almost immobilized by attacking my foot and forcing me to plan my agenda differently.

Well, Marc Pollefeys (director of Science in the Hololens team) shared some information about the new version of Hololens. Until the code name is made public, I will refer to the new device as Hololens 2. What he tells us is a simple and powerful message:

The new HPU chip included in Hololens 2 will have Deep Neural Networks capabilities. (It means Artificial Intelligence!)

Let’s not forget that this is not new for Microsoft, but let’s also keep in mind that Microsoft is not dedicated to the design and creation of chips such as those we know from Intel or AMD. For years until now Microsoft is investing in R&D for a new generation of chips. Those chips are currently used mostly in the Azure Data Centers. In fact, it all started back in 2012, when Doug Burger presented a risky bet to Steve Ballmer: Project Catapult.

Doug commented to Steve that, in the near future, Internet would be controlled by a handful of group companies that would provide essential services for users. This “new Internet” would require a different architecture as a base platform. If Microsoft wanted to be part of this “new Internet”, they should not only build the OS and the Software, but they also had to take care of the hardware of the servers, manage the networks and more. It seems that at this moment Steve Ballmer change his face into a Gear of Wars Bad Boss, his eyes were all red and he responded with a “I thought this would be a research meeting, non a strategy one.

Note: I have been fortunate to meet Steve Ballmer face to face, and the energy that he has is impressive. While I have seen him in happy and animated mode, I imagine that a 1:1 in discussion mode should require special skills to pull the conversation forward.

And the Qi Lu appeared (he was in charge of Bing), he was added into the discussion. It seems that Qi Lu also had a similar idea in his head: the need to build re programmable chips, allowing upgrades much faster than those that were running at that time.

And there was more, the Bing team had already started to work on this, from here we began to read the term FPGA much more often in some areas. (FPGA: Field programmable gate arrays). And that’s me on this part of the story. This is quite interesting and I recommend reading the Wired article (see references).

Let’s go back to 2017 with Hololens 2 and the new HPU 2 (HPU: Holographic Processing Unit). The task performed by the HPU in Hololens version 1 is to coordinate, analyze and present a coherent result of the information obtained by the device of all sensors. In other words:

The HPU merge information from different sources: motion sensor, camera, depth sensors and infrared camera sensors, with all this information the HPU is capable to determine our position in the space around us. With this information, holographic projectors can determine how and where to position the holograms that are projected in our field of vision.

To this day, this type of processing is something that is unique to the Hololens. And if it is combined with a GPU, a CPU and a battery, it allows Microsoft to have a 100% autonomous untethered device: Microsoft Hololens 😀

Update: Thanks @AlexDrenea for some typos help here!

Now, what would happen if this processor, also has some kind of DNN capacity. In some blogs they called it “AI co-processor” and we can think that it could help in tasks such as voice recognition, face detection, shape detection, image analysis and more. The first thing they have presented during CVPR17 is how these new capabilities can be used to improve Hololens’s hand tracking and hand gestures capabilities. This is the demo recorded by a conference assistant

Clipboard02.png

Now comes the time to think that we can do with a device that “does not have to constantly send all this information to the cloud”, many of these tasks will be done in local. This will allow for more fluid applications, much more natural interactions and another couple of interesting surprises.

What is true is that 2018 will be a year where we will see what’s new Hololens 2 and surely we will have many interesting surprises along the way.

Greetings @ Burlington

El Bruno

References

PS: This is my foot 12 hours after the “Bruno vs The Wasp” moment

ee7db6f7-37c7-451b-8dae-4a13e9e6d782

#Opinion – Novedades en #Hololens V2, HPU V2 y como #Microsoft se decidió a crear sus propios Chips

Hola !

Tenía pensado escribir este post ayer, sin embargo, una avispa canadiense decidió que era mejor dejarme casi inmovilizado al atacarme un pie y así obligarme a planificar mi agenda de forma diferente.

Pues bien, Marc Pollefeys (Director of Science en el equipo de Hololens) dio a conocer un poco de información sobre la nueva version de Hololens. Hasta que se haga público el nombre clave, yo me referiré a las mismas como Hololens 2. En este caso, lo que nos comenta es simple

La nueva version del chip HPU incluido en Hololens 2 tendrá capacidades de Deep Neural Networks.

 

Ahí es nada. Un detalle para tener en cuenta es que Microsoft no se dedica al diseño y creación de Chips como los que conocemos de Intel o AMD. Desde hace años que Microsoft está invirtiendo en R&D para esta nueva generación de chips que actualmente se usan mayormente en los Azure Data Centers. En realidad, todo empezó allá por el 2012, cuando Doug Burger le presentó una apuesta más que arriesgada a Steve Ballmer: Project Catapult.

Doug le comentó que en un futuro cercano internet estaría controlado por un puñado de empresas que serían las que brindan los servicios esenciales para los usuarios, y que este “nuevo internet” requeriría una arquitectura diferente como plataforma base. Si Microsoft quería ser parte de ese “nuevo internet”, no solo debían construir los SOs y el software, sino que además debían encargarse del hardware de los servidores, de gestionar las redes y más. Parece que en este momento a Steve Ballmer se le pusieron los ojos en plan malo de Gears of Wars, con los ojos todo rojos y respondió con un “Ahi va la ostia ! pensaba que esta sería una reunión de Research no de estrategia.”

Nota: Yo he tenido la suerte de conocer en persona a Steve Ballmer, y la energía que desprende ese hombre es impresionante. Si bien, yo lo he visto en “modo happy” y animado, me imagino que un 1:1 en modo discusión debe requerir habilidades especiales para sacar adelante la conversación.

A la discusión se sumó Qi Lu (a cargo de Bing). Parece que Qi Lu también tenía la una idea parecía en su cabeza: la necesidad de construir chips reprogramables, que permitan actualizaciones mucho más rápidas que las que se ejecutaban en ese momento. Es más, el equipo de Bing ya había comenzado a trabajar en esto, a partir de aquí se comenzó a escuchar el termino FPGA mucho más seguido en algunas esferas. (FPGA: Field Programmable Gate Arrays). Y hasta aquí llego yo, que la historia es bastante interesante y recomiendo leer un artículo de Wired que vale la pena leer completo (ver referencias).

Volvamos al 2017 con Hololens 2 y el nuevo HPU 2 (HPU: Holographic Processing Unit). La tarea que realiza el HPU en la version 1 de Hololens es coordinar, analizar y presentar un resultado coherente de la información que obtiene el device de todos los sensores. Dicho en otras palabras:

El HPU hace un merge de la información del sensor de movimiento, de la cámara, de los sensores de profundidad y de los sensores de la cámara infrarroja para determinar nuestra posición en el espacio que nos rodea. Con esta información, los proyectores holográficos pueden determinar cómo y dónde posicionar los hologramas que se proyectan en nuestro campo de visión.

Hasta el día de hoy, este tipo de procesamiento es algo que es único, y que permite que, al combinarlo con un GPU, un CPU y una batería, podamos tener un dispositivo sin cables y 100% autónomo como son las Microsoft Hololens.

Ahora bien, que pasaría si este procesador, además posee algún tipo de capacidad de DNN. En algunos blogs lo han llamado “AI coprocessor” y podemos pensar que el mismo podría ayudar en tareas como voice recognition, face detection, shape detection, image analysis y mucho más. Lo primero que han presentado durante CVPR17 es como se pueden utilizar estas nuevas capacidades para mejorar las capacidades de hand tracking y hand gestures de Hololens. Esta es la demo grabada por un asistente a la conferencia

Clipboard02.png

Ahora llega el momento de pensar que podemos hacer con un device que “no tiene que enviar constantemente toda esta información al cloud”, muchas de estas tareas se realizaran en local. Esto permitirá aplicaciones más fluidas, interacciones mucho más naturales y otro par de sorpresas interesantes.

Lo que si es cierto es que 2018 será un año donde veremos lo nuevo que tendrán Hololens 2 y seguramente tendremos muchas sorpresas interesantes en el camino.

Saludos @ Burlington

El Bruno

References

PS: El estado de mi pie después de la picadura de avispa

ee7db6f7-37c7-451b-8dae-4a13e9e6d782

#Review – #Hololens, #hardware and how the hologram process works !

      Hola ! Tenía este post en modo draft desde hace tiempo, y justo hoy @Rfog me preguntó en Twitter a que velocidad (FPS) trabajan las Hololens. Así que he retocado unpoco el post para comentar como trabajan las Apps en Hololens. @rfog42 juar next video en el otro muro ! Las Apps […]

giphy-2

Hello!

I had this post in draft mode for while, and just today @Rfog asked me on Twitter about the speed (FPS) on the Hololens. So I’ve tweaked some post to comment as Hololens work Apps.

Hololens Device

Let’s start from the beginning, Hololens has everything we can found for standard Windows 10 device:

  • 579 grams
  • Uses a micro USB port for charginf
  • 2 to 3 battery hours
  • 32-bit Intel chip
  • 2GB RAM (with an additional 1GB of RAM for the HPU)
  • 64GB Flash storage
  • 2MP frontal camera
  • Video recording at 30FPS – 720p
  • Bluetooth 4.0 and Wifi

On the HPU, the best is to refer what was shared in The Register

HPU is a TSMC-fabricated 28nm coprocessor that has 24 Tensilica DSP cores. It has around 65 million logic gates, 8MB of SRAM, and an additional layer of 1GB of low-power DDR3 RAM. That RAM is separate to the 1GB that’s available for the Intel Atom Cherry Trail processor, and the HPU itself can handle around a trillion calculations per second.

Tom Warren, from The Verge, had exclusive access to a “piece by piece” of Hololens. If anyone is interested in more details, the following 2 minutes are essential.

By the way, after seeing this, there is no doubt that Hololens is a piece of art!

Hololens Holographic Features

And now let’s talk about some of the holographic capabilities of the device. One of the most frequent complaints is the small size of the FOV. FOV represents the Field of View, which is the point of view of the user. Here for each eye, we have a 720p resolution, or what is the same 1268 × 720.

The main difference when compared to other devices to Hololens complement dedicated to Virtual reality, is that this 2nd group of devices require work to a few 90FPS or more to make “realistic” experience. With less FPS are symptoms of dizziness, disconnection, etc.

The Hololens scenario is different. As the user sees reality through the lens he is alwasy connected to the reality; holograms are projected in the lens, so that’s why the device avoid these feelings of dizziness or lost of connection. And this is why it is possible to lower the FPS for Apps. Microsoft recommendation is that Apps in Hololens work at 60 fps. And here we must also understand a little how the Hololens to understand this concept.

HoloLens continuously calculates the position and orientation of the head of the user in relation to its surroundings. When an App begins to prepare the next frame to be projected, Hololens predicts where the user’s head will be in the future at the exact moment that the Frame will be displayed on the screens. Based on this prediction, the system calculates the view and projection for that Frame. Here is where the HPU comes into play, since it is responsible for all this work. 

Holograms Interaction Distance

Another important detail is the distance which the holograms are projected / displayed. In the Design Guide and Principles for Mixed Reality (see references) we found a nice and very detailed explanation:

Interaction with holograms presents your best experience between 1.25 m and 5 m.

 

hololens-hologram-placement-100647965-large

2 meters is the optimal distance, and the experience will degrade if we come up less than 1m. Less distance we will not see holograms, or see them “cut”. The design recommendations aim to use techniques of fading out or clipping in these scenarios.

Hololens Audio

Audio time ! This is a very powerful topic in Windows Holographic and not mentioned very often..

In HoloLens, there is an audio engine which completes the experience of mixed reality through the simulation of sound 3D by environmental simulations, distance and direction. This is known as SPATIAL SOUND

clipboard03

When we use Spatial Sound in an App, this locates us developers sounds in a 3 dimensions space all around the user that uses the Hololens. Sounds will then appear as if it came from real physical objects or holograms of mixed reality in a user environment. I personally think that the Spatial Sound helps to create a much more credible experience and immersive.

This is an interesting topic to read and learn. Analysing how much sound reaches our ears, our brain determines the distance and the address of the object emitting the sound. HRTF or Head Related Transfer Functions, allows you to simulate this interaction that characterizes as an ear receives sound from a point in space. Spatial Sound uses custom HRTFs to extend the mixed world holographic experience and simulate the sounds coming from different directions and distances.

Greetings @ Toronto

El Bruno

References

#Review – Despiece de #Hololens, #hardware y cómo funciona el proceso de Hologramas

 

 

 

giphy-2

Hola !

Tenía este post en modo draft desde hace tiempo, y justo hoy @Rfog me preguntó en Twitter a que velocidad (FPS) trabajan las Hololens. Así que he retocado unpoco el post para comentar como trabajan las Apps en Hololens.

Hololens Device

Empecemos por el principio,  el device tiene lo que podemos encontrar en un equipo medio para Windows 10:

  • Peso, 579 gramos
  • Se carga por un puerto micro USB
  • 2 a 3 horas de batería
  • 32-bit Intel chip
  • 2GB RAM (with an additional 1GB of RAM for the HPU)
  • 64GB Flash para el disco
  • 2MP cámara frontal
  • La cámara permite grabar video a 30FPS en 720p
  • Soporte para Bluetooth 4.0 y Wifi (no tengo en claro cual)

Ahora bien sobre el HPU, lo mejor es referirse a lo que comentan en The Register

HPU is a TSMC-fabricated 28nm coprocessor that has 24 Tensilica DSP cores. It has around 65 million logic gates, 8MB of SRAM, and an additional layer of 1GB of low-power DDR3 RAM. That RAM is separate to the 1GB that’s available for the Intel Atom Cherry Trail processor, and the HPU itself can handle around a trillion calculations per second.

Tom Warren, de The Verge, tuvo acceso exclusivo a un “despiece” de Hololens. Si alguno está interesando en el detalle, los siguientes 2 minutos son imprescindibles.

Por cierto, después de ver esto, hay alguna duda que Hololens es una obra de arte!

Hololens Holographic Features

Y ahora hablemos un poco de las capacidades holográficas del device. Una de las quejas más frecuentes es el tamaño reducido del FOV. FOV representa el Field of View, que es el punto de vista del usuario. Aquí para cada ojo tenemos una resolución de 720p, o lo que es lo mismo 1268×720.

La principal diferencia que encontramos cuando comparamos a Hololens con otros dispositivos complemente dedicados a Realidad Virtual, es que este 2do grupo de devices requieren trabajar a unos 90FPS o más para que la experiencia sea “realista”. Con menos FPS empiezan los síntomas de mareo, desconexión, etc.

El caso de Hololens, es diferente. Como el usuario ve la realidad a traves de las lentes; y en las mismas se proyectan los hologramas, se evitan estas sensaciones de mareo o de deconexión. Y es por esto que es posible bajar un poco los FPS para las Apps. La recomendación de Microsoft es que las Apps en Hololens trabajen a 60FPS.  Y aquí también tenemos que comprender un poco como funcionan las Hololens para comprender este concepto.

HoloLens calcula continuamente la posición y orientación de la cabeza del usuario en relación con su entorno. Cuando una App comienza a preparar el siguiente fotograma, Hololens predice donde la cabeza del usuario estará en el futuro en el momento exacto que ese Frame se mostrará en las pantallas. Basado en esta predicción, el sistema calcula la vista y proyección para ese Frame. Aquí es donde el HPU entra en juego, ya que es el encargado de realizar todo este trabajo. 

Holograms Interaction Distance

Otro detalle importante es la distancia a la que se proyectan / visualizan los hologramas. En la gúia de diseño y principios para Mixed Reality (ver referencias) se explica muy al detalle. Y esta es la mejor forma de presentarlo:

La interacción con hologramas presenta su mejor experiencia entre 1.25 metros y 5 metros.

 

hololens-hologram-placement-100647965-large

2 metros es la distancia óptima, y la experiencia se degradará si nos acercamos hasta un metro. A menos distancia no veremos hologramas, o los veremos “cortados”. Las recomendaciones de diseño apuntan a utilizar técnicas de fading out o clipping en estos escenarios.

Hololens Audio

Ahora el tema audio. Este es un tema muy potente en Windows Holographic y no se menciona muy frecuentemente.

En HoloLens, el motor de audio completa la experiencia de realidad mixta mediante la simulación de sonido 3D mediante simulaciones ambientales, distancia y dirección. A esto se lo conoce como SPATIAL SOUND

clipboard03

Cuando utilizamos Spatial Sound en una App, esto nos permite a los desarrolladores colocar sonidos en un espacio de 3 dimensiones todo alrededor del usuario que utilice las Hololens. Los sonidos entonces parecerán como si provinieran de objetos físicos reales o los hologramas de realidad mixta en un entorno de usuario. Personalmente pienso que el Spatial Sound ayuda a crear una experiencia mucho más creíbles e inmersiva.

Este es un tema interesante para leer e informarse. Analizando cómo sonido alcanza tanto nuestros oídos, nuestro cerebro determina la distancia y la dirección del objeto emite el sonido. HRTF o Head Related Transfer Functions, permite simular esta interacción que caracteriza como un oído recibe sonido desde un punto en el espacio. Spatial Sound utiliza HRTFs personalizadas para ampliar la experiencia holográfica del mundo mezclado y simulan los sonidos que vienen de diferentes direcciones y distancias.

 

Saludos @ Toronto

El Bruno

References