#MixedReality – Windows Mixed Reality Dev Kits ready for preorder and some brand new hand controllers !

Hello!

Today is the 2nd Day of Build and yesterday main focus was on Azure and AI, today it has been on Windows 10. In addition to a refresh on creators update and many innovations for developers, today the HP and Acer augmented reality sets have been officially presented. You can preorder the Dev Kits online by $299 (Acer) and $329 (HP) (Acer, HP). One interesting topic in that you do not need an external tracker for the spatial mapping and for the motion control. I’m looking forward to try this and to feel the experience.

However, what I have to emphasize today’s presentation is the ability to work with external controllers in Virtual Reality, very similar to Oculus Touch VR controllers.

Up until today, we could interact with the virtual environments using hand gestures or voice commands. The quality and precision of the hand gestures are not as good as you imagine when you start to works with holograms. This is why having an additional device, of the motion controller type, will help a lot in creating experiences for virtual environments.

Yes, from what I see in the official documentation (link), these controllers are not intended for Hololens, only for the Windows Mixed Reality Dev Kits (Acer and HP for now). The way they work is based on the gestures we already know for Hololens. They will allow actions of the type gaze and commit or point and commit. They also have buttons, touchpad and a joystick, so interaction capabilities are much more powerful than a hand-only scenario.

For now we don’t have an estimated price. It is time to have patience and wait for the summer when the mixed reality dev kits begin to release and at that time we will also have access to buy the controllers.

Greetings @ Toronto New Offices

El Bruno

References

Advertisements

#MixedReality – Sets de VR en modo preorder y también con soporte para controllers!

 

Hola !

2do día de Build y si ayer el foco fue Azure y AI, hoy lo ha sido Windows 10. Además de un refresco sobre Creators Update y muchas novedades para los desarrolladores, hoy se han presentado oficialmente los sets de Realidad Aumentada de HP y de ACER. Los mismos se pueden preordernar en la web por $299 (Acer) y $329 (HP) cada uno (Acer, HP). Es interesante en estos Dev Kits que los mismos no necesitan un tracker externo para el spatial mapping y para el control de movimiento.

Ya habíamos visto estos Dev Kits y es una buena noticia poder tener la capacidad de acceder a los mismos. Sin embargo, lo que más tengo que recalcar de la presentación del día de hoy es la capacidad de trabajar con unos mandos externos, similares a Oculus Touch VR Controllers.

Hasta el día de hoy, podíamos interactuar con los entornos virtuales utilizando gestos con nuestras manos. La calidad y precisión de estos gestos deja mucho que desear cuando uno trabaja con hologramas. Es por esto que tener un device adicional, del tipo Motion Controller, ayudará mucho en la creación de experiencias para los entornos virtuales.

Eso sí, por lo que veo en la documentación (link), estos controllers no están pensados para Hololens, solo para los Mixed Reality Kits de ACER y HP (por ahora). La forma en la que trabajan, está basada en los gestos que ya conocemos para Hololens y con los mismos permiten hacer acciones del tipo gaze and commit o point and commit. Al tener botones, touchpad y un joystick, la capacidad de interacción es mucho más potente que solo con la mano.

Por ahora no tenemos un precio estimado. Es momento de tener paciencia y esperar al verano cuando empiecen a liberarse los Mixed Reality Dev Kits y en esa época también tendremos acceso para comprar los controllers.

Saludos @ Toronto new offices

El Bruno

References

[#OPINION] Motion Controller for everything (ohh, yeahhhh! developer view)

image

Hello!

It’s been over 2 years since the Kinect sensor was released. Even though it was not the first sensor which allows you to control games with body movements, it was one of the first to do it without any device attached to your body and with a pretty good accuracy. If we do a bit of history review we’ll find another examples like the Play Station 2 camera or the Wiimote included in the Nintendo Wii. These samples are quite different between them, the Play Station was a new but poor stuff, and the Wiimote was a step forward, a very good device with a good idea.

Then get Kinect, later comes Leap Motion and now Apple buys PrimeSense (the ones who created the Kinect technology). The last one is great for specialists who can predict the future, they started to begin to talk about a revolution in applications motion controlled.

Probably the most famous Apple device is the iPhone; that’s why everyone expects that the new IOS / iPhone will incorporate something related to Motion Controller. If we see the panorama with a wider mind (not closed pleaseas the fanboys) we can find older examples of apps controlled movements with the camera on mobile phones; in example in some Samsung devices and even some years ago in a few mobile phones from Sony to control the music player.

And here comes the problem, it seems that everything now has to be motion controller capable (or ability to be controlled with movements). And as the saying goes, When you have a hammer in hand, everything looks like a nail .

image

At this point, first thing we must do is to actually ask if adding motion control capabilities is necessary. Maturing stage many times we come to a point so

It is possible that an application is motion controller capable, but is it really necessary?

Consider how useful that would be able to control full Excel with a Kinect, or Adobe Creative Suite with Leap Motion apps. We are sure that there are possibilities to improve the work, but that it is possible does not mean that we should do so. Making a simple exercise of ROI we will see if the investment is worth

Clarification: Caution! We have to be very careful and not be fooled by the nice thing of the motion controller mainstream

After trying several of these technologies over the past years, the truth is Motion Controller options can be defined in several types, for example gestures, pointers or natural movements. In each of these cases, it is very simple to start thinking about how to apply these actions to control any type of application.

However, when we started working with motion controller, the first dilemma kicking us in the face is to work in a 3D world. Most of the apps that we know are designed to be controlled in 2D. Most of the programmers who create this kind of application, “thinks in 2D”. From my experience the change is not trivial.

The first thing we should do as developers would begin to adapt our applications so that they work under this new concept. In this way we will know their capabilities and really see if they are useful and applicable in other contexts.

As well said Abe Lincoln: “If they give you 6 hours to knock down a tree with an axe, invest 4 hours in sharpening your axe“. Learn and use these technologies and then think about them. In the coming years will appear increasingly more devices with sensors of movement, location sensors, routines for the detection of gestures, feelings, etc. Now a simple bracelet gives us lots of information and our challenge is to join all these possibilities so that the user experience is the best possible.

Greetings @ Córdoba

El Bruno

imageimageimageGoogle

[#OPINION] Motion Controller para todo (ohh yeahhhh!!! a developer view)

image

Hola!

Ya han pasado más de 2 años desde que Kinect salió al mercado. Si bien no fue el primer sensor que permitía controlar juegos con movimientos, fue uno de los primeros en hacerlo en forma desconectada y con una precisión bastante buena. Si hacemos un poco de historia encontramos otros ejemplos como la cámara de la Play Station 2 o el Wiimote en la Nintendo Wii. Estos casos son bastante diferentes entre sí, la Play era my novedosa pero muy pobre, el Wiimote era muy pero muy bueno.

Resumiendo un poco los últimos años, luego llega Kinect, llega Leap Motion y ahora Apple compra PrimeSense. Este último punto es que ha hecho que los especialistas en predecir el futuro, comiencen a vaticinar una revolución en las aplicaciones controladas por movimiento (motion controller!)

El caballo de batalla de Apple es el iPhone y todos esperan que en el nuevo iOS / iPhone se incorpore algo relacionado con Motion Controller. Si vemos el panorama en modo amplio (y no cerrados de mente como los fanboys) podemos ver ejemplos de apps controladas por movimientos con la cámara en mobiles phones de Samsung, e inclusive hace unos años en unos mobiles phones de Sony para controlar el reproductor de música.

Y aquí llega el gran problema, parece que ahora todo tiene que ser motion controller capable (o con capacidad de ser controlado con movimientos). Y como dice el dicho, cuando tienes un martillo en la mano, todo parece un clavo.

image

En este punto, lo primero que debemos hacer es realmente preguntarnos si agregar capacidades de control con movimientos es necesario. Madurando el escenario muchas veces llegamos a un punto así

Es posible hacer que una aplicación sea motion controller capable, pero ¿es realmente necesario?

Pensemos en lo útil que sería poder controlar por completo Excel con un Kinect, o las apps de Adobe Creative Suite con Leap Motion. Seguro que hay posibilidades para poder mejorar el trabajo, pero que sea posible no significa que debamos hacerlo. Haciendo un simple ejercicio de ROI veremos si la inversión merece la pena

Aclaración: Ojo! no nos dejemos engañar por lo bonito y mainstream del motion controller

Después de probar varias de estas tecnologías durante los últimos años, la verdad es que las opciones de Motion Controller se pueden definir en varios tipos, por ejemplos gestos, apuntar o movimientos naturales. En cada uno de estos casos, es muy simple poder comenzar a pensar en como aplicar estas acciones para controlar cualquier tipo de aplicación.

Sin embargo, cuando comenzamos a trabajar con motion controller, el primer dilema al que nos enfrentamos es trabajar en un mundo 3D. La mayoría de las apps que conocemos están pensadas en 2D. La mayoría de los programadores que creamos este tipo de aplicaciones, “pensamos en 2D”. Desde mi experiencia el cambio no es trivial.

Lo primero que deberíamos hacer como developers sería comenzar a adaptar nuestras aplicaciones para que funcionen bajo este nuevo concepto. De esta forma conoceremos sus capacidades y veremos realmente si las mismas son aplicables y útiles en otros contextos.

Como bien decía Abe Lincoln: “Si te dan 6 horas para derribar un árbol con un hacha, invierte las primeras 4 horas en afilar tu hacha”. Aprendamos y utilicemos estas tecnologías y luego opinemos sobre las mismas. En los próximos años aparecerán cada vez más dispositivos con sensores de movimientos, sensores de localización, rutinas para la detección de gestos, analisis de sentimientos, etc. Ahora un simple pulsera nos da muchísima información y nuestro reto es poder unir todas estas posibilidades de manera tal que la experiencia de usuario sea la mejor posible.

Saludos @ Home

El Bruno

image image image Google