Buenas,
estos días no estoy tirando demasiadas líneas de código, y las pocas que hago son un tanto secretas y no puedo hablar sobre las mismas. Así que aprovecho la poca vena literaria para hablar algo que estamos viendo en las betas cerradas del nuevo KinectSdk > Kinect Fusion.
Kinect Fusion es una nueva feature que se incluirá en el próximo KinectSdk 1.7 y que permite crear entornos virtuales 3D a partir de las imágenes que “ve el sensor”. Si se lo tuviese que explicar al Valentino, le diría algo así:
Las camaritas del Kinect van viendo cada uno de los objetos y guardando la posición y ubicación de los mismos. En ese momento, el Kinect va creando un escenario 3D con toda esta información.
Detrás de todo esto hay una recolección de datos muy grande y con la ayuda de un algoritmo ICP (Iterative Closest Point) se procesan los mismos para crear el escenario 3D.
Aunque como siempre lo mejor es una serie de imágenes en modo video que valen más que 1000^^ palabras
El siguiente PDF posee mucha información sobre Kinect Fusion, si te interesa el tema del procesamiento de datos o de la creación de entornos para realidad aumentada, pues te puede servir para pasar unas noches en blanco. ismar2011.pdf
Saludos @ Home
El Bruno
Leave a comment