Al natural

Publicado por: admin el Jue, 11/11/2010 - 00:00
Share
La comunicación entre los seres humanos y los múltiples aparatos electrónicos que salen cada día al mercado, es cada vez más sencilla. Ya no basta con teclados de letras y números, sino con pant
La comunicación entre los seres humanos y los múltiples aparatos electrónicos que salen cada día al mercado, es cada vez más sencilla. Ya no basta con teclados de letras y números, sino con pantallas táctiles y sensores que detectan movimientos y gestos.

En un sistema de navegación móvil, en lugar de buscar una palabra específica haciendo clic en las áreas específicas en la pantalla, lo que se desea es que el usuario maneje controles del dispositivo con un simple gesto de la mano. Pero los juegos de vídeo son los más avanzados. El Kinect de Microsoft, consola Xbox 360, utiliza software y hardware para recoger la posición de la persona, los gestos y la voz. También permite al jugador controlar el dispositivo sin necesidad de usar guantes o ropa especial. La posición del jugador se mide con un rayo infrarrojo que cuenta el tiempo que la luz tarda en recuperarse de los objetos que encuentra. Cuatro micrófonos pueden recibir comandos de voz, y los filtros de software de conversación limpian el ruido de fondo e incluso el de otras personas en la sala. En una reciente charla el jefe de investigación de Microsoft y director de estrategia, Craig Mundie, describió el Kinect como un adelanto de lo que está por venir para las interfaces de usuario, lo que sugiere funciona ahora en los juegos pronto se utilizará para ir de compras, para diseñar diseño y para otras tareas comunes de computación. En lugar de pensar acerca de los controladores, teclados, y otros "prótesis específicas de la aplicación", dijo Mundie, la gente podría centrarse en la tarea, haciendo del software mucho más atractivo y fácil de usar. Aunque todavía hay cuestiones fundamentales que no han sido resueltas, como la velocidad, la precisión y la simplicidad, ya se encuentran estos dispositivos en el mercado. EyeSight, desarrollador de la interfaz de usuario Natural (NUI), lanzó una innovadora tecnología que utiliza el dispositivo de la cámara integrada, procesamiento avanzado de imágenes en tiempo real y algoritmos de visión artificial, para convertir los movimientos de la mano del usuario en comandos. Los usuarios de dispositivos Android ahora pueden silenciar una llamada entrante, navegar entre los menús del GPS, activar su reproductor de MP3, jugar y realizar otras muchas tareas, sólo pasando su mano sobre el dispositivo.