3.2. Breve descripción de las tecnologías que permiten reconocer gestos
3.2.1. Introducción
Hasta ahora hemos hablado de gestualidad para comunicarnos con un sistema, sin referirnos a sus características. Cuando hablamos de tecnologías que permiten el reconocimiento de gestos, nos referimos a todos aquellos dispositivos de entrada que son capaces de detectar manos, cara o cuerpo entero. Estas tecnologías permiten al usuario interactuar con el sistema a través de cambios en su cuerpo.
Podemos distinguir dispositivos que detectan el cuerpo entero, con movimiento y posición del individuo, como la Kinect o la Wii, o que solo detecten las manos, como el Leap Motion, o los sensores de los sistemas de realidad virtual y aumentada, como la Oculus Quest o las HoloLens. En general, cuando hablamos de estos dispositivos nos referimos a touchless gestures, puesto que detectan el gesto por medio de sensores como cámaras o mandos que sostenemos, y no son gestos que impliquen tocar una superficie.
En este campo, la industria de los videojuegos ha sabido aprovechar muy bien la aparición de esta tecnología y en los últimos años las consolas de las grandes distribuidoras han introducido juegos y nuevos dispositivos en los que el usuario se comunica de manera gestual con el juego. Esta nueva manera de interactuar ha ayudado a añadir tanto la sensación de inmersión como nuevos modos de juego para los usuarios, abriendo incluso el espectro a jugadores no habituales.
A la vez, se ha avanzado muy poco en cuanto a aplicaciones productivas para esta tecnología. ¿Os imagináis cómo sería interactuar con un documento de texto o un reproductor de música a través de gestos, del mismo modo que hacemos gestos con la Kinect?
Pero no hay que ir muy lejos para encontrar esta tecnología, ni tener dispositivos muy sofisticados. Hoy en día, podemos encontrar ejemplos que usan las cámaras web de nuestros portátiles o las de los móviles para reconocer los gestos e incluso el movimiento a cuerpo entero.
Si bien no son tan minuciosos como la Kinect, sí que permiten tener una idea de cómo funcionan y son más accesibles para cualquier usuario, puesto que muchos son experiencias web.
Sin entrar mucho en detalles técnicos, experiencias como el Semi-Conductor del Google Creative Lab (R. Parry, M. Lu, H. Craig y S. Cordingley, 2008) usan librerías machine learning (de aprendizaje automático) que funcionan con los navegadores. Este caso permite a los usuarios dirigir una orquesta ficticia usando los mismos gestos que haría un director. El programa realiza una estimación de estos movimientos concretos a través de la cámara web y aprende a medida que más usuarios participan, con lo cual se vuelve más minucioso y preciso con el tiempo.
En este apartado no entraremos en detalle en las diferentes tecnologías de reconocimiento gestual, pero estaría bien que estéis familiarizados con ellas para entender mejor los casos que se comentarán más adelante. Os recomendamos que, para hacerlo, leáis la ficha sobre gesture de la Interface Toolkit.