3.3. Casos de estudio
3.3.3. Reconocimiento de expresiones y gestos faciales
Hasta ahora solo hemos hablado de gestos para referirnos a acciones que hacemos con todo el cuerpo o con las manos. Pero en los últimos años estamos viendo un gran número de tecnologías que pueden detectar el movimiento facial de manera muy cuidadosa y no solo esto, sino reconocer expresiones y relacionarlas con los estados de ánimo.
Empresas como Apple, con el reconocimiento de caras para desbloquear dispositivos, o Google son dos ejemplos que muestran que las barreras del paradigma de interacción se empiezan a difuminar.
Precisamente Google ha desarrollado un sensor llamado Soli que reconoce movimiento en diferentes niveles, desde tocar con el dedo hasta el movimiento del cuerpo. Además, uno de los objetivos de esta tecnología es entender los matices de los movimientos humanos, como aspectos de comunicación no verbal, para poder utilizar nuestro cuerpo de manera natural como input de entrada.
En este caso, podemos hacer una mención breve al caso de Facebook, que utiliza la realidad aumentada y el reconocimiento facial para crear experiencias muy cortas y de tipo lúdico y social, con el único objetivo de que se compartan. Se podría hablar de cuáles son los objetivos a largo plazo y de todo lo que rodea la privacidad. A través de su software de creación, permite reconocer la posición de las facciones del usuario, como por ejemplo el extremo derecho de la ceja izquierda o la punta de la nariz y lo usa para detectar expresiones faciales, como por ejemplo sonreír o guiñar.
No solo Facebook ha entrado en el juego del reconocimiento de expresiones faciales, sino que muchas empresas trabajan en tecnologías que mejoran la técnica.
Pero la pregunta que nos tendríamos que hacer es: ¿qué uso se puede dar a esta tecnología sin pasar por las redes sociales o por cuestiones que pongan en peligro la privacidad personal? ¿Qué sentido tiene el uso de expresiones y gestos faciales dentro del diseño especulativo?
Un ejemplo de ello lo encontramos en el MIT Media Lab, donde hay un sensor que mediante reconocimiento facial escanea las caras de los empleados del laboratorio para indicar su grado de felicidad y calcular la media. Este tipo de aplicaciones de esta tecnología huye de lo social y lúdico para dar una utilidad más enfocada al estudio de las emociones humanas. A pesar de que este caso no implique la comunicación con un sistema, puesto que el usuario tan solo tiene que pasar por delante del sensor, sí que nos permite ver dónde puede llegar. Por ejemplo, si se detecta que hoy no estás de buen humor, tu ordenador personal podría no saturarte con notificaciones o hacerte esperar unos minutos antes de abrir una larga lista de correos electrónicos.