Computación afectiva, así se llama el próximo reto a conseguir por la comunidad científica en el camino hacía la Inteligencia Artificial. Desde hace algunos años, nos venimos encontrado con pequeños pasos que nos van haciendo ver, que pronto, nuestros ordenadores, teléfonos móviles o incluso tabletas o televisiones, dejarán de ser dispositivos neutros que nos permitan generar y consumir contenido, para pasar a ser parte activa de nuestro día a día.
En este escenario, os traemos un desarrollo que hemos conocido hace unos días y que llega resultante de una investigación de la Universidad de Sussex (Reino Unido). Según han comunicado después de hacer un experimento con casi 30 participantes, los ordenadores podrán saber si nos estamos aburriendo mientras interaccionamos con ellos analizando nuestros gestos y posiciones delante de la pantalla.
Qué han conseguido
Los ordenadores serán capaces de leer nuestro lenguaje corporal para averiguar si estamos interesados o no, en lo que vemos en la pantalla. En el experimento, 30 participantes pasaron varios minutos recibiendo estímulos de un ordenador, juegos, lecturas más aburridas sobre legislación…Mientras, utilizaban un TrackBall en lugar de un ratón, ya que, este dispositivo minimiza los movimientos respecto a los que hacemos cuando utilizamos un ratón.
Después, los resultados eran simples. Los movimientos instrumentales -aquellos que no tienen un objetivo determinado- que los participantes hacían, disminuían cuando les interesaba lo que estaban viendo en la pantalla mientras que aumentaban en casi un 40% cuando leían artículos sobre legislación o historia.
Como afecta este desarrollo a la Inteligencia Artificial
Según apuntaba el doctor Harry Witchel:
Es evidente que cuando alguien está interesado en lo que está viendo en un determinado momento, suprime casi por completo los movimientos involuntarios.
Esto siempre fue así, la diferencia es que ahora han encontrado una manera de aplicar este descubrimiento al mundo de la robótica. Los ordenadores que capten este lenguaje corporal, podrán adaptarse al estado de ánimo y al interés que tiene la persona que tienen delante. Con ello, quizá puedan modificar el contenido que están mostrando o interactuar con el usuario de otro modo que capte más su atención
A nadie se le escapa que podría incluso aplicarse a los robots y hacer de estas máquinas un elemento de compañía para el ser humano capaz de interactuar con ellas y de percibir sentimientos humanos.
Te recomendamos: Atlas, el nuevo robot humanoide, supera la ciencia ficción
¿Te ha gustado este artículo? ¿Te interesa la Inteligencia Artificial?