Tecnología

Tecnología que detecta el estado de ánimo

La nueva tecnología va tomando diferentes matices tanto que en breve se podrá conocer el nivel de coquetería, sentimentalismo y otros estados de ánimo.

La aplicación de reconocimiento de voz, que ya está disponible para preordenar, Beyond Verbal, puede decir si se coquetea demasiado en solo 20 segundos. Consiste en un suéter que detecta la estimulación de la piel para codificar en colores los sentimientos.
 
El método de más rápido desarrollo es el reconocimiento facial, liderado por Affectiva, un emprendimiento que se derivó del grupo Affective Computing del MIT hace tres años. En ese tiempo, la empresa acumuló una base de datos de más de mil millones de expresiones faciales, que utiliza para entrenar algoritmos para reconocer y clasificar emociones básicas como felicidad o enojo, con más de un 90 por ciento de precisión.
 
Su tecnología insignia, Affdex, fue adoptada rápidamente por los anunciantes, quienes la utilizan para probar reacciones a sus campañas, y modificarlas como corresponde. Los socios de investigación de mercado, Millward Brown, estandarizaron su uso para clientes de la lista de las 500 empresas con mayores ingresos según Forbes, incluidos PepsiCo y Unilever, según el sitio cnnenespanol.com
 

“En el pasado esta tecnología estaba confinada a los laboratorios debido al costo alto y respuesta lenta”, explica Nick Langeveld, director ejecutivo de Affectiva. “Desciframos esos problemas; el costo es muy bajo y el servicio está en la web, y puede transformarse casi inmediatamente después de que los datos se colecten”.
 
El competidor, Emotient, también se especializa en el reconocimiento facial, pero su principal objetivo es el sector minorista. Su software está a prueba en las tiendas, al identificar 44 movimientos faciales para monitorear las reacciones emocionales del personal y los compradores, así como información demográfica incluida la edad y el género. Desde la satisfacción de los clientes hasta la moral de los empleados, los beneficios para los negocios son obvios, y Emotient afirman que los grandes socios minoristas planean hacer que el sistema sea permanente.
 
¿Cansado o estresado?
 
Un recorrido de mucha distancia en autom��vil, puede ser solitario con solo un radio de compañía, y si el conductor está estresado o cansado se vuelve algo peligroso.
 
Un automóvil que pudiera entender esos sentimientos podría prevenir un accidente, al utilizar datos emocionales para señalar las advertencias. Los sensores podrían encajar en el volante y las manijas de la puerta para recoger las señales eléctricas de la piel. Mientras tanto, una cámara colocada en el parabrisas podría analizar las expresiones faciales.
 
Alternativamente, si el conductor muestra estrés, los sensores coordinados del auto podrían suavizar la luz y la música, o expandir los faros para compensar la pérdida de visión. Un estado de angustia podría transmitirse como una advertencia a otros conductores al cambiar el color de la pintura del vehículo.
 
Este automóvil empático es el objetivo de AutoEmotive, un proyecto de investigación del grupo Affective Computing en el laboratorio de medios del MIT en Estados Unidos, que se enfoca en explorar el potencial de las conexiones emocionales con máquinas. ‘AutoEmotive’ es su proyecto más reciente e integrado, después de esfuerzos exitosos para crear interfaces de todo desde sostenes hasta espejos.

En la medicina
 
El médico Erik Viirre, un neurofisiólogo de San Diego, Estados Unidos, cree que también es tiempo de llevar esas herramientas a una práctica clínica.  “Aunque muchos medicamentos listan al riesgo de suicidio como un efecto secundario posible, creo que tenemos que utilizar biosensores, y hay un gran impulso dentro de la psiquiatría para traerlos. Los trastornos del pensamiento podrían ser detectados mucho más rápidamente y utilizados para determinar el tratamiento”, explica.
 
Viirre estudió los dolores de cabeza ampliamente y encontró que los factores contribuyentes se desarrollan días antes de que ataquen, incluido el estado de ánimo. Afirma que un enfoque multisensorial que combina escaneos cerebrales, pruebas genéticas y detección de emociones podría mejorar dramáticamente el tratamiento.
 
Pero los sensores de emociones actualmente están limitados en su capacidad para diferenciar la expresión matizada, dice Tadas Baltrušaitis del Laboratorio Computacional de la Universidad de Cambridge en Reino Unido, quien publicó investigación sobre el tema.
 
“Es fácil entrenar a una computadora para reconocer emociones básicas, como miedo o enojo. Es más difícil reconocer estados emocionales más complejos, que también podrían ser culturalmente dependientes, como la confusión, interés y concentración”, agrega.
 

ESCRITO POR: