El impacto de la analítica emocional en las aplicaciones modernas

En el mundo de la tecnología, el enfoque principal de desarrollo de aplicaciones ha sido siempre en lo que la aplicación puede hacer. Sin embargo, cada vez hay más interés en crear aplicaciones que puedan responder a cómo nos sentimos, mediante la incorporación de señales de conciencia emocional obtenidas de rostros, voces y texto. En la Conferencia de Diseño de O’Reilly en San Francisco, Pamela Pavliscak, CEO de SoundingBox, exploró cómo las aplicaciones que pueden percibir nuestras emociones están cambiando la forma en que nos relacionamos con la tecnología y con otras personas.

Actualmente, las cámaras se utilizan para capturar expresiones emocionales en los rostros, los micrófonos pueden analizar el tono emocional de las conversaciones y las técnicas de análisis de sentimientos se utilizan para comprender cómo se sienten las personas en las redes sociales. Además, los nuevos dispositivos con sensores recopilan datos sobre nuestro ritmo cardíaco, ondas cerebrales y la conductividad eléctrica de la piel para realizar evaluaciones aún más detalladas de las emociones. Esto solía ser algo reservado para los autodenominados “hackers” y los equipos de marketing con grandes presupuestos, pero ahora está empezando a ser algo común.

Empresas como Apple, Microsoft e IBM están invirtiendo en la analítica emocional. Apple, por ejemplo, recientemente adquirió Emotient, una empresa que analiza las expresiones emocionales en el rostro. Esto podría ayudar a incorporar capacidades de reconocimiento emocional en iOS. Además, tanto Microsoft como IBM ofrecen actualmente una suite de capacidades de analítica emocional como parte de sus servicios en la nube.

¿Cómo funciona la analítica emocional? Una de las técnicas más utilizadas hoy en día es el análisis de texto. Este analiza las elecciones de palabras para asociar el sentimiento con lo que las personas están escribiendo. Las empresas pueden utilizar estas técnicas para comprender el impacto de su marca o servicio. Implementaciones más íntimas y personalizadas pueden mejorar las interacciones con chatbots. Un ejemplo sencillo es el Hedonometer, que mide la felicidad de los usuarios de Twitter y la asocia con noticias y tendencias. Sin embargo, las herramientas actuales tienen dificultades para interpretar el sarcasmo, según Pavliscak.

Los algoritmos de entonación vocal analizan el habla para determinar el impacto de la voz. Empresas como Beyond Verbal han implementado una API que se puede aprovechar en centros de llamadas o para mejorar las interacciones en chats hablados. Esto podría ser utilizado por los centros de llamadas para crear un proceso empresarial para atender llamadas de clientes frustrados. También han desarrollado una aplicación para teléfonos inteligentes llamada Moodcall que puede medir cómo las llamadas telefónicas afectan tu estado de ánimo.

¿Quién está utilizando la analítica emocional? Varias empresas han desarrollado APIs para reconocer las emociones expresadas en los rostros. Estas técnicas se basan en la investigación de Paul Ekman, quien identificó 5 patrones de emociones universales expresados en todas las culturas, popularizados en la película Inside Out. La primera generación de estas herramientas utilizaba cámaras en las tiendas para analizar de forma anónima el impacto emocional de los nuevos productos. Ahora, los desarrolladores están empezando a utilizar la analítica de expresiones faciales para mejorar la experiencia de juego.

La analítica emocional está abriendo nuevas posibilidades en el mundo de las aplicaciones. La capacidad de las aplicaciones para comprender y responder a nuestras emociones está cambiando la forma en que interactuamos con la tecnología y con los demás. A medida que esta tecnología se vuelve más accesible y se integra en nuestras vidas cotidianas, es emocionante pensar en las posibilidades que nos depara el futuro.

Te puede interesar