Un grupo de trabajo de la UC3M de España desarrolló un sistema por el cual la computadora es capaz de reconocer el estado de ánimo del usuario y adecuar sus respuestas a estos parámetros. David Griol indicó en la 99.9 que “el sistema ya está disponible”.
La evolución de la Inteligencia Artificial en la ciencia sigue sorprendiendo. En la UC3M de España, hay un grupo de personas que ha desarrollado un mecanismo para que la computadora adecue la respuesta que emitirá dependiendo del estado de ánimo de quien la esté usando.
David Griol es profesor del Departamento de Informática en ese establecimiento, y explicó en la 99.9 que con su equipo tienen una idea que consiste en “desarrollar programas informáticos con los que interactúas a través de la web. Estos programas, fuera del ámbito universitario, tienen una mala fama. Todos tuvimos malas experiencias cuando llamamos y la máquina no reconoce lo que estamos diciendo o nos pide que repitamos cosas. Lo que intentamos es hacer máquinas que sigan esa comunicación oral con los usuarios, pero que funcionen como si fuera un ser humano”.
Con ese objetivo por delante se pusieron a trabajar. “Hemos enfocado esta investigación en dos aspectos. La primera es hacer que la comunicación nos deje hablar de una forma más natural y con frases más largas, en lugar de tener que apretar para hacer algo o para salir. La segunda es que además de permitirnos eso, tenga una idea de la emoción que le estamos transmitiendo a la hora de comunicar esa frase. Hemos pensado en las emociones negativas, el enfado, si tiene dudas para comunicarse con la máquina o si está aburrido. Dependiendo de eso, responde de manera distinta”. Luego abundó: “hay una tercera línea que es que la máquina aprenda de cada vez que se conecta con nosotros para que se adapte más. No atenderá a todos los usuarios de la misma manera, sino de forma específica a la referencia de cada usuario”.
Si bien es algo que en muchos casos alrededor del mundo se ha intentado hacer, Griol destacó que en su investigación, “la novedad es la detección de la emoción, que siempre se hace a través de la señal de voz que se corresponde con las palabras del usuario, y a eso le añadimos el contexto del diálogo. Es decir que dentro de cada llamada, podremos ver cómo está desarrollándose la conversación y ver los cambios en sus emociones”.
El desarrollo de este programa ya está disponible para ser utilizado, y han recibido algunas propuestas que analizarán: “Está disponible ya. Muchas de las cosas que investigamos en la universidad corren el riesgo de quedarse allí, pero tenemos un departamento que nos contacta con empresas. Le han prestado interés varias de ellas, desde Inglaterra, Paquistán, el sector de Asia también”.
En la práctica, el profesor destacó que está dedicado a ciertos parámetros específicos: “al momento de llevarlo a la práctica, los sistemas de diálogos son para tareas específicas donde haya un límite acotado de preguntas de usuario y lo que puede responder la máquina”.
Por último, teniendo en cuenta que lo podrían vender en todo el planeta, aclaró que “cada idioma tiene resultados diferentes en el conocimiento del habla. Hay reconocedores que funcionan muy bien con el español de España y tendrán problemas con el español de Argentina y Colombia. De momento, lo hemos desarrollado para una versión neutra del español. No es fácil adaptar una variedad de un idioma a otro, hay que volver a entrenar los modelos que utiliza la máquina”, finalizó.