Índice general. 2. Estado del Arte 21


Save this PDF as:
 WORD  PNG  TXT  JPG

Tamaño: px
Comenzar la demostración a partir de la página:

Download "Índice general. 2. Estado del Arte 21"

Transcripción

1 Resumen En esta tesis se reportan los avances obtenidos en la clasificación de emociones a partir de señales de voz, los objetivos que se plantean para la conclusión del mismo y una descripción de los trabajos relacionados encontrados hasta el momento. El reconocimiento de emociones es un problema que ha sido abordado de diferentes maneras, teniendo en cuenta diversas formas de obtener los datos, como son la lectura de señales biométricas (presión arterial, pulso, entre las más importantes), detección de secuencias de movimientos del cuerpo humano al andar, el seguimiento de la expresión facial, la señal de voz, entre otras. Hay trabajos que abordan el tema analizando diferentes tipos de señales y otros que tratan con un solo tipo de señal; para los fines del presente proyecto, se trabaja con la señal de voz. Las técnicas utilizadas hasta el presente para el reconocimiento y clasificación de emociones son redes neuronales artificiales, mixturas Gaussianas, Modelos Ocultos de Markov, principalmente. En este trabajo de tesis se hace uso de técnicas de soporte vectorial y memorias asociativas, la combinación de ambas dan como resultados una efectividad cercana al 99 % de acierto en la clasificación de emociones. Se utiliza la base de datos de Berlín [2], la cual es gratuita y con la cual muchos investigadores han llevado a cabo sus trabajos y donde los resultados reportados no han sobrepasado al 82 %. 1

2 Abstract In this work, in general terms, we report the progress made in the recognition and classification of emotions from voice signals, the objectives proposed for the conclusion and a description of relevant work found so far. Emotion recognition is a problem that has been treated in different manners, taking into account various ways of obtaining data, such as reading biometric signals (blood pressure, pulse, among the most important), detection of sequences of movements of the human body walking, monitoring of facial expression, voice signal, among others. There are works dealing with the issue by analyzing different types of signals and others who deal with one type of signal, for the purposes of this project, working with the voice signal. Actually, the techniques used for the recognition and classification of emotions are neural networks, Gaussian mixtures, Hidden Markov Models, mainly. In this thesis makes use of support vector techniques and associative memories, the combination of both result in an overall benefit of 99 % accuracy in the classification of emotions. It uses the database Berlin [2], which is free and with which many researchers have carried out their work and where the reported results have not exceeded 82 %. 2

3 Agradecimientos Este trabajo no habría sido posible sin el apoyo y estímulo de mis asesores Dr. Segio Suárez Guerra y Dr. Cornelio Yáñez Márquez. Les estaré siempre agradecido por su calidad como científicos, su devoción y nobleza extraordinarias para apoyarme de forma incondicional. A mi sinodales Dr. Jesús Guillermo Figueroa Nazuno, Dr. Oleksiy Pogrebnyak, Dr Héctor Manuel Pérez Meana y Dr. José Luis Oropeza Rodríguez por sus diversas e invaluables contribuciones vertidas en este trabajo, sus oportunos comentarios ayudaron a mejorar esta tesis. Al Dr. Mario Aldape Pérez, gracias por el apoyo recibido para la elaboración del trabajo. Al Dr. Itzamá López Yáñez, gracias por el apoyo brindado en esta investigación. A todos los miembros del Grupo Alfa-Beta, por todos sus aportes e ideas que fueron surgiendo en los seminarios de investigación. Al Centro de Investigación en Computación (CIC) y al Instituto Politécnico Nacional (IPN), que les debo la oportunidad de poder acceder a una formación de esta máxima case de estudios, estaré siempre pendiente de poner en alto su nombre. Al CONACyT, gracias por todo el soporte económico durante el desarrollo del presente trabajo. A mi familia y allegados por su incalculable apoyo. 3

4 Índice general 1. Introducción Antecedentes Hipótesis Objetivo Objetivos específicos Contribuciones Justificación Organización del documento Estado del Arte Materiales y Métodos Alfa-Beta con soporte vectorial Base de datos Software Modelo Propuesto Parámetros Modelo Resultados Clasificación de emociones Clasificación reportada en la literatura

5 Índice general 5 6. Conclusiones y Trabajo Futuro Conclusiones Trabajo Futuro Trabajos publicados y presentados derivados de esta tesis Referencias 72 A. Diagrama de flujo de las máquinas Alfa-Beta con soporte vectorial 78 B. Parámetros 83

6 Índice de figuras 1.1. Palabra da en serbio, se traduce como si en castellano Valor promedio y máximo de la energía para cada emoción Desviación estándar de la energía por emoción y por género Promedio de las duraciones de señal de voz hablada y pausas por emoción Emociones básicas espaciadas en 2 dimensiones por los ejes de valencia y actividad Aproximación suavizada del contorno del pitch. [14] Comparación de clasificación usando los 3 modelos. [28] Clasificación dependiente del locutor. [19] Clasificación mono-lenguaje usando parámetros DSE y AHL. [19] Clasificación multi-lenguaje de emociones con parámetros DSE y AHL. [19] Diagrama de la extracción de parámetros. [34] Detección de género previa a la clasificación de emociones. [46] Mejora para ambas bases de datos. [7] Diagrama de bloques de la selección de rasgos. [13] Modelos encontrados para cada base de datos (a) es para la base de datos de Berlín, (b) para el corpus en polaco. [13] Análisis armónico de la señal. [48] Clasificación de emociones mediante 2 etapas. [48] Clasificación jerárquica con información del género. [48] Conjunto fundamental. [29]

7 Índice de figuras Patrón con la información repetida. [29] Conjunto fundamental con la información del vector soporte eliminada. [29] Conjunto fundamental negado. [29] Vector soporte del conjunto fundamental negado. [29] Conjunto fundamental negado sin la información del vector soporte. [29] Recuperación de uno de los patrones del conjunto fundamental. [29] Señal de energía extraída usando Praat. [10] Señal de energía con relleno Señal de energía Señal de energía normalizada en el eje de la amplitud Diagrama para representar a la energía como un arreglo bidimensional 64 A.1. Fase de aprendizaje de las máquinas Alfa-Beta con soporte vectorial. [29] A.2. Fase de recuperación de las máquinas Alfa-Beta con soporte vectorial, parte 1. [29] A.3. Fase de recuperación de las máquinas Alfa-Beta con soporte vectorial, parte 2. [29] A.4. Fase de recuperación de las máquinas Alfa-Beta con soporte vectorial, parte 3. [29]

8 Índice de tablas 2.1. Matriz de confusión del desempeño humano. [14] Modelos de clasificación clásicos con los 2 grupos de rasgos. [14] Resultados de 2 selecciones de rasgos, los primeros más significativos (PFS) y selección de rasgos hacia adelante (FS). [14] Desempeño por emoción, usando parámetros prosódicos con Modelos Ocultos de Marcov. [35] Resultados usando parámetros de corto plazo con GMD. [28] Resultados usando parámetros de largo plazo con GMD. [28] Resultados usando parámetros de corto y largo plazo con GMD. [28] Todos los archivos tienen una frecuencia de muestreo de 16kHtz. [50] Comparación del desempeño de los 3 modelos. [50] Clasificación dependiente del locutor. [41] Clasificación dependiente del locutor. [41] Clasificación independiente del locutor. [41] Matriz de confusión del clasificador Naive Bayes y porcentajes de reconocimiento obtenidos por personas. [44] Número de registros por género, por emoción y por base de datos. [34] Resultados del reconocimiento de las 5 emociones con varios clasificadores. [34] Matriz de confusión usando 6 parámetros prosódicos y SVM. [31] Matriz de confusión usando 6 parámetros prosódicos y GMM. [31] Matriz de confusión usando los 86 parámetros prosódicos y GMM. [31] Parámetros relevantes para la detección del género. [46] Parámetros relevantes para la detección del género. [46]

9 Índice de tablas Resultados de los tipos de clasificación con detección de género y sin detección de género. [46] Resultados de clasificación para ambas bases de datos. [13] Porcentajes de clasificación de emociones para cada caso. [48] Desempeño por emoción, usando parámetros prosódicos con Modelos Ocultos de Marcov. [16] Desempeño de los clasificadores mas usados en el reconocimiento de emociones. [16] Matriz de confusión usando el modelo Naive Bayes Matriz de confusión usando el modelo SimpleLogistic Matriz de confusión usando Perceptrón Multi-capa Resultados de clasificación para ambas bases de datos. [13] Porcentajes de clasificación de emociones para cada caso. [48] Resultados de la clasificación de la base de datos de Berlín. [48] Resultados reportados en la literatura y alcanzados en esta tesis

10 Glosario 1. SVM - Máquinas de Soporte Vectorial. 2. GMM - Mixturas Gaussianas. 3. F0 - Frecuencia Fundamental. 4. MLB - Verosimilitud Máxima de Bayes. 5. KR - Kernel de Regresión. 6. KNN - K - Vecinos Próximos. 7. FS - Selección de Parámetros. 8. PFS - Selección de Rasgos por el Método de los Primeros más Significativos. 9. FS - Selección de Rasgos Hacia Adelante. 10. HMM - Modelos Ocultos de Markov. 11. GMD - Densidad de Mixturas Gaussianas 12. DSE - Parámetros extraídos Específicamente de la Base de Datos Emocional. 13. AHL - Parámetros de Todo Alto Nivel. 14. MLP - Perceptrón Multicapa. 15. SFS - Selección Secuencial hacia Adelante. 16. LDA - Análisis Discriminante Lineal. 10

11 Índice de tablas LBG - Linde-Buzo-Gray. 18. LOO - Leave One Out. 19. FSS - Feature Subset Selection. 20. EDA - Algoritmo de Estimación de la Distribución. 21. ARFF - Atribute-Relation File Format. 22. MFCC - Mel Frequency Cepstral Coefficients.

12 Capítulo 1 Introducción 1.1. Antecedentes En el presente trabajo se parte del uso de las computadoras como medio de comunicación entre los humanos, para lo cual se ha trabajado durante mucho tiempo en reconocimiento, síntesis y traducción por mensajes hablados. Pero eso no es lo único que se puede extraer de la voz, la cual es una señal con información inteligente; también la voz refleja el estado de ánimo del que habla, o si está diciendo una verdad o una mentira. Esta otra parte de la información está oculta; es decir, es muy diferente del mensaje inteligente que la comunicación oral quiere expresar. 12

13 Capítulo 1. Introducción 13 Figura 1.1: Palabra da en serbio, se traduce como si en castellano. Según Paul Ekman [15] las emociones pueden ser vistas por su valor adaptativo con las tareas fundamentales de la vida. Cada emoción tine características únicas y otras que son comunes que son producto de nuestra evolución y se distinguen así de otros fenómenos emotivos. Para este autor, basa la existencia de las emociones básicas: enojado, miedo, tristeza, alegría, disgustado y sorpresa; en su origen evolutivo. Por lo que en la mayor parte de bases de datos para el reconocimiento de voz emotiva

14 Capítulo 1. Introducción 14 consideran dichas emociones, es decir, son las más comunes usadas por el hombre. En [23] se reportan impresiones de apreciación de las 5 emociones más comunes usadas en las bases de datos orientadas a la clasificación de voz emotiva. Primeramente tenemos a la voz neutral, que se puede percibir de una forma uniforme, calmada, con un tono más o menos idéntico, sin alteraciones o interrupciones; posteriormente, la emoción de enojado se puede apreciar una voz determinante, fuerte, irritable, agresiva, severa. Para el estado de felicidad, se le puede considerar como una voz cantada, llena de alegría, de alguna forma como si el locutor tuviera una sonrisa en la cara; la forma de expresarse con la emoción del miedo denota una voz cambiante, interrumpida, un tono casi chillón, voz ansiosa, con susurros. Por último el estado emocional de tristeza puede ser percibido como monótono, depresivo, lento, melancólico, lento. En la Figura 1.1 se puede percibir, en las gráficas, las señales de voz que contienen o que se expresan en la palabra en serbio da, que en castellano se puede traducir como si ; dichas señales fueron expresadas con 5 diferentes emociones y cabe hacer notar las diferencias en duraciones de tiempo así como las diferencias en amplitud. [23] Figura 1.2: Valor promedio y máximo de la energía para cada emoción.

15 Capítulo 1. Introducción 15 Figura 1.3: Desviación estándar de la energía por emoción y por género. Figura 1.4: Promedio de las duraciones de señal de voz hablada y pausas por emoción. A continuación se muestran algunas gráficas [23] que muestran diferencias entre 5 emociones básicas (neutral, enojado, felicidad, miedo y tristeza). En la Figura 1.2, podemos apreciar el promedio y el máximo valor de energía para las 5 emociones en una escala de 0 a 100 decibeles; también se muestran los diferentes valores de la desviación estándar de la energía para cada emoción y para cada género (ver Figura 1.3). Por último se presenta la Figura 1.4, donde se puede apreciar que para la emoción de la tristeza, se tiene una diferencia mayor con respecto a las otras 4 emociones, al menos para la duración de las pausas.

16 Capítulo 1. Introducción 16 Figura 1.5: Emociones básicas espaciadas en 2 dimensiones por los ejes de valencia y actividad. Para tener una idea un poco más ilustrativa de cómo se podrían clasificar las emociones, puede verse en [47] una distribución de emociones básicas clasificadas por medio del eje de actividad y el eje de la valencia; por ejemplo, puede verse en la Figura 1.5 que se puede distinguir la emoción de estar feliz con respecto a estar enojado por medio de la valencia (emociones positivas y negativas) y para diferenciar al estado enojado del aburrido, se puede llevar a cabo por el eje de la actividad (enojado es un estado más activo que aburrido). El reconocimiento automático de emociones a partir de la voz es un área de investigación relativamente nueva [42]; sin embargo, se tienen trabajos desde el año 1996 [14, 28, 35] y hay otros trabajos como el [50], donde se reporta un estudio experimental en el que trabaja con 4 emociones: enojado, feliz, triste y neutral, utilizando un corpus de 721 instancias cortas. Posteriormente, en [41] se reporta un trabajo que consiste en asociar los parámetros prosódicos derivados del pitch, duración y energía al eje de la activación y los rasgos de calidad como el timbre de la voz con el eje del placer, con el fin de mejorar la tasa de reconocimiento. Para [19], el problema de reconocimiento de emociones se lleva a una frontera más lejos al realizar un experimento donde se intenta realizar clasificación de estados emotivos dentro de un contexto multi-lenguaje. El experimento se llevó a cabo usando bases de datos en inglés, eslovenio, castellano y francés.

17 Capítulo 1. Introducción 17 En 2004, por parte de [44], se reporta una clasificación de emociones usando la base de datos de voz emocional danesa, donde se extrajeron 87 rasgos y se usó un criterio de Selección Secuencial hacia Adelante. En el siguiente año, [45] presenta un artículo donde se realiza una minería de datos sobre 1000 rasgos extraídos del pitch, energía y MFCC s, usando las bases de datos de Berlín [2] y la del mago de Oz. En el mismo año, [34] se hace un reporte de detección de emociones usando una base de datos en lenguaje Mandarín, alcanzando una precisión de 88.7 %, usando Análisis Discriminante Lineal, K-vecinos y Modelos Ocultos de Markov. En el trabajo reportado por [31], se hace uso de una base de datos en euskara, la cual contiene 6 emociones (alegría, asco, ira, miedo, sorpresa y tristeza), dicho corpus contiene 582 instancias; para llevar a cabo la clasificación fueron utilizadas Máquinas de Soporte Vectorial (SVM) y Mixturas Gaussianas (GMM); se reportan resultados de 98.4 y 92.3 %. Para [46], el problema de reconocimiento de emociones se mejora con una preclasificación del género, con un 2 al 4 %; para este caso se trabaja con 2 bases de datos. En el 2007, en [42] se presenta un trabajo donde se pretende detectar nuevas emociones, además de las emociones de entrenamiento, propias de la base de datos. Basándose en una selección de rasgos a partir de algoritmos evolutivos, [7] usa una base de datos bilingüe, con los lenguajes castellano y vasco. Usando técnicas basadas en computación evolutiva, se seleccionan grupos de rasgos para optimizar el reconocimiento automático de emociones. Por otro lado, en [13] se presenta una aproximación usando un clasificador basado en árboles de decisión binarios, en donde se usan 2 bases de datos en alemán y en polaco, alcanzando 72 % de reconocimiento. Por medio de una clasificación jerárquica [48], mediante 68 parámetros extraídos a la base de datos de Berlín, se alcanzó un reconocimiento del % donde se realizó una pre-clasificación del género. En el 2010, [51] usa un modelo basado en el algoritmo k-vecinos próximos que toma en cuenta la estimación del costo del error, ese trabajo reporta un desempeño aproximado del 82 % de clasificación de emociones usando las 7 emociones de la base de datos de Berlín [2]. La experimentación se llevó a cabo por medio de una validación cruzada de 2 pruebas en la que se entrena con el 50 % de la base de datos y se prueba con el otro 50 %, se reordena de forma aleatoria en cada prueba, estimando

18 Capítulo 1. Introducción 18 el resultado final como el promedio del desempeño de las 2 pruebas. En marzo del presente año (2011), [16] se reporta una extendida revisión de las bases de datos orientadas al reconocimiento automático de emociones; los resultados más altos alcanzados en la clasificación de emociones gira alrededor del 80 %. Una gran limitante que hay para trabajar en este campo es la poca disponibilidad de los corpus que se utiliza para trabajar en esta área Hipótesis La voz es una señal que lleva información dinámica; es decir, la secuencia en el tiempo representa qué se dice y cómo se dice (emoción). Si se hace una representación de determinados parámetros de la voz de manera bidimensional y se aplican las técnicas que se utilizan en el procesamiento de imágenes de clasificación, es posible obtener un clasificador de emociones a partir de este tipo de representación Objetivo Objetivo principal. Obtener el conjunto de parámetros de la señal de voz que permitan caracterizar eficientemente la información, para poder hacer la clasificación de los estados de ánimo y su uso mediante un modelo asociativo, para incrementar los resultados que se han obtenido a la fecha Objetivos específicos -Disponer de un corpus de voces para la clasificación de estados. -Parametrizar la base de datos. -Realizar selección de rasgos más representativos. -Diseño de experimentos para la clasificación de estados de ánimo mediante el uso de parámetros más representativos y técnicas utilizadas en procesamiento de voz. -Diseño de experimentos para la clasificación de estados de ánimo a partir de representaciones bidimensionales de los parámetros utilizados en procesamiento de voz.

19 Capítulo 1. Introducción 19 -Proponer un nuevo modelo que permita mejorar la clasificación de la emoción hablada, de la presentada hasta la actualidad mediante un modelo asociativo Contribuciones Extracción y selección de parámetros (rasgos), de la señal de voz para la clasificación de estados emocionales. A partir de la señal de voz, hacer representaciones de sus parámetros en forma de representaciones bidimensionales (no imágenes) y utilizar estas representaciones como elementos para clasificar estados emocionales. Aplicación de los modelos asociativos basados en el uso de técnicas de soporte vectorial con los operadores alfa-beta para la clasificación de estados emocionales Justificación Hay múltiples razones por las que el hacer reconocimiento de emociones es un problema difícil [9]. En la última década, por ejemplo, no se ha tenido un gran progreso, como lo han tenido otros campos en el área de procesamiento de voz; de hecho, se ha alcanzado solo un 50 o 60 % de precisión en la clasificación. Esto es porque la mayor parte de la investigación en este campo se ha enfocado más a la síntesis de voz emocional, que al reconocimiento automático de emociones [36]. Con los enfoques que se han usado hasta ahora, la cota máxima de precisión en la clasificación de algunas emociones gira alrededor del 80 % dentro de un área particular, tomando en cuenta muchas consideraciones, como la creación de la base de datos [40] y el género [47]; es decir, cuestiones como el número de emociones a clasificar, dependiente o independiente del idioma, género o locutor. La principal motivación para elaborar el presente trabajo es el desarrollo de un nuevo enfoque dentro del campo del reconocimiento de emociones a partir de una señal de voz con la finalidad de lograr una mejora en la clasificación, esto implica una selección rigurosa de parámetros acorde a su aportación en la clasificación y el uso de modelos asociativos. Por otro lado, en esta tesis se experimentó con otros enfoques que aún no han

20 Capítulo 1. Introducción 20 sido explorados y/o reportados en la literatura relacionada con el reconocimiento de emociones, como lo son el uso de las representaciones de los parámetros de procesamiento de voz como representaciones bidimensionales para la clasificación de las emociones Organización del documento En este Capítulo se han presentado: los antecedentes, la hipótesis, el objetivo, los objetivos específicos, las contribuciones de este trabajo de tesis y su justificación. El resto del documento está organizado de la siguiente manera: En el Capítulo 2 se presenta el estado del arte en el campo del reconocimiento automático de emociones a partir de señales de voz. A su vez, el Capítulo 3 se describen los materiales y métodos usados para el desarrollo de este trabajo, como son las máquinas asociativas Alfa Beta con Soporte Vectorial, la base de datos que usamos para hacer el reconocimiento de emociones así como el software utilizado durante el desarrollo. En el Capítulo 4 se presenta el Modelo propuesto, dentro de este capítulo tenemos el aporte más importante de la tesis, donde se aborda el problema de reconocimiento de emociones con un enfoque nuevo que no ha sido reportado antes en la literatura. El Capítulo 5 presenta los resultados experimentales del nuevo modelo con la base de datos y en el Capítulo 6 se comparan los resultados obtenidos con los reportados en la literatura, a su vez, se presentan las presentaciones y publicaciones derivadas de este trabajo de tesis. Finalmente, se incluyen las referencias bibliográficas y los apéndices.

21 Capítulo 2 Estado del Arte Cronología del reconocimiento de emociones En 1996 [14] se realiza un trabajo de reconocimiento de emociones utilizando un corpus de 1000 instancias, con 5 locutores, 50 sentencias cortas grabadas con las emociones de enojado, felicidad, triste, miedo y normal; se tomaron 250 instancias como entrenamiento y la frecuencia de muestreo fue de 16kHz. Tabla 2.1: Matriz de confusión del desempeño humano. [14] Categoría Feliz Triste Enojado Miedo Error Feliz % Triste % Enojado % Miedo % 18 % En la Tabla 2.1 se puede observar la matriz de confusión generada por una persona al etiquetar algunas grabaciones de la base de datos antes mencionada; dicha matriz será usada para poder evaluar los resultados del reconocimiento automático. Toda la extracción de parámetros se hizo a partir del pitch (F0), extrayendo así un total de 70 rasgos agrupados de la siguiente forma: 21

22 Capítulo 2. Estado del Arte 22 -Mediciones estadísticas relacionadas con el ritmo: razón del habla, promedio de longitud entre regiones habladas, número de las curvas positivas entre las negativas, curva máxima, entre otras. -Relación estadística del pitch suavizado: mínimo, máximo, promedio y desviación estándar. -Relación estadística de la gradiente del pitch suavizado: mínimo, máximo, mediana y desviación estándar. -Aproximación estadística de las partes individuales habladas: promedio mínimo, promedio máximo. -Valores estadísticos de las curvas individuales: promedio positivo, promedio negativo. Figura 2.1: Aproximación suavizada del contorno del pitch. [14] Los rasgos son agrupados en 2 grupos, los parámetros A, que consisten en 7 estadísticas globales de la señal de pitch, que son el promedio, desviación estándar, mínimo, máximo y rango del pitch, y medidas de las curvas y la razón del habla. Los parámetros B es un conjunto más grande de rasgos, que fueron extraídos a partir

23 Capítulo 2. Estado del Arte 23 del suavizado de la señal del pitch Figura 2.1 Tabla 2.2: Modelos de clasificación clásicos con los 2 grupos de rasgos. [14] Método p Error(A) p Error(B) MlB % 44 % KR kw= % kw= % KNN k=19 36 % k=11 32 % Se usaron 3 métodos de clasificación, el de Verosimilitud Máxima de Bayes (MLB), Kernel de Regresión (KR) y K-vecinos próximos (KNN). En la Tabla 2.2 se puede observar que el método KNN con k = 11 usando el conjunto B de rasgos, tiene el menor error. Para disminuir el error fueron elegidas 2 estrategias de selección de parámetros (Feature Selection FS). La primera FS consiste en hacer una graduación de parámetros, de tal forma que queden ordenados en relación a su aportación individual a la clasificación global y posteriormente se hace una selección de parámetros hacia adelante respetando ese orden, mientras que la segunda FS consiste en hacer la búsqueda del conjunto de parámetros midiendo las combinaciones entre los rasgos de 1 en 1, empezando por un rasgo seleccionado al azar. Los resultados de ambas estrategias pueden verse en la Tabla 2.3. Tabla 2.3: Resultados de 2 selecciones de rasgos, los primeros más significativos (PFS) y selección de rasgos hacia adelante (FS). [14] Método Error (A) Error (B) PFS 36 % (4) 28 % (8) FS 34.5 % (4) 28.5 % (5)

24 Capítulo 2. Estado del Arte 24 Posteriormente, en [35] es reportado el uso de una base de datos generada a partir de 50 sentencias que van desde 2 a 12 palabras y como locutores se solicitó a 5 estudiantes de drama que pronunciaran las sentencias con la etiqueta de la emoción correspondiente. Las emociones manejadas fueron feliz, triste, enojado, miedo y neutral. De tal forma que se tienen un máximo de 250 sentencias por estudiante. Algunas personas hicieron el reconocimiento de las cuatro emociones (feliz, triste, enojado y miedo) en un orden aleatorio, obteniendo así un desempeño del 70 %. En este trabajo se utilizaron Modelos Ocultos de Markov (HMM), utilizando parámetros prosódicos y la validación de los resultados fue hecha mediante el método Hold out usando un 70 % de entrenamiento y el resto para prueba, resultados que se muestran en la Tabla 2.4. Tabla 2.4: Desempeño por emoción, usando parámetros prosódicos con Modelos Ocultos de Marcov. [35] Emoción Feliz Miedo Enojado Triste Precisión 93.8 % 60.0 % 77.9 % 59.6 % En otro artículo [28] la base de datos se colectó mediante 5 estudiantes voluntarios sin entrenamiento (3 hombres y 2 mujeres), cada locutor grabó 20 sentencias para cada emoción (neutral, feliz, enojado, miedo, sorprendido y triste), de las cuales 15 fueron usadas para el entrenamiento y 5 como conjunto de prueba. El análisis de los parámetros se hizo mediante 2 aproximaciones, las de corto plazo: primeras 4 formantes, primeros anchos de banda de los 4 formantes, pitch, energía en escala logarítmica y los coeficientes de autocorrelación de primer orden normalizados. Para las de largo plazo, se calcula para cada rasgo de corto plazo, los siguientes valores: promedio del parámetro sobre toda la sentencia, promedio de la primera y de la segunda parte de la sentencia y promedio de cada tercio de la sentencia.

25 Capítulo 2. Estado del Arte 25 Figura 2.2: Comparación de clasificación usando los 3 modelos. [28] En la Figura 2.2, podemos observar que el modelo de Densidad de Mixturas Gaussianas (GMD), tiene el mejor desempeño usando la combinación de los parámetros de corto y largo plazo, aunque utilizando únicamente las variables de corto plazo, mientras que GMD es el modelo que tiene el desempeño más bajo. En las Tablas 2.5 y 2.6, se puede observar el desempeño del uso de rasgos de corto plazo y largo plazo respectivamente. Tabla 2.5: Resultados usando parámetros de corto plazo con GMD. [28] Neutral Feliz Enojado Miedo Sorpresa Triste Neutral Feliz Enojado Miedo Sorpresa Triste En este artículo, se usaron 3 modelos, el vector de cuantificación, redes neuronales artificiales y el modelo de Densidad de Mixturas Gaussianas (GMD). Este último modelo es el que presentó mejores resultados, ver Tabla 2.7, combinando parámetros tanto de corto como de largo plazo.

26 Capítulo 2. Estado del Arte 26 Tabla 2.6: Resultados usando parámetros de largo plazo con GMD. [28] Neutral Feliz Enojado Miedo Sorpresa Triste Neutral Feliz Enojado Miedo Sorpresa Triste Tabla 2.7: Resultados usando parámetros de corto y largo plazo con GMD. [28] Neutral Feliz Enojado Miedo Sorpresa Triste Neutral Feliz Enojado Miedo Sorpresa Triste Otra aproximación [50] se utiliza una base de datos extraída de películas o televisión, la cual es un conjunto de 721 sentencias cortas (ver Tabla 2.8) que con tienen 4 emociones (enojado, feliz, triste y neutral) Tabla 2.8: Todos los archivos tienen una frecuencia de muestreo de 16kHtz. [50] Enojado Feliz Neutral Tristeza Fueron extraídos un total de 60 variables, agrupadas de la siguiente forma: -Rasgos estadísticos relacionados con el ritmo: velocidad del habla, promedio de la longitud entre regiones vocalizadas, entre otras. -Relaciones estadísticas de la señal del pitch suavizado: mínimo, máximo, mediana y desviación estándar.

27 Capítulo 2. Estado del Arte 27 -Variables estadísticas del gradiente del pitch suavizado: mínimo, máximo, mediana y desviación estándar. -Estadísticas sobre las partes individuales vocalizadas: promedio del mínimo y promedio del máximo. -Estadísticas sobre partes individuales de las curvas: Promedio positivo y promedio negativo. Todos los parámetros fueron calculados solo en las regiones válidas, las cuales empiezan en el primer valor no cero del pitch (F0) y terminan en el último valor no cero del pitch. Para la clasificación fueron usados 3 modelos, redes neuronales artificiales, k- vecinos próximos y máquinas de soporte vectorial (SVM). En el caso de las SVM s, se utilizó una SVM por emoción, y para la validación de resultados fueron utilizadas 100 sentencias de cada emoción para el entrenamiento y el resto para prueba. Los resultados pueden verse en la Tabla 2.9 Tabla 2.9: Comparación del desempeño de los 3 modelos. [50] Método Enojado Feliz Neutral Triste NN 40 % % % % KNN % % % % SVM % % % % En [41] se hace uso de una base de datos en alemán, que contiene 40 comandos con las emociones de enojado, feliz, triste, aburrido y neutral, los cuales fueron grabados por 14 locutores no-actores (7 hombres y 7 mujeres) con un total de 2800 instancias. Para la evaluación de resultados se usó una validación cruzada dejando un locutor afuera para los resultados independientes del locutor, mientras que para los resultados dependientes del locutor se tomó un 80 % de la base de entrenamiento y el resto de prueba. Los parámetros fueron extraídos en 2 grupos principales, los prosódicos y los de calidad. Para los primeros, se obtuvo un conjunto de 37 rasgos como los siguientes: -Logaritmo de F0: máximo, mínimo, posición máxima, posición mínima, promedio, desviación estándar, coeficientes de regresión, F0 para el primer y último

28 Capítulo 2. Estado del Arte 28 segmentos de señal vocalizada. -Energía: máximo, posición máxima, posición mínima, promedio, coeficientes de regresión y error cuadrático promedio para los coeficientes de regresión. -Aspectos de duración: número de regiones vocalizadas y no vocalizadas, número de segmentos vocalizados y no vocalizados, mayor región vocalizada y no vocalizada, razón del número de segmentos vocalizados entre los no vocalizados, razón del número de regiones vocalizadas entre las no vocalizadas, razón del número de segmentos vocalizados entre el total y razón del número de regiones vocalizadas entre el total. Los rasgos de calidad, describen las 3 primeras formantes, sus anchos de banda, distribución espectral de la energía, razón entre la energía vocalizada entre la no vocalizada y flujo glotal. Estos parámetros fueron extraídos usando un software de análisis fonético PRAAT. Tabla 2.10: Clasificación dependiente del locutor. [41] Alto Neutral Bajo Alto 82.1 % 17.9 % 0 % Neutral 10.3 % 82.8 % 6.9 % Bajo 0 % 13 % 87 % Tabla 2.11: Clasificación dependiente del locutor. [41] Feliz Enojado Aburrido Triste Feliz 75 % 25 % Aburrido 76 % 24 % Enojado 28 % 72 % Triste 44 % 56 % Tabla 2.12: Clasificación independiente del locutor. [41] Alto Neutral Bajo Alto 68.1 % 17.3 % 14.5 % Neutral 14.4 % 3.7 % 81.8 % Bajo 14.4 % 3.7 % 81.8 %

29 Capítulo 2. Estado del Arte 29 Para la selección de rasgos se usaron modelos de regresión lineal. La clasificación fue llevada a cabo por modelos de redes neuronales artificiales, y se observa que para una clasificación dependiente del locutor, se tiene un reconocimiento del 83.7 % para clasificar los estados neutro, alto y bajo (ver Tabla 2.10). La clasificación de los estados feliz-enojado se alcanzó un reconocimiento del 73.5 % y para los estados aburrido-triste fue del 66 % (ver Tabla 2.11); por último, en la clasificación independiente del locutor, se logró un 77 % para los estados alto, neutral y bajo (ver Tabla 2.12). En el artículo [19] se presenta un análisis de reconocimiento de emociones dentro de un contexto multi-lenguaje, con bases de datos en idioma inglés, esloveno, castellano y francés. Dichas bases de datos incluyen varios estilos neutrales, y 6 emociones: disgustado, sorprendido, alegre, miedo, enojado y triste. La base de datos en inglés fue elaborada mediante 2 locutores varones adultos y una mujer, las demás bases, utilizaron un varón y una mujer únicamente. Para la base de datos en idioma inglés, se grabaron 186 sentencias, en esloveno 190, castellano 184 y francés 175. Las sentencias de los corpus contienen palabras aisladas, oraciones cortas, medias y largas, las cortas están conformadas de 5 a 8 palabras, las medias de 9 a 13 y las largas de 14 a 18. Dichas frases fueron expresadas en forma interrogativa y afirmativa. Figura 2.3: Clasificación dependiente del locutor. [19]

30 Capítulo 2. Estado del Arte 30 Los parámetros fueron extraídos en 2 grupos, los de bajo nivel: calculados a partir del pitch, gradiente del pitch, energía, gradiente de la energía y duración de los segmentos vocalizados, los de alto nivel: son representaciones estadísticas de los rasgos de bajo nivel. A partir de estos datos se establecieron 2 tipos de datos, los Específicamente tomados de la Base de Datos Emocional (DSE por sus siglas en inglés) son 14 parámetros extraídos exclusivamente a partir del pitch (F0), gradiente del pitch y duración, por otro lado los de Todo Alto Nivel (AHL por su siglas en inglés) suman 26 parámetros. El modelo usado para el reconocimiento de emociones es el de redes neuronales artificiales. Figura 2.4: Clasificación mono-lenguaje usando parámetros DSE y AHL. [19] Se generaron 4 topologías diferentes de perceptrón multi-capa (MLP), debido a los distintos tamaños de las entradas y salidas. Las 4 topologías tienen 26 neuronas en la capa oculta, en la capa de salida; la primera y la segunda tienen 8 neuronas, la tercera y cuarta tienen 7; la primera y la tercera tienen 26 neuronas en la capa de entrada mientras que la segunda y la cuarta tienen 14. Todas las neuronas manejan la función de tangente hiperbólica como función de activación.

31 Capítulo 2. Estado del Arte 31 En la Figura 2.3 se puede observar que para el segundo locutor masculino, se logró el mejor reconocimiento de emociones. En idioma inglés, se encontró una mayor precisión en el reconocimiento de emociones (ver Figura 2.4). Para el reconocimiento multi-lenguaje, la emoción de tristeza es la que mejor se identifica (ver Figura 2.5). En [44], se trabajó con la base de datos emocional en Danés, dicho corpus, consta de 500 registros (sin silencios), generados a partir de 4 actores profesionales (2 hombres y 2 mujeres), expresando 5 estados emocionales: enojado, feliz, neutral, tristeza y sorprendido. Figura 2.5: Clasificación multi-lenguaje de emociones con parámetros DSE y AHL. [19] Se extrajeron 87 parámetros basados en el pitch y la energía, de los cuales, mediante un método de Selección Secuencial hacia Adelante (SFS) es encontrado un subconjunto de 5 rasgos para realizar la clasificación. El reconocimiento fue realizado por el método de Naive Bayes, puede verse en la Tabla 2.13 los resultados alcanzados mediante este enfoque.

32 Capítulo 2. Estado del Arte 32 Tabla 2.13: Matriz de confusión del clasificador Naive Bayes y porcentajes de reconocimiento obtenidos por personas. [44] Matriz de confusión para clasificación bayesiana Neutral Sorpresa Feliz Tristeza Enojado Neutral Sorpresa Feliz Tristeza Enojado Clasificación alcanzada por humanos Neutral Sorpresa Feliz Tristeza Enojado Neutral Sorpresa Feliz Tristeza Enojado En el trabajo [34], se trabajó con 2 bases de datos en mandarín, la primera consta de 538 registros grabados por 12 locutores nativos y la otra contiene 503 sentencias hechas por 2 actores profesionales. Los parámetros fueron extraídos a partir de 16 coeficientes LPC s, 12 LPCC, 16 LFPC, 16 PLP, 20 MFCC s y el jitter. Los modelos usados para este artículo fueron Análisis Discriminante Lineal (LDA), k-vecinos (K- NN) y Modelos Ocultos de Markov (HMM). Se obtuvo un reconocimiento del 88.3 % para la primera base de datos y 88.7 % para la segunda. En la Tabla 2.14, puede observarse la distribución de registros según su base de datos, emoción y género. La Figura 2.6 muestra un diagrama de bloques de como es la extracción de rasgos, el vector Y 1 es generado a partir de la obtención de varios centroides por medio del algoritmo Linde-Buzo-Gray (LBG) [34], el segundo vector (Y 2 ) es obtenido con el promedio. La Figura 2.6 muestra un diagrama de bloques del proceso de extracción de parámetros. En el preprocesamiento primero se localizan los puntos finales, seguidamente se pasa la señal de voz por un filtro pasa altos, para enfatizar las componentes de alta frecuencia, después la señal es particionada en ventanas de 256 muestras;

33 Capítulo 2. Estado del Arte 33 Tabla 2.14: Número de registros por género, por emoción y por base de datos. [34] Sentecias del Corpus I Mujer Hombre Total Enojado Aburrido Feliz Neutral Tristeza Total Sentencias del Corpus II Mujer Hombre Total Enojado Aburrido Feliz Neutral Tristeza Total posteriormente se aplica una ventana de Hamming a cada ventana individualmente para minimizar las discontinuidades de la señal. Con el fin de encontrar una combinación adecuada de parámetros extraídos, se utilizó el método de selección por regresión para determinar los rasgos más benéficos de entre más de 200 parámetros de voz. Diez candidatos fueron seleccionados: LPC, LPCC, MFCC, Delta MFC, Delta-Delta MFCC, PLP, RastaPLP, LFPC, jitter y shimmer. Como método de validación de resultados, se usó el esquema Leave-One- Out (LOO), los porcentajes de reconocimiento para cada emoción con cada algoritmo (LDA, K-NN y HMM s) se pueden observar en la Tabla 2.15 En [31] se utilizó una base de datos en lengua euskara, que contiene 6 emociones (alegría, asco, ira, miedo, sorpresa y tristeza), se utilizó una actriz profesional para hacer las grabaciones. En total son 97 grabaciones por emoción. Los modelos usados para clasificación son máquinas de soporte vectorial (SVM) y Mixturas Gaussianas (GMM). Los resultados están reportados con validación cruzada. Fueron extraídos un total de 86 parámetros prosódicos, de ése conjunto se obtuvieron 6 parámetros usando Máquinas de Soporte Vectorial, usando un método

34 Capítulo 2. Estado del Arte 34 Figura 2.6: Diagrama de la extracción de parámetros. [34] llamado Jack-knife [31], con los 6 parámetros prosódicos y SVM s, los resultados pueden ser vistos en la Tabla 2.16; usando los mismos 6 parámetros con GMM, se obtuvo la matriz de confusión mostrada en la Tabla 2.17, finalmente la matriz de confusión de la Tabla 2.18 muestra los resultados obtenidos al emplear todos los parámetros con Mixturas Gaussianas. Para [46], la clasificación de emociones se mejora al usar un detector de género previo a la clasificación de estados emocionales (ver Figura 2.7). En este trabajo se usaron 2 bases de datos, la base de datos de Berlín y la base de datos SmartKom mobile, ambas están en Alemán, la primera ya ha sido descrita anteriormente y fue usada dejando 1 hombre y 1 mujer para pruebas y los otros locutores para entrenamiento, la segunda fue usada con 56 locutores (24 hombres y 32 mujeres) como entrenamiento y 14 (7 hombres y 7 mujeres) para pruebas; aunque esta base de datos consta de 12 emociones, fueron utilizadas las emociones neutral, alegría, impotencia y enojo.

35 Capítulo 2. Estado del Arte 35 Tabla 2.15: Resultados del reconocimiento de las 5 emociones con varios clasificadores. [34] Resultados experimentales de 5 emociones para el corpus I Precisión LDA Y1 LDA Y2 K-NN Y1 K-NN Y2 HMMs Y1 HMMs Y2 ( %) Enojado Aburrido 80, Feliz Neutral Tristeza Promedio Resultados experimentales de 5 emociones para el corpus II Precisión LDA Y1 LDA Y2 K-NN Y1 K-NN Y2 HMMs Y1 HMMs Y2 ( %) Enojado Aburrido Feliz Neutral Tristeza Promedio Figura 2.7: Detección de género previa a la clasificación de emociones. [46] Se extrajeron un total de 1289 parámetros, de éstos, 20 fueron usados para la detección de género para la base de datos de Berlín y 12 para la SmartKom (ver Tabla 2.19), no se reporta cómo se extraen los parámetros.

36 Capítulo 2. Estado del Arte 36 Tabla 2.16: Matriz de confusión usando 6 parámetros prosódicos y SVM. [31] Ira Miedo Sorpreasa Asco Alegría Tristeza Neutral Ira Miedo Sorpresa Asco Alegría Tristeza Neutral Eficiencia ( %) Tabla 2.17: Matriz de confusión usando 6 parámetros prosódicos y GMM. [31] Ira Miedo Sorpreasa Asco Alegría Tristeza Neutral Ira Miedo Sorpresa Asco Alegría Tristeza Neutral Eficiencia ( %) En la Tabla 2.20 se muestra una comparativa de la detección de género, una a partir del pitch exclusivamente, y la otra clasificación fue usando los parámetros de la Tabla Los resultados de la clasificación global se muestran en la Tabla 2.21 En el trabajo [7], se reporta el uso de la base de datos bilingüe RekEmozio, que contiene registros en idioma español y vasco. Los parámetros extraídos están basados en la frecuencia fundamental (F0), energía, distribución espectral de la energía, sonoridad, formantes y sus bandas de frecuencia, jitter, shimmer y velocidad del habla.

37 Capítulo 2. Estado del Arte 37 Tabla 2.18: Matriz de confusión usando los 86 parámetros prosódicos y GMM. [31] Ira Miedo Sorpreasa Asco Alegría Tristeza Neutral Ira Miedo Sorpresa Asco Alegría Tristeza Neutral Eficiencia ( %) Tabla 2.19: Parámetros relevantes para la detección del género. [46] Rasgos Berlin SmartKom Pitch 1 2 Energía 2 3 MFCC 17 7 Σ La selección de parámetros fue llevada a cabo mediante (Feature Subset Selection - FSS) con la estimación de distribución de algoritmos (Estimation of Distribution Algorithms - EDA). Los modelos usados para la clasificación fueron: árboles de decisión, aprendizaje basado en instancias, árboles C4.5, Naive Bayes y el árbol Naive Bayes de aprendizaje. Los resultados pueden verse en la Figura 2.8, donde se muestran los resultados de clasificación usando todos los parámetros y el resultado de usar los parámetros encontrados en la selección de rasgos. Los resultados se pueden ver independientes para cada base de datos y para cada algoritmo de clasificación. Tabla 2.20: Parámetros relevantes para la detección del género. [46] F0 promedio Conjunto optimizado Berlín % % SmartKom % %

38 Capítulo 2. Estado del Arte 38 Tabla 2.21: Resultados de los tipos de clasificación con detección de género y sin detección de género. [46] Berlín SmartKom Sin información del género % % mujer % % Con información correcta del género hombre % % combinado % % mujer % % Con información del género reconocida hombre % % combinado % % La validación de la medida del error fue k-fold cross validation con k = 10. Figura 2.8: Mejora para ambas bases de datos. [7] En el trabajo publicado por [13], se ocuparon las bases de datos de Berlín y la de Polonia, reportando un reconocimiento del 72 % para la clasificación independiente del locutor. Fueron extraídos 102 parámetros basados en 3 grupos principales: la frecuencia fundamental, la energía y parámetros temporales como las pausas.

39 Capítulo 2. Estado del Arte 39 Figura 2.9: Diagrama de bloques de la selección de rasgos. [13] Figura 2.10: Modelos encontrados para cada base de datos (a) es para la base de datos de Berlín, (b) para el corpus en polaco. [13]

40 Capítulo 2. Estado del Arte 40 La selección de rasgos por medio de estos árboles de decisión binaria, fue usando subconjuntos de 3 rasgos, 1 por cada grupo (F0, energía y duraciones), se evalúa la correlación del subconjunto, si la correlación rebasa cierto umbral, el conjunto es desechado y se selecciona otro. Esto puede ser visto en la Figura 2.9. Para la base de datos de Berlín, solo se usaron 6 emociones, la emoción de disgustado no fue ocupada, para poder hacer comparaciones entre las 2 bases de datos. Los resultados del reconocimiento pueden ser vistos en la Tabla 2.22 Tabla 2.22: Resultados de clasificación para ambas bases de datos. [13] Base de datos Mejor resultado Dependiente del locutor Independiente del locutor Polaco % % Alemán % % En [48], se experimenta con la base de datos de Berlín, se alcanza un desempeño del % y del % cuando se hace una clasificación previa del género. En este trabajo no se trabajó con la emoción de disgustado, por lo que la clasificación corresponde a 6 estados emocionales (enojado, aburrido, miedo, alegría, neutral y tristeza). La validación de los resultados fue hecha mediante 10 corridas donde se tomó el 50 % de la base de datos para entrenamiento y el otro 50 % de prueba, para cada corrida las sentencias fueron tomadas aleatoriamente. Fueron extraídos 68 parámetros basados en la frecuencia fundamental, los 3 primeros formantes, energía, duración, y 2 grupos más de parámetros unos basados en el análisis armónico de la señal (extraídos a partir del contorno de la frecuencia fundamental, pasado por un banco de filtros, se obtiene su envolvente y se saca la FFT de dicha envolvente) (ver Figura 2.11); el último grupo de parámetros son extraídos a partir de una ley propuesta empíricamente [48], de la cual se extraen los rasgos Zipf.

41 Capítulo 2. Estado del Arte 41 Figura 2.11: Análisis armónico de la señal. [48] Figura 2.12: Clasificación de emociones mediante 2 etapas. [48]

42 Capítulo 2. Estado del Arte 42 Se utilizaron redes neuronales artificiales (Perceptrón Multicapa) con 2 capas ocultas, la función de transferencia es la función logarítmica sigmoidal. En la capa de salida solo hay una neurona que separa 2 clases con un umbral de 0.5. En la Figura 2.12 se puede observar como es el esquema de clasificación independiente del locutor. Figura 2.13: Clasificación jerárquica con información del género. [48] En la Figura 2.13 se ilustra cómo se realiza la clasificación dependiente del locutor. Los resultados obtenidos mediante esta estrategia, se observan en la Tabla 2.23 Tabla 2.23: Porcentajes de clasificación de emociones para cada caso. [48] Hombre Mujer Promedio Mezclado Mezclado con clasificador del género Global fases fases

43 Capítulo 2. Estado del Arte 43 En el trabajo [51] se reporta el uso de un modelo basado en el k-vecinos próximos con una estimación de costo del error en dicho trabajo usa las 7 emociones de la base de datos de Berlín [2], y se reporta un resultado del % de reconocimiento, obtenido con una validación cruzada de 2-folds (50 % de los datos son usados para entrenamiento y 50 % para prueba. En [16], se muestra una amplia información de las diversas estrategias que se han tomado para abordar el problema de reconocimiento de emociones; dicha tarea es muy desafiante debido a 3 razones principales; la primera es que no se sabe cuáles son los parámetros más potentes para clasificar emociones, la segunda es que la expresión de emociones depende de las raíces culturales del locutor, de su idioma, además de que hay sentencias en las que se pueden percibir más de una emoción y es muy difícil tratar de encontrar los límites de frontera entre las emociones. Finalmente hay emociones como tristeza que pueden tardar unas pocas horas, unos días o más aún meses, mientras que hay otras que cuando se manifiestan solo duran unos minutos como la ira. Por otro lado, la mayor parte de bases de datos de voz emotiva no están disponibles al público, como se muestra en la Tabla En dicha Tabla se muestran las bases de datos de voz emotiva más usadas en la investigación de reconocimiento automático de emociones a partir de la voz, el principal problema de la mayor parte de estas bases de datos es que no simulan lo suficientemente clara y natural las emociones, por lo que el reconocimiento llevado a cabo por personas está por debajo del 80 % de reconocimiento. Un sistema automático de clasificación de emociones a partir de la voz consta de 2 etapas, donde la primera es llevar a cabo un proceso para extraer los parámetros apropiados de los datos disponibles (en este caso la señal de voz), y la segunda etapa es la selección del clasificador, es importante mencionar que mucho del trabajo publicado recientemente se enfoca más a esta segunda etapa. Otro problema que se tiene en relación a los clasificadores es que no se ha encontrado uno que sea el más apropiado para resolver este problema del reconocimiento de emociones y es un hecho que cada clasificador tiene sus ventajas y limitaciones. [16] La mayor parte de los trabajos reportan clasificación de emociones usando 4, 5 o 6 de ellas, específicamente, cuando se reporta el uso de la base de datos de Berlín,

44 Capítulo 2. Estado del Arte 44 Tabla 2.24: Desempeño por emoción, usando parámetros prosódicos con Modelos Ocultos de Marcov. [16] Corpus Tamaño Emociones 7 actores x 15 emociones x 10 sentencias LDC Voz Prosódica Emocional y Transcripciones[6] Base de Datos emocional de Berlín[2] Base de Datos emocional Danesa[5] Natural[32] ESMBS[33] INTERFACE[20] KISMET[11] 535 instancias (10 actores x 7 emociones x 10 sentencias) 4 actores x 5 emociones (2 palabras + 9 oraciones + 2 pasajes) 388 instancias, 11 locutores, 2 emociones 720 sentencias, 12 locutores, 6 emociones Inglés (186 sentencias), eslovaco (190 sentencias), español (184 sentencias) y francés (175 sentencias) 1002 instancias, 3 locutoras y 5 emociones BabyEars[39] 509 instancias, 12 actores (6 hombres y 6 mujeres), 3 emociones Neutral, pánico, ansiedad, enojado fuerte, enojado calmado, desdesperación, tristeza, júbilo, alegría, interesado, aburrido, vergüenza, orgullo y desprecio Enojado, alegría, tristeza, miedo, disgustado, aburrido y neutral Enojado, alegría, tristeza, sorpresa y neutral Enojado y neutral Enojado, alegría, tristeza, disgustado, miedo y sorpresa Enojado, disgustado, miedo, alegría, sorpresa, tristeza, neutral lento y neutral rápido Aprobación, atención, prohibición, calmante y neutral Aprobación, atención y prohibición MPEG-4[38] 2440 Instancias, 35 locutores Alegría, enojado, disgustado, miedo, tristeza, sorpresa, neutral Universidad de Beihang[17] 7 actores x 5 emociones x 20 sentencias Enojado, alegría, tristeza, disgustado y sorpresa FERMUS III[37] 2829 instancias, 7 emociones y 13 actores Enojado, disgustado, alegría, neutral, tristeza y sorprendido KES[24] 5400 instancias, 10 actores Neutral, alegría, tristeza y enojado CLDC[52] 1200 instancias, 4 actores Alegría, enojado, sorpresa, miedo, neutral y tristeza Hao Hu[22] 8 actores x 5 emociones x 40 instancias Enojado, miedo, alegría, tristeza, neutral Amir[8] 60 actores Hebreos y 1 Ruso Enojado, disgustado, miedo, alegría, neutral y tristeza Pereira[21] 2 actores x 5 emociones x 8 instancias Enojado Fuerte, enojado calmado, alegría, neutral, tristeza.

45 Capítulo 2. Estado del Arte 45 Tabla 2.25: Desempeño de los clasificadores mas usados en el reconocimiento de emociones. [16] Clasificador HMM GMM ANN SVM Precisión % % % % promedio /63-70 % por lo general no se toma en cuenta la emoción de disgustado. Por otro lado, cuando la validación de resultados se hace por medio de una validación cruzada de k-folds, se sugiere que k tenga un valor entre 10 a 20 [25]. No se ha reportado el uso de varios modelos de clasificación entre ellos, los modelos asociativos. Como se pudo ver en [16], en lo que respecta al campo de reconocimiento de emociones a partir de la voz, aún no se han identificado ni los parámetros clave ni el modelo más significativo para poder encontrar un solución o un marco de trabajo óptimo. El aporte más significativo de esta tesis consiste en una representación bidimensional de la energía, mientras que el modelo para clasificar asignado a esta tarea son las máquinas asociativas Alfa-Beta con Soporte Vectorial. Es preciso hacer notar que los modelos basados en memorias asociativas no han sido reportadas en el área del reconocimiento y clasificación de emociones en la literatura hasta el momento, no obstante que han demostrado ofrecer buenos resultados cuando se entrenan con datos similares a los de la representación de la energía en un arreglo bidimensional con datos binarios. [29]

46 Capítulo 3 Materiales y Métodos 3.1. Alfa-Beta con soporte vectorial A continuación se presenta un ejemplo que ayuda a describir el modelo de las máquinas asociativas Alfa-Beta con soporte vectorial [29]. Dicho modelo consiste originalmente en el aprovechamiento de la información repetida entre los patrones y esta información da lugar al vector soporte. Figura 3.1: Conjunto fundamental. [29] Figura 3.2: Patrón con la información repetida. [29] Primeramente, en la Figura 3.1 se pueden observar los patrones del conjunto fundamental; posteriormente se obtiene el vector soporte, el cual consiste en encontrar la información que se repite en los patrones, como puede verse en la Figura

47 Capítulo 3. Materiales y Métodos 47 Figura 3.3: Conjunto fundamental con la información del vector soporte eliminada. [29] Figura 3.4: Conjunto fundamental negado. [29] A partir de los patrones originales y del vector soporte, la información contenida en el vector soporte es eliminada de los patrones originales, dando lugar a los patrones de la Figura 3.3. El siguiente paso es negar los patrones del conjunto fundamental para realizar el mismo proceso con la información ausente, ver Figura 3.4. Figura 3.5: Vector soporte del conjunto fundamental negado. [29] Figura 3.6: Conjunto fundamental negado sin la información del vector soporte. [29] De la misma forma que se trabajó con los patrones originales, con los negados se obtiene el patrón con la información repetida (Figura 3.5), y dicha información es eliminada del conjunto fundamental negado, ver Figura 3.6.

48 Capítulo 3. Materiales y Métodos 48 Figura 3.7: Recuperación de uno de los patrones del conjunto fundamental. [29] Hasta aquí fue la fase de aprendizaje. En la Figura 3.7, se pueden observar los pasos del proceso de recuperación: del patrón original, se obtiene el patrón negado, posteriormente al patrón original se le elimina la información del vector soporte del conjunto fundamental y al patrón original negado se le elimina la información del vector soporte extraído de la información repetida del conjunto fundamental negado. Si estos 2 patrones se parecen de igual forma a sus contrapartes del conjunto fundamental y conjunto fundamental negado con información eliminada, entonces se va a elegir al patrón del conjunto fundamental con información eliminada que más se parezca; en caso contrario se elige al patrón que más parecido tenga. El modelo de clasificación usado en esta tesis es la Memoria Asociativa Alfa-Beta SVM [29]. Los conceptos básicos concernientes a las memorias asociativas han sido reportados desde [18, 26, 27]; sin embargo, en esta tesis, lo referente a las Memorias Asociativas, se usa la notación y conceptos introducidos en [49]. Una Memoria Asociativa M relaciona patrones como: x M y con x como patrón de entrada y y como patrón de salida. Por cada x se forma una asociación con una correspondiente y. La asociación correspondiente está dada por ( x k, y k), donde k es un entero positivo. La Memoria Asociativa M está representada por una matriz cuya ij e sima componente es m ij. M es generada del conjunto fundamental, representada como: {(x µ, y µ ) µ = 1, 2,..., p} es la cardinalidad del conjunto. Si x µ = y µ, µ {1, 2,.., p}, M es autoasociativa, de otro modo es heteroasociativa. La versión distorsionada del patrón x k a ser recuperado, está denotado como x k. Cuando se presenta una versión distorsionada de x ω con ω = {1, 2,..., p} a una Memoria Asociativa M, y sucede que la salida correspondiente exactamente a su patrón de salida y ω, se dice que la recuperación es correcta. Las Memorias Asociativas Alfa-Beta operan en dos modos. El operador α es usado en la fase de aprendizaje y el operador β es útil para la fase de recuperación. α y β

49 Capítulo 3. Materiales y Métodos 49 son dos operadores binarios especialmente diseñados para Memorias Alfa-Beta. Sean los conjuntos A = {0, 1} y B = {00, 01, 10}, entonces α y β están definidos por los operadores 3.1 y 3.2 α : A A B x y α (x, y) β : B A A x y β (x, y) (3.1) (3.2) Los conjuntos A y B, los operadores α y β, (mínimo) y (máximo) forman el sistema algebraico A, B, α, β,, que es la base matemática para las Memorias Asociativas Alfa-Beta. Todos los conceptos básicos descritos anteriormente [49], son necesarios para describir el algoritmo principal de Alfa-Beta SVM [29, 30]. Se tiene un problema de reconocimiento de patrones, donde el conjunto fundamental se describe como {(x µ, y µ ) µ = 1, 2,..., p}, con x µ A n µ {1, 2,..., p}, y n, p Z + y A = {0, 1}. El algoritmo de Alfa-Beta SVM tiene dos fases: Fase de aprendizaje: 1. A partir del conjunto fundamental, se calcula el vector soporte S. 2. Para cada µ {1, 2,..., p}, obtener x µ S. A partir de los resultados se forma el conjunto fundamental restringido {(x µ S, x µ S ) µ = 1, 2,..., p}. 3. Para cada µ {1, 2,..., p}, obtener x µ, el vector negado de x µ. Con los p vectores negados, se forma el conjunto fundamental negado {(x µ, x µ ) µ = 1, 2,..., p}.

50 Capítulo 3. Materiales y Métodos A partir del conjunto fundamental negado, se calcula e vector soporte S. 5. Para cada µ 1, 2,..., p, se obtiene x µ S. A partir de estos resultados, se forma el conjunto fundamental negado restringido {( x µ S, x µ S ) µ = 1, 2,..., p } Siendo x A n cuyo patrón asociado x µ es previamente desconocido, es el siguiente: Fase de Recuperación: 1. Obtener la restricción x S. 2. Por cada µ {1, 2,..., p}, se obtiene τ ( x S, x µ S ). 3. Por cada µ {1, 2,..., p}, se obtiene τ (x µ S, x S ). 4. Por cada µ {1, 2,..., p}, se obtiene θ ( x S, x µ S ). 5. Encontrar ψ {1, 2,..., p} tal que θ ( x S, x ψ S ) = p µ=1 θ ( x S, x µ S ). 6. Obtener x, el vector negado de x. 7. Obtener la Restricción x. S ) 8. Por cada µ {1, 2,..., p}, calcular τ, x (x S µ S. ) 9. Por cada µ {1, 2,..., p}, calcular τ (x µ S, x S. ) 10. Por cada µ {1, 2,..., p}, calcular θ, x (x S µ S. ) 11. Encontrar ϕ {1, 2,..., p} tal que θ, x (x S ϕ S = p ) θ, x µ=1 (x S µ S. 12. Si θ ( ) ( x S, x ψ S θ x, x ϕ ), se realiza la asignación ω = ψ; de otro modo S S se realiza la asignación ω = ϕ. 13. Se obtiene (x ω S ) S. Para un análisis más detallado del proceso de este modelo, ver el Apéndice A Base de datos Al empezar a trabajar con reconocimiento de emociones, se tiene que trabajar con una base de datos, preferentemente orientada a la clasificación de estados emotivos. Hay varias bases de datos que fueron diseñadas para estos propósitos [43] y las emociones más comunes empleadas en estos corpus de voces y en orden de mayor a menor frecuencia se tiene: -Enojado.

51 Capítulo 3. Materiales y Métodos 51 -Tristeza. -Felicidad. -Miedo. -Disgustado. -Alegría. -Sorprendido. -Aburrido, etc. Aunque existen varias bases de datos orientadas al reconocimiento de emociones, en el presente proyecto se va a trabajar con la base de datos de Berlín [12] por su disponibilidad [2]. Esta base de datos cuenta con 7 emociones, 10 actores profesionales (5 hombres y 5 mujeres) que expresan 10 diferentes oraciones en idioma Alemán. Este corpus fue grabado mediante una frecuencia de muestreo de 16,000 Hz, con 16 bits de precisión en formato.wav. Las oraciones que se usaron para la elaboración de la base de datos utilizada, son las siguientes: 1) Der Lappen liegt auf dem Eisschrank (The tablecloth is laying on the fridge) (El mantel está colocado sobre la nevera). 2) Das will sie am Mittwoch abgeben (She will hand it in on Wednesday) (Ella se encargará el miércoles). 3) Heute abend könnte ich es ihm sagen (Tonight I could tell him) (Esta noche podría decirle). 4) Das schwarze Stück Papier befindet sich da oben neben dem Holzstück (The black sheet of paper is located up there besides the piece of timber) (La hoja de papel negro se encuentra allá arriba, además de la pieza de madera). 5) In sieben Stunden wird es soweit sein (In seven hours it will be) (Ocurrirá en siete horas). 6) Was sind denn das für Tüten, die da unter dem Tisch stehen? (What about the bags standing there under the table?) ( Qué pasa con las bolsas que están ahí debajo de la mesa?). 7) Sie haben es gerade hochgetragen und jetzt gehen sie wieder runter (They just carried it upstairs and now they are going down again) (Simplemente lo llevaron escaleras arriba y ahora lo devuelven abajo de nuevo).

52 Capítulo 3. Materiales y Métodos 52 8) An den Wochenenden bin ich jetzt immer nach Hause gefahren und habe Agnes besucht (Currently at the weekends I always went home and saw Agnes) (En la actualidad los fines de semana siempre fui a casa y veo a Agnes). 9) Ich will das eben wegbringen und dann mit Karl was trinken gehen (I will just discard this and then go for a drink with Karl) (Me limitaré a descartar este y luego ir a tomar una copa con Karl). 10) Die wird auf dem Platz sein, wo wir sie immer hinlegen (It will be in the place where we always store it) (Será en el lugar donde siempre lo guardamos). La base de datos consta de 535 instancias, de las cuales 127 corresponden al estado de enojado, 81 a aburrido, 46 para disgustado, 69 para miedo, 71 a feliz, 62 a triste y 79 para neutral. Fue grabada con una frecuencia de muestreo de 16kHtz en formato.wav Software Para la parte de extracción de parámetros que parten de la energía, amplitudes de los picos de la energía y los silencios, fueron calculados con Matlab; para la extracción de los formantes se usó el software de análisis fonético Praat [10], mientras que los demás parámetros fueron extraídos mediante el uso de los paquetes: Detección del pitch toolbox [4] y Auditory Toolbox versión 2 [1]. Praat [10] es un programa que permite hacer análisis espectral (espectogramas), del pitch, de las formantes, de la intensidad, jitter, shimmer. Matlab es un lenguaje de computación de alto nivel, para desarrollo de algoritmos que permite hacer el análisis y visualización gráfica de los datos. Para la clasificación se hace uso tanto de Matlab como del software para minería de datos WEKA [3]. WEKA soporta varias tareas de minería de datos, preprocesamiento de datos, clustering, clasificación, regresión, visualización y selección de rasgos. Las técnicas de WEKA se fundamentan en que los datos están disponibles en un archivo de texto plano (arff), en el que se encuentra un número finito de atributos (por lo general numéricos o nominales).

53 Capítulo 4 Modelo Propuesto 4.1. Parámetros En el apéndice B, se hace una descripción de la extracción de los parámetros. La extracción de todos estos parámetros se obtuvieron por parte del tesista realizando programas propios en JAVA y se comparo el resultado con lo que entrega el software PRAAT y herramientas de MATLAB. A continuación se listan los parámetros con las aportaciones a la clasificación de manera individual (feature ranking): 1. Moda de los valores de energía (EnergySTMode): Mínimo del vector de mínimos de la matriz de valores MFCC s (MFCCMin- Min): Moda del vector de mínimos de la matriz de valores MFCC s (MFCCMinMode): Mínimo del vector de modas de la matriz de valores MFCC s (MFCCMode- Min): Moda del vector de modas de la matriz de valores MFCC s (MFCCModeMode): Máximo del vector de desviaciones estándar de la matriz de valores MFCC s (MFCCMaxSt):

54 Capítulo 4. Modelo Propuesto Promedio del vector de sonoridad (SMean): Desviación estándar del vector de sonoridad (SSt): Mínimo de los picos positivos del vector de energía (PeakAmplitudesMin): Moda de los picos positivos del vector de energía (PeakAmplitudesMode): Máximo de los valores de vector Sonoridad (SMax): Promedio del vector de los promedios de la matriz de valores MFCC s (MFCC- MeanMean): Promedio del vector de máximos de la matriz de valores MFCC s (MFCCMax- Mean): Promedio del vector de mínimos de la matriz de valores MFCC s (MFCCMin- Mean): Desviación estándar del vector de desviaciones estándar de la matriz de valores MFCC s (MFCCStSt): Promedio del vector de modas de la matriz de valores MFCC s (MFCCMode- Mean): Mediana de los valores de la energía (EnergySTMedian): Moda del vector de desviaciones estándar de la matriz de valores MFCC s (MFCCStMode): Mediana del vector de sonoridad (SMedian): Mínimo del vector de desviaciones estándar de la matriz de valores MFCC s (MFCCStMin): Máximo del vector de promedios de la matriz de valores MFCC s (MFCCMean- Max):

55 Capítulo 4. Modelo Propuesto Mediana del vector de promedios de la matriz de valores MFCC s (MFCC- MeanMedian): Promedio del vector de medianas de la matriz de valores MFCC s (MFCCMedianMean): Promedio de los valores del vector de la frecuencia fundamental o pitch (Pitch- VectorMean): Mediana del vector de las medianas de la matriz de valores MFCC s (MFCC- MedianMedian: Promedio de los valores del vector de energía (EnergySTMean): Mediana del vector de desviaciones estandar de la matriz de valores MFCC s (MFCCStMedian): Mediana de los valores del vector del pitch (PitchVectorMedian): Mediana de las duraciones continuas del pitch (PitchDurationsMedian): Promedio de las duraciones continuas del pitch (PitchDurationsMean): Desviación estándar de la segunda formante (F2st): Máximo del vector de medianas de la matriz de valores MFCC s (MFCCMedianMax): Desviación estándar de las duraciones continuas de silencio (SilenceDurationsSt): Duración máxima de presencia de pitch continuo (PitchDurationsMax): Mediana del vector de mínimos de la matriz de valores MFCC s (MFCCMin- Median): Mediana de los picos positivos del vector de energía (PeakAmplitudesMedian):

56 Capítulo 4. Modelo Propuesto Máximo del vector de máximos de la matriz de valores MFCC s (MFCCMax- Max): Mínimo del vector de medianas de la matriz de valores MFCC s (MFCCMedianMin): Moda del vector de medianas de la matriz de valores MFCC s (MFCCMedian- Mode): Mediana del vector de modas de la matriz de valores MFCC s (MFCCMode- Median): Moda del vector de los valores de pitch (PitchVectorMode): Mínimo del vector de los valores del pitch (PitchVectorMin): Mediana de las duraciones de los silencios (SilenceDurationsMedian): Promedio de los picos positivos del vector de energía (PeakAmplitudesMean): Máximo del vector de desviaciones estándar de la matriz de valores MFCC s (MFCCStMax): Moda de las duraciones de silencio continuo (SilenceDurationsMode): Desviación estándar de la cuarta formante (F4st): Mínimo de las duraciones continuas del pitch (PitchDurationsMin): Moda de las duraciones continuas del pitch (PitchDurationsMode): Desviación estándar del vector de modas de la matriz de valores MFCC s (MFCCModeSt): Promedio del vector de la tercera formante (F3mean): Desviación estándar de las duraciones continuas del pitch (PitchDurationsSt):

57 Capítulo 4. Modelo Propuesto Valor máximo del vector de las duraciones continuas del silencio (SilenceDurationsMax): Desviación estándar del vector de mínimos de la matriz de valores MFCC s (MFCCMinSt): Mínimo del vector de duraciones continuas del silencio (SilenceDurationsMin): Desviación estándar de la tercera formante (F3st): Máximo de los valores del vector de energía (EnergySTMax): Máximo del vector de los valores del pitch (PitchVectorMax): Mínimo del vector de máximos de la matriz de valores MFCC s (MFCCMax- Min): Máximo del vector de máximos de la matriz de valores MFCC s (MFCCMax- Mode): Desviación estándar del vector de valores del pitch (PitchVectorSt): Desviación estándar de la primera formante (F1st): Mediana del vector de la cuarta formante (F4median): Promedio del vector de desviaciones estándar de la matriz de valores MFCC s (MFCCStMean): Promedio del vector de la cuarta formante (F4mean): Promedio de las duraciones de silencios continuos (SilenceDurationsMean): Máximo del vector de modas de la matriz de valores MFCC s (MFCCMode- Max): Máximo del vector de mínimos de la matriz de valores MFCC s (MFCCMin- Max):

58 Capítulo 4. Modelo Propuesto Moda del vector de valores de la tercera formante (F3mode): Mínimo del vector de valores de la tercera formante (F3min): Desviación estándar del vector de promedios de la matriz de valores MFCC s (MFCCMeanSt): Moda del vector de valores de la sonoridad (SMode): Desviación estándar del vector de medianas de la matriz de valores MFCC s (MFCCMedianSt): Mínimo de los valores del vector de sonoridad (SMin): Mediana del vector de máximos de la matriz de valores MFCC s (MFCCMax- Median): Mínimo del vector de promedios de la matriz de valores MFCC s (MFCCMean- Min): Moda del vector de promedios de la matriz de valores MFCC s (MFCCMean- Mode): Promedio del vector de valores de la primera formante (F1median): Máximo del vector de valores de la segunda formante (F2max): Promedio del vector de valores de la primera formante (F1mean): Máximo del vector de valores de la primera formante (F1max): Mediana del vector de valores de la segunda formante (F2median): Mediana del vector de valores de la tercera formante (F3median): Desviación Estándar del vector de energía (EnergySTSt): Mínimo de los valores del vector de la primera formante (F1min): Moda de los valores del vector de la primera formante (F1mode):

59 Capítulo 4. Modelo Propuesto Máximo de los valores del vector de la tercera formante (F3max): Máximo de los picos positivos del vector de energía (PeakAmplitudesMax): Máximo del vector de los valores de la cuarta formante (F4max): Mínimo del vector de valores de la cuarta formante (F4min): Moda del vector de valores de la cuarta formante (F4mode): Desviación estándar de los picos positivos del vector de energía (PeakAmplitudesSt): Promedio del vector de valores de la segunda formante (F2mean): Mínimo del vector de valores de la segunda formante (F2min): Moda del vector de valores de la segunda formante (F2mode): Posteriormente al proceso de jerarquizar los parámetros, se realizaron pruebas con diversas estrategias de selección de parámetros usando el software WEKA [3]; en esta parte es importante señalar que la selección de rasgos óptima no es viable en el sentido del costo computacional, una cantidad considerable de pruebas de selección de atributos fueron realizadas para mejorar el desempeño de clasificación. Usando el clasificador SimpleLogistic, se evaluaron los conjuntos de parámetros de prueba con un método wrapper (una validación cruzada con 5 divisiones). La estrategia elegida para la búsqueda del subconjunto de rasgos fue la de búsqueda hacia adelante, dicha búsqueda consiste en hacer un feature ranking en un inicio, se elige el rasgo que mayor aporte de a la clasificación, posteriormente se analizan todas las posibles combinaciones para elegir el segundo rasgo que combinado con el primero aporte más, después se hace lo mismo para el tercer rasgo que junto con los dos primeros de mejor desempeño, este proceso continúa hasta que la combinación del conjunto de rasgos con el siguiente rasgo a buscar empeore la clasificación, una vez sucedido esto, el proceso se detiene, y el conjunto de rasgos ofrecen una solución sub-óptima.

60 Capítulo 4. Modelo Propuesto 60 De esta forma, la siguiente lista es el conjunto de parámetros que hasta ahora más ha aportado al índice de clasificación: 1. Promedio de los valores del vector de energía (EnergySTMean) 2. Máximo valor de los picos positivos del vector de energía (PeakAmplitudesMax) 3. Mínimo valor de los picos positivos del vector de energía (PeakAmplitudesMin) 4. Promedio de los valores de los picos positivos del vector de energía (PeakAmplitudesMean) 5. Desviación estándar de los picos positivos del vector de energía (PeakAmplitudesSt) 6. Moda de las duraciones continuas del pitch (PitchDurationsMode) 7. Promedio del vector de sonoridad (SMean) 8. Máximo del vector de promedios de la matriz de valores MFCC s (MFCCMean- Max) 9. Mínimo del vector de mínimos de la matriz de valores MFCC s (MFCCMinMin) 10. Mínimo del vector de promedios de la matriz de valores MFCC s (MFCCMean- Min) 11. Mínimo del vector de desviaciones estándar de la matriz de valores MFCC s (MFCCStMin) 12. Promedio del vector de desviaciones estándar de la matriz de valores MFCC s (MFCCStMean) 13. Mediana del vector de promedios de la matriz de valores MFCC s (MFCC- MeanMedian) 14. Desviación estándar de la segunda formante (F2st)

61 Capítulo 4. Modelo Propuesto Modelo Como se está haciendo uso de las máquinas Alfa-Beta con soporte vectorial y éstas presentan un buen desempeño con el reconocimiento de imágenes binarias [29], esto da lugar a otro enfoque de experimentación, el cual constituye uno de los aportes principales de este trabajo de tesis: se trata de hacer reconocimiento de representaciones bidimensionales que representen la señal de voz. Figura 4.1: Señal de energía extraída usando Praat. [10] Las representaciones de la energía (ver Figura 4.1) tienen una dimensión de 178 pixeles de ancho, por 107 de alto. Se seleccionaron experimentalmente esos valores, con el fin de mantener un costo computacional que minimize el tiempo de ejecución sin que impacte esto el desempeño del algoritmo; es decir, que permita hacer un número considerable de pruebas para identificar el trato más satisfactorio de la señal en términos de la clasificación de las emociones. Figura 4.2: Señal de energía con relleno.

62 Capítulo 4. Modelo Propuesto 62 Figura 4.3: Señal de energía Las representaciones bidimensionales de la intensidad de voz, se realiza un alineamiento en tiempo, la escala en amplitud tiene un valor máximo equivalente a 100 decibeles [10]. Al experimentar directamente con estas imágenes (ver Figura 4.1) no dio resultados satisfactorios, por lo que la primera estrategia que se tomó fue rellenar abajo (Figura 4.2) o arriba (Figura 4.3) de la señal de energía. Figura 4.4: Señal de energía normalizada en el eje de la amplitud Posteriormente, se normalizó en el eje de la amplitud (ver Figura 4.4) para homogeneizar la base de datos, esto incrementó el desempeño de la clasificación de emociones. A continuación se explica de forma más detallada el proceso. En la Figura 4.5 se muestra el esquema de como es el proceso para obtener la representación bidimensional de la energía, se comienza con un preprocesamiento de la señal, se divide la señal de voz en 178 ventanas para posteriormente calcular la energía de cada una de ellas, se obtiene el contorno de la intensidad de la señal de voz con una cota máxima de 100 decibeles. La representación de la envolvente de energía es una matriz cuyos valores son unos donde se encuentra el valor de la energía y ceros en los demás elementos, de esta representación, los ceros que se encuentran por debajo de cada 1, cambian su valor a 1, quedando así una representación con valores 1 debajo de toda la envolvente

Sitemap