Análisis comparativo para seleccionar una herramienta de reconocimiento de emociones aplicando el modelo AHP
Palabras clave:
Expresión facial, reconocimiento facial, emociones, detección de rostro, reconocimiento de emocionesResumen
La importancia del comportamiento no verbal y lo que se transmite mediante el lenguaje corporal, juega un papel muy importante en nuestro entorno. Como una de las áreas éste trabajo se enfoca en el reconocimiento de emociones para niños de 2 a 4 años, debido a que es importante revisar el estado de emoción que representa un niño dependiendo del ambiente en el cual se encuentra sumergido. El objetivo de este artículo es evaluar la eficiencia de tres herramientas de reconocimiento de emociones, que son: Face++, Microsoft Azure Emotion API y Google Vision API al inferir atributos de niños. Para poder realizar esta investigación, se realizó un análisis comparativo de las herramientas utilizadas junto con la ayuda de una especialista en psicología infantil. Se tomaron como muestra un grupo de 20 niños, de la Fundación “Los chavitos” del MIES en Ecuador. Los resultados experimentales mostraron que Face++ presentó mayor precisión con relación a Microsoft Azure Emotion API y Google Vision API. Se espera que el conjunto de datos que se presenta en los resultados pueda ayudar a allanar el camino para futuras investigaciones sobre el uso de las herramientas de reconocimiento de emociones.Descargas
Citas
Al-Hajjar, D., & Syed, A. Z. (2015). Applying sentiment and emotion analysis on brand tweets for digital marketing. 2015. IEEE Jordan Conference on Applied Electrical Engineering and Computing Technologies, AEECT 2015. Amman, Jordan. Disponible en:. https://doi.org/10.1109/AEECT.2015.7360592.
Bakshi, U., & Singhal, R. (2014). A survey on face detection methods and feature extraction techniques of face recognition. International Journal of Emerging Trends & Technology in Computer Science (IJETTCS), 3(3), 233–237.
Bhattacharya, A. (2016). Emotion recognition from facial image analysis using composite similarity measure aided bidimensional empirical mode decomposition. IEEE First International Conference on Control, Measurement and Instrumentation, (CMI), (pág. 336–340). Kolkata, India.
Brodny, G., Kolakowska, A., Landowska, A., Szwoch, M., Szwoch, W., & Wróbel, M. R. (2016). Comparison of selected off-the-shelf solutions for emotion recognition based on facial expressions. 9th International Conference on Human System Interactions (HSI). (pág. 397–404) Portsmouth, UK.
Cebrian Chulia, L. (2016). Reconocimiento de Emociones mediante técnicas de aprendizaje profundo. (Tesis de grado). Escola Tècnica Superior d’Enginyeria Informàtica. Universitat Politècnica de València. Valencia, España.
Delgado, A., & Romero, I. (2015). Selección de un método para la evaluación del impacto social usando AHP. Revista ECIPerú, 12(1), 84-91.
Hatem, H., Beiji, Z., & Majeed, R. (2015). A survey of feature base methods for human face detection. International Journal of Control and Automation, 8(5), 61–78.
Herrera, M., & Osorio, J. (2006). Modelo para la gestión de proveedores utilizando AHP difuso. Estudios Gerenciales, (99),69-88.
Jung, S.G., An, J., Kwak, H., Salminen, J. & Jansen, B.J. (2017). Inferring social media users’ demographics from profile pictures: A Face++ analysis on Twitter users. Proceedings of The 17th International Conference on Electronic Business (pp. 140-145). ICEB, Dubai, UAE.
Jung, S., An, J., Kwak, H., Salminen, J., & Jansen, B. J. (2018). Assessing the accuracy of four popular face recognition tools for inferring gender, age, and race. Proceedings of the Twelfth International AAAI Conference on Web and Social Media (ICWSM), (pág 624–627). Palo Alto, Estados Unidos.
Kwak, H., & An, J. (2016). Revealing the hidden patterns of news photos: analysis of millions of news photos using GDELT and deep learning-based Vision APIs. Disponible en: https://arxiv.org/abs/1603.04531v2.
Ma Xiaoxi, Lin Weisi, Huang Dongyan, Dong Minghui, H. L. (2017). Facial Emotion Recognition. 2nd International Conference on Signal and Image Processing (ICSIP) Singapur, Singapur.
Matsumoto, D., Hwang, H. S., López, R. M., & Pérez Nieto, M. Á. (2013). Lectura de la expresión facial de las emociones: Investigación básica en la mejora del reconocimiento de emociones. Ansiedad y Estres, 19(2–3), 121–129.
Mulfari, D., Celesti, A., Fazio, M., Villari, M., & Puliafito, A. (2016). Using google cloud vision in assistive technology scenarios. Proceedings - IEEE Symposium on Computers and Communications. (pág. 214–219). Messina, Italia
Padhi, I., Palo, H. K., Mishra, S. K., & Mohanty, M. N. (2016). Statistical feature based child emotion analysis. International Conference on Electrical, Electronics, and Optimization Techniques, ICEEOT 2016, (pág 1687–1689). Chennai, India.
Qaisi, L. M., & Aljarah, I. (2016). A twitter sentiment analysis for cloud providers: A case study of Azure vs. AWS. Proceedings - CSIT 2016: 2016 7th International Conference on Computer Science and Information Technology. Amman, Jordania.
Saaty, T. L. (1980). The analytic hierarchy process: planning, priority setting, resource allocation. McGraw-Hill.
Archivos adicionales
Publicado
Cómo citar
Número
Sección
Licencia
Los autores/as que publiquen en esta revista aceptan las siguientes condiciones:
- Los contenidos de la revista se distribuyen bajo una licencia Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0). Esto significa que los usuarios pueden leer, descargar, copiar, distribuir, imprimir, buscar o vincular los textos completos de los artículos, o usarlos para cualquier otro propósito legal, sin solicitar permiso previo del editor o del autor.
- Los autores/as pueden realizar otros acuerdos contractuales independientes y adicionales para la distribución del artículo publicado en esta revista (p. ej., incluirlo en un repositorio institucional o publicarlo en un libro) siempre y cuando indiquen claramente que el trabajo se publicó por primera vez en UNIANDES EPISTEME. En caso de reproducción deberá constar una nota similar a la siguiente: Este texto se publicó originalmente en UNIANDES EPISTEME. Revista de la Universidad Regional Autónoma de los Andes N° --, sección -----, número de páginas, año de publicación.
- Se recomienda a los autores/as publicar su trabajo en Internet (por ejemplo en páginas institucionales o personales) en la versión final publicada por UNIANDES EPISTEME, ya que puede conducir a una mayor y más rápida difusión del trabajo publicado (vea The Effect of Open Access).