=Paper= {{Paper |id=Vol-2172/p4_ittainnova_tass2018 |storemode=property |title=Aplicación de un modelo híbrido de aprendizaje profundo para el Análisis de Sentimiento en Twitter(Application of a hybrid deep learning model for Sentiment Analysis in Twitter) |pdfUrl=https://ceur-ws.org/Vol-2172/p4_ittainnova_tass2018.pdf |volume=Vol-2172 |authors=Rosa Montañés,Rocío Aznar,Rafael del Hoyo |dblpUrl=https://dblp.org/rec/conf/sepln/MontanesAH18 }} ==Aplicación de un modelo híbrido de aprendizaje profundo para el Análisis de Sentimiento en Twitter(Application of a hybrid deep learning model for Sentiment Analysis in Twitter)== https://ceur-ws.org/Vol-2172/p4_ittainnova_tass2018.pdf
                   TASS 2018: Workshop on Semantic Analysis at SEPLN, septiembre 2018, págs. 51-56




   Aplicación de un modelo hı́brido de aprendizaje
 profundo para el Análisis de Sentimiento en Twitter
    Application of a hybrid deep learning model for Sentiment
                       Analysis in Twitter
                    Rosa Montañés, Rocı́o Aznar, Rafael del Hoyo
                        Grupo de Big Data y Sistemas Cognitivos
                      ITAINNOVA (Instituto Tecnológico de Aragón)
                         C/ Marı́a de Luna, no 7. 50018 Zaragoza
                        {rmontanes,raznar,rdelhoyo}@itainnova.es

       Resumen: En este artı́culo se describe la participación de ITAINNOVA en la tarea
       de análisis de sentimiento a nivel de Tweet dentro del taller TASS 2018. Este trabajo
       pretende explorar modelos presentes en el estado del arte actual del aprendizaje
       profundo aplicado al modelado y clasificación de texto. Se ha analizado el uso de
       modelos de redes convolucionales (CNN), Long short Term Memory (LSTM), LSTM
       bidireccionales (BI-LSTM) y una aproximación hı́brida entre CNN y LSTM para su
       uso en el análisis de sentimiento en Twitter. Se ha optado por la combinación CNN-
       LSTM ya que integra los beneficios de ambos modelos. Finalmente se presentan los
       resultados obtenidos y se plantea una posible lı́nea de trabajo futura que combine el
       uso de esta arquitectura con el algoritmo de representación de texto que presentamos
       en la anterior edición del TASS.
       Palabras clave: Análisis de sentimiento, Twitter, Aprendizaje profundo
       Abstract: This paper describes the participation of ITAINNOVA at sentiment
       analysis at Tweet level task within TASS 2018 workshop. This work explores current
       state of the art models used in deep learning for modelling and classification tasks
       over text. It analyzes convolutional neural models (CNN), Long short Term Memory
       (LSTM), Bidirectional LSTM (BI-LSTM) and an hybrid approach of CNN-LSTM,
       for its use in sentiment analysis on Twitter data. CNN-LSTM combination has been
       chosen as it integrates the benefits provided from both models. Finally, obtained re-
       sults are presented and a possible future work line which combines this architecture
       with the algorithm presented in the previous TASS edition.
       Keywords: Sentiment analysis, Twitter, Deep learning



1    Introducción                                              tivos de ITAINNOVA ha participado en la
                                                                tarea 1: “Análisis de sentimiento a nivel de
El taller de Análisis de Sentimiento celebrado                 Tweet”, cuyo objetivo principal es la clasifi-
en el marco del congreso internacional de la                    cación de la opinión expresada en estos textos
sociedad española para el procesamiento del                    cortos en español. La novedad principal de
lenguaje natural (SEPLN), es un importante                      esta edición viene dada por la expansión del
punto de encuentro para profesionales e in-                     corpus de tweets utilizado en ediciones pre-
vestigadores en el que compartir y discutir                     vias, el corpus InterTASS. Este año se han
nuevos avances en el campo del PLN en ge-                       incorporado publicaciones escritas por usua-
neral y del análisis de sentimiento en particu-                rios de Perú y Costa Rica, variaciones del es-
lar (Martı́nez-Cámara et al., 2018). En esta                   pañol que presentan ciertas diferencias léxi-
edición se proponen cuatro tareas distintas,                   cas y gramaticales que han de ser considera-
dando un salto cualitativo hacia el análisis                   das en el desarrollo de sistemas de procesado
semántico, en busca de modelos de compren-                     de lenguaje natural. Nuestro grupo se ha en-
sión de lenguaje más completos y realistas.                   focado en el desarrollo de un sistema de clasi-
    El grupo de Big Data y Sistemas Cogni-
ISSN 1613-0073                     Copyright © 2018 by the paper's authors. Copying permitted for private and academic purposes.
                                  Rosa Montañés, Rocío Aznar y Rafael del Hoyo



ficación multiclase basado exclusivamente en               ejemplo, las redes convolucionales (CNNs)
la variedad de español hablado en España,                 han demostrado su excepcional capacidad de
utilizando para ello el dataset InterTASS ES                aprendizaje en el área de visión por compu-
junto con un subconjunto del corpus gene-                   tador, donde es necesario extraer correlacio-
ral utilizado desde las primeras ediciones, que             nes locales en estructuras espacio-temporales
permitirá predecir la polaridad de los tweets              para el reconocimiento y clasificación de ob-
en base a cuatro niveles: P (Positiva), N (Ne-              jetos (Galteri et al., 2017). Del mismo mo-
gativa), NEU (Neutra), NONE (sin opinión).                 do, este tipo de redes, aplicadas al área de
Finalmente los resultados obtenidos nos per-                PLN, son capaces de extraer automática-
mitirán comprobar la capacidad de genera-                  mente los vectores de caracterı́sticas sobre
lización del modelo a las otras variantes de               n-gramas mediante filtrado convolucional y
español.                                                   pooling consiguiendo aprender relaciones de
    Nuestro grupo cuenta con experiencia de                 más alto nivel entre los componentes del tex-
participación en ediciones anteriores de ta-               to, tal como demuestra en sus experimentos
lleres de análisis de opinión (Montañés Salas           Kim (2014). Existen otro tipo de arquitec-
et al., 2017)(del Hoyo Alonso et al., 2015).                turas más enfocadas al modelado de series
En ellas verificamos y desarrollamos recursos               temporales, éstas son las conocidas LSTM
para el procesado del texto previo a su clasifi-            (Long Short-term Memory RNN), que incor-
cación, tales como la generación de un diccio-            poran un novedoso mecanismo de memoria
nario afectivo, y experimentamos con el algo-               para el modelado de dependencias a largo
ritmo FastText, capaz de aprender eficiente-                plazo lo que resuelve algunos de los proble-
mente representaciones de palabras partiendo                mas derivados del cálculo del gradiente en
de corpus de tamaño reducido. En el taller                 redes recurrentes más simples, convirtiéndose
de 2017 (Dı́az-Galiano et al., 2018) se pre-                en una de las mejores opciones para el desa-
sentaron una amplia variedad de soluciones                  rrollo de modelos de minerı́a de opinión (Liu,
basadas en redes neuronales profundas (deep                 Joty, y Meng, 2015). Como ampliación a es-
learning) demostrando el gran potencial de                  te tipo de redes, Zhou et al. (2016) introdu-
las mismas en tareas de análisis de lenguaje.              jo las LSTM bidireccionales (BiLSTM), que
Las conclusiones extraı́das en dicha edición               añaden la capacidad de preservar informa-
han motivado que en nuestra participación                  ción pasada y también futura. Estos mode-
en el taller de 2018 hayamos centrado nues-                 los basan su funcionamiento en el uso de los
tro desarrollo en el estudio e implementación              populares Word Embeddings (Mikolov et al.,
de un algoritmo basado en una combinación                  2013), siendo uno de los métodos de represen-
de este tipo de redes neuronales. Los resul-                tación de la información textual en vectores
tados obtenidos nos permiten comprobar la                   n-dimensionales más eficiente y ampliamente
capacidad de aprendizaje de este tipo de al-                utilizado en la actualidad.
goritmos en esta tarea de procesamiento del                     Adicionalmente, en el campo del procesa-
lenguaje natural.                                           do de texto, la necesidad de realizar un co-
    Este artı́culo se organiza como sigue. En la            rrecto tratamiento de este tipo de datos para
sección 2 se presenta el conjunto de trabajos              su posterior uso en algoritmos de Inteligen-
relacionados que han inspirado la aproxima-                 cia Artificial, ha sido estudiada extensamen-
ción propuesta. En la sección 3 se describe la            te, desde el punto de vista del análisis de sen-
implementación realizada y en la sección 4 se             timiento en general (Haddi, Liu, y Shi, 2013)
presentan los resultados experimentales obte-               como en el caso concreto de análisis de senti-
nidos. Finalmente, en la sección 5 se recogen              mientos sobre textos cortos informales como
las conclusiones de nuestro estudio práctico y             son los tweets (Sing y Kumari, 2016). En am-
se presentan posibles lı́neas de trabajo futuro             bos artı́culos se ofrecen conclusiones que de-
a abordar.                                                  muestran la importancia y el papel que juega
                                                            el preprocesamiento de textos en tareas como
2   Trabajos relacionados                                   el análisis de sentimientos, con el objetivo de
La investigación actual en el área de deep                eliminar ruido y reducir la dimensionalidad
learning ha dado lugar al desarrollo de diver-              del problema para mejorar la clasificación.
sos tipos de redes neuronales que presentan                     La solución propuesta en el taller de 2017
unas caracterı́sticas óptimas para el apren-               (Montañés Salas et al., 2017) tenı́a su funda-
dizaje de ciertos tipos de información. Por                mento en dos de las anteriores aproximacio-
                                                      52
              Aplicación de un Modelo Híbrido de Aprendizaje Profundo para el Análisis de Sentimiento en Twitter



nes, por un lado la aplicación de un algorit-                     en la tabla 1 ponen de manifiesto que la so-
mo basado en el uso de representaciones de                         lución hı́brida (CLSTM) es la mejor opción.
palabras (word embeddings enriquecidos con                            La implementación del sistema se ha lle-
información de n-gramas) y por otro lado la                       vado a cabo en Python, haciendo uso de la
aplicación de una fase previa de procesado de                     librerı́a Tensorflow con soporte para GPU.
texto que mejoró ligeramente los resultados
obtenidos, por lo que, siguiendo un plantea-                       3.1      Modelo C-LSTM
miento similar, se ha decidido continuar tra-                      A la vista de los resultados expuestos, el sis-
bajando con dichas aproximaciones e ir un                          tema elegido para la participación en el taller
paso más lejos con el uso de arquitecturas de                     de este año es una implementación del mode-
deep learning.                                                     lo C-LSTM descrito por Zhou et al. (2015).
                                                                   Éste se compone principalmente de 2 redes
3   Solución propuesta                                            neuronales: una red neuronal convolucional
Previamente a la elección del algoritmo fi-                       (CNN) y una red neuronal recurrente de me-
nal utilizado, se han realizado varias prue-                       moria a corto y largo plazo (LSTM). En la
bas de concepto con la intención de verificar                     Figura 1 se muestra un diagrama de la arqui-
la benevolencia de la hibridación de técnicas                    tectura CLSTM.
convolucionales y recurrentes en el procesado
de lenguaje natural. Para ello, por un lado,
se han estudiado varios algoritmos convolu-
cionales y recurrentes, en particular, una red
neural convolucional (CNN), una red neuro-
nal recurrente LSTM y una red recurrente
LSTM bidireccional (BILSTM) y, por otro la-
do, el algoritmo hı́brido que combina la red
convolucional con la red recurrente LSTM.
Los conjuntos de entrenamiento y desarrollo
usados son los utilizado en la tarea (Inter-
TASS ES). Las métricas de accuracy se mues-
tran en la tabla 1.                                                         Figura 1: Arquitectura CLSTM.

    Red        Training         Development                           Como paso previo al entrenamiento del
    CNN        0.695114           0.463303                         modelo de análisis de sentimiento, el siste-
    LSTM       0.654723           0.441964                         ma calcula de forma no supervisada la repre-
    CLSTM      0.715961           0.471964                         sentación vectorial del vocabulario presente
    BLSTM      0.682736           0.426339                         en el corpus, creando un conjunto de word
                                                                   embeddings con los que se generará la re-
                                                                   presentación matricial de las sentencias que
           Tabla 1: Pruebas previas                                alimentan el sistema. La red convolucional
                                                                   que recibe dicho input, aplica un filtrado con-
    Como se ha adelantado en la sección ante-                     volucional según los tamaños de filtros defi-
rior, las redes neuronales CNN y LSTM son                          nidos, generándose varios mapas de features
algoritmos que ofrecen resultados satisfacto-                      que son reorganizados secuencialmente obte-
rios en el estado del arte actual del análisis de                 niendo una representación del texto a un ni-
opinión. La solución propuesta permite com-                      vel conceptual más alto que los embeddings.
binar estos dos algoritmos, beneficiándose de                     La red LSTM, compuesta por un conjunto
las ventajas de ambos: la extracción de térmi-                   de celdas que se definirá en la configuración,
nos relevantes y correlaciones a nivel local de                    recibe estas features como entrada, y se en-
las redes convolucionales junto con la capaci-                     carga determinar qué información almacena
dad de aprendizaje sobre secuencias de datos                       en la memoria de cada celda o descarta en
temporales y la estabilidad de las LSTMs. El                       cada paso temporal de la secuencia, captu-
algoritmo propuesto se basa en la publicación                     rando de este modo dependencias a corto y
(Zhou et al., 2015) y se explica con más de-                      largo plazo en las sentencias. La salida del
talle en la siguiente sección.                                    modelo viene dada por la última capa oculta
    Los resultados obtenidos que se muestran                       de la red LSTM.
                                                             53
                                   Rosa Montañés, Rocío Aznar y Rafael del Hoyo



3.2    Preprocesado de texto                                 de referencia para la clasificación de polari-
Adicionalmente, y del mismo modo que en                      dad en 5 niveles. Tras analizar los resulta-
la edición TASS 2017, se ha realizado un pre-               dos de la evaluación observamos que el mo-
procesado de los textos, aplicando las siguien-              delo presenta ciertas deficiencias en la clasi-
tes técnicas:                                               ficación de publicaciones como NEU y NO-
                                                             NE, clases semánticamente y conceptualmen-
      Eliminación de patrones como URLs,                    te muy próximas y por tanto difı́ciles de cla-
      emails, menciones, etc., tı́picos en publi-            sificar. Aunque pensamos que su diferencia-
      caciones de redes sociales.                            ción podrı́a ser factible usando un modelo de
                                                             representación de palabras que disponga de
      Conversión a minúsculas.                             un vocabulario más extenso modelizando de
      Lematización en español.                             forma más precisa el lenguaje español.
                                                                 Asimismo, el experimento monoligüe rea-
      Eliminación de stopwords.                             lizado, nos indica que en este caso, el prepro-
                                                             cesado de los textos no mejora la predicción
      Sinónimos basados en diccionarios emo-
                                                             del sentimiento. Idea que ya apuntaba Zhou
      cionales.
                                                             et al. (2015) en su publicación mencionando
    Las etapas de lematización, eliminación de             la independencia del modelo de conocimiento
stopwords y aplicación de sinónimos basados                del lenguaje a través de recursos externos ni
en diccionarios emocionales, utilizan recursos               necesidad de un complejo procesado que re-
propios desarrollados para el español hablado               duzca excesivamente la dimensionalidad del
en España, por lo que se ha llevado a cabo                  sistema.
esta fase en el experimento monolingüe con                      En cuanto a los experimentos entre varian-
el objetivo de comprobar su efectividad en el                tes del español, aplicando el modelo de Es-
contexto de las redes neuronales profundas.                  paña a los textos de Perú (PE) y Costa Rica
                                                             (CR), se observa que el sistema es bastante
4     Resultados experimentales                              robusto a las diferencias léxicas y gramatica-
                                                             les que se pueden presentar en estos textos
En la Tabla 2 se muestran los resultados obte-               cortos.
nidos en las subtareas evaluadas por ITAIN-
NOVA.                                                        5     Conclusiones y trabajo futuro
   Los dos modelos (cl-base y cl-proc) se han
entrenado con el mismo conjunto de hiper-                    En este artı́culo se ha presentado la apro-
parámetros, elegidos a partir de las recomen-               ximación llevada a cabo por el equipo de
daciones expuestas en (Zhou et al., 2015) y                  ITAINNOVA en el TASS 2018. Dicha aproxi-
realizando una búsqueda empı́rica con pe-                   mación tenı́a como objetivo principal la apli-
queñas variaciones en los valores:                          cación de técnicas basadas en redes neurona-
                                                             les profundas para la clasificación de la pola-
      Tamaño del embedding: 256                             ridad en tweets. Los resultados obtenidos de
                                                             la aplicación de algoritmos de CNN y LSTM
      Mı́nima frecuencia de palabra: 0                       y un algoritmo hı́brido combina ambos algo-
      Número de filtros (CNN): 128                          ritmos mostraron obtener una mayor métri-
                                                             ca de accuracy en el algoritmo hı́brido, razón
      Tamaño de los filtros (CNN): 2,3,4                    por la que dicho algoritmo fue el elegido como
                                                             solución propuesta a la tarea.
      Número de capas: 2 (1 CNN + 1 LSTM)
                                                                 El conjunto de entrenamiento sobre el que
      Learning rate: 0.001                                   se ha trabajado es el INTERTASS ES unifi-
                                                             cado con un subconjunto de las publicaciones
      Tamaño del batch: 32                                  del corpus general. Los resultados obtenidos
      Número de épocas: 100                                en la tarea ’Monolingual ES’ muestran que el
                                                             preprocesado de textos considerado no me-
   Si bien nuestro sistema no ha quedado                     jora la predicción del sentimiento. Por otro
dentro del ranking de los 10 mejores respec-                 lado, se observa que el algoritmo entrenado
to al resto de sistemas presentados en esta                  solamente con el conjunto de datos en español
edición, los resultados obtenidos se aproxi-                de España produce resultados similares en el
man a lo resultados publicados en el paper                   conjunto de test de textos de Perú y Costa Ri-
                                                       54
              Aplicación de un Modelo Híbrido de Aprendizaje Profundo para el Análisis de Sentimiento en Twitter




                                                     Algoritmo         Macro-F1            Accuracy
                                                     cl-base            0.383                0.433
                    Monolingual ES
                                                     cl-proc            0.320                0.395
                    Cross-lingual PE                 cl-base            0.367                0.382
                    Cross-lingual CR                 cl-base            0.409                0.440


                                      Tabla 2: Resultados experimentales

ca. No obstante, la solución propuesta no ha                          nas 53–58, Alicante, Spain, September.
conseguido quedarse en el ranking de las 10                            CEUR-WS.
propuestas con mejores valores en las métri-
                                                                   Dı́az-Galiano, M. C., E. Martı́nez-Cáma-
cas, obteniendo incluso métricas inferiores a
                                                                       ra, M. Á. G. Cumbreras, M. G. Vega,
las obtenidas en la solución que propusimos
                                                                       y J. Villena-Román. 2018. The de-
en la tarea de 2017 (Montañés Salas et al.,
                                                                       mocratization of deep learning in tass
2017).
                                                                       2017. Procesamiento del Lenguaje Natu-
    En base a los resultados obtenidos en di-                          ral, 60(0):37–44.
cha tarea y en la tarea de 2017 en la que
participamos, vemos la necesidad de aumen-                         Galteri, L., L. Seidenari, M. Bertini, y
tar el corpus en este tipo de redes o la uti-                        A. Del Bimbo. 2017. Spatio-temporal
lización de modelos de word embedding más                          closed-loop object detection.     IEEE
extensos para introducir más información al                        Transactions on Image Processing, PP:1–
sistema. Consideramos explorar una posible                           1, 01.
lı́nea de trabajo futuro que podrı́a conducir
                                                                   Haddi, E., X. Liu, y Y. Shi. 2013. The role of
a la participación en esta tarea de análisis de
                                                                     text pre-processing in sentiment analysis.
sentimiento de próximas ediciones con un al-
                                                                     Procedia Computer Science, 17:26 – 32.
goritmo que integre las aspectos más valiosos
                                                                     First International Conference on Infor-
de las aproximaciones consideradas. En con-
                                                                     mation Technology and Quantitative Ma-
creto, se aplicarı́a el algoritmo de FastText
                                                                     nagement.
utilizado en la tarea de 2017 para la repre-
sentación vectorial de los tweets que además                     Kim, Y. 2014. Convolutional neural net-
ofrece una eficiencia computacional bastante                         works for sentence classification. En Pro-
elevada. Posteriormente se aplicarı́a el algo-                       ceedings of the 2014 Conference on Empi-
ritmo hı́brido de CNN y LSTM para la clasi-                          rical Methods in Natural Language Proces-
ficación, redes neuronales profundas con gran                       sing, EMNLP 2014, October 25-29, 2014,
potencial en tareas de procesamiento de len-                         Doha, Qatar, A meeting of SIGDAT, a
guaje natural y que, como se ha demostra-                            Special Interest Group of the ACL, pági-
do en nuestros resultados y en (Zhou et al.,                         nas 1746–1751, September.
2015) mejora a los algoritmos simples (no-
                                                                   Liu, P., S. R. Joty, y H. M. Meng. 2015.
hı́bridos) de redes CNN y LSTM. Se piensa
                                                                      Fine-grained opinion mining with recu-
que los resultados obtenidos en esta nueva
                                                                      rrent neural networks and word embed-
lı́nea podrı́an mejorar considerablemente los
                                                                      dings. En EMNLP, páginas 1433–1443.
conseguidos hasta ahora.
                                                                      The Association for Computational Lin-
                                                                      guistics.
Bibliografı́a
                                                                   Martı́nez-Cámara, E., Y. Almeida Cruz,
del Hoyo Alonso, R., V. Rodrigálvarez Cha-                          M. C. Dı́az-Galiano, S. Estévez Velar-
   marro, J. Vea-Murguı́a Merck, y R. M.                             de, M. A. Garcı́a-Cumbreras, M. Garcı́a-
   Montañés Salas. 2015. Ensemble algo-                            Vega, Y. Gutiérrez Vázquez, A. Monte-
   rithm with syntactical tree features to im-                       jo Ráez, A. Montoyo Guijarro, R. Muñoz
   prove the opinion analysis. En Procee-                            Guillena, A. Piad Morffis, y J. Villena-
   dings of TASS 2015: Workshop on Senti-                            Román.      2018.   Overview of TASS
   ment Analysis at SEPLN, volumen 1397                              2018: Opinions, health and emotions. En
   de CEUR Workshop Proceedings, pági-                              E. Martı́nez-Cámara Y. Almeida Cruz
                                                             55
                                Rosa Montañés, Rocío Aznar y Rafael del Hoyo



   M. C. Dı́az-Galiano S. Estévez Velar-
   de M. A. Garcı́a-Cumbreras M. Garcı́a-
   Vega Y. Gutiérrez Vázquez A. Monte-
   jo Ráez A. Montoyo Guijarro R. Muñoz
   Guillena A. Piad Morffis, y J. Villena-
   Román, editores, Proceedings of TASS
   2018: Workshop on Semantic Analysis
   at SEPLN (TASS 2018), volumen 2172
   de CEUR Workshop Proceedings, Sevilla,
   Spain, September. CEUR-WS.
Mikolov, T., K. Chen, G. Corrado, y J. Dean.
  2013. Efficient estimation of word re-
  presentations in vector space. CoRR,
  abs/1301.3781.
Montañés Salas, R. M., R. del Hoyo Alonso,
  J. Vea-Murguı́a Merck, R. Aznar Gimeno,
  y F. J. Lacueva-Pérez. 2017. Fasttext
  como alternativa a la utilización de deep
  learning en corpus pequeños. En Pro-
  ceedings of TASS 2017: Workshop on Se-
  mantic Analysis at SEPLN, volumen 1896
  de CEUR Workshop Proceedings, páginas
  65–69, Murcia, Spain, September. CEUR-
  WS.
Sing, T. y M. Kumari. 2016. Role of text pre-
   processing in twitter sentiment analysis.
   Procedia Computer Science, 89:549–554.
   Twelfth International Multi-Conference
   on Information Processing (IMCIP-2016).
Zhou, C., C. Sun, Z. Liu, y F. Lau. 2015. A c-
  lstm neural network for text classification.
  CoRR, abs/1511.08630.
Zhou, P., W. Shi, J. Tian, Z. Qi, B. Li,
  H. Hao, y B. Xu. 2016. Attention-based
  bidirectional long short-term memory net-
  works for relation classification. En Pro-
  ceedings of the 54th Annual Meeting of the
  Association for Computational Linguistics
  (Volume 2: Short Papers), páginas 207–
  212. Association for Computational Lin-
  guistics.




                                                    56