<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta>
      <journal-title-group>
        <journal-title>E cient estimation of word re-
presentations in vector space. CoRR,
abs/</journal-title>
      </journal-title-group>
      <issn pub-type="ppub">1613-0073</issn>
    </journal-meta>
    <article-meta>
      <title-group>
        <article-title>Aplicacion de un modelo h brido de aprendiza je profundo para el Analisis de Sentimiento en Twitter</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Rosa Montan~es</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Roc o Aznar</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>ITAINNOVA (Instituto Tecnologico de Aragon) C/ Mar a de Luna</institution>
          ,
          <addr-line>n</addr-line>
        </aff>
      </contrib-group>
      <pub-date>
        <year>1301</year>
      </pub-date>
      <volume>3781</volume>
      <fpage>51</fpage>
      <lpage>56</lpage>
      <abstract>
        <p>This paper describes the participation of ITAINNOVA at sentiment analysis at Tweet level task within TASS 2018 workshop. This work explores current state of the art models used in deep learning for modelling and classi cation tasks over text. It analyzes convolutional neural models (CNN), Long short Term Memory (LSTM), Bidirectional LSTM (BI-LSTM) and an hybrid approach of CNN-LSTM, for its use in sentiment analysis on Twitter data. CNN-LSTM combination has been chosen as it integrates the bene ts provided from both models. Finally, obtained results are presented and a possible future work line which combines this architecture with the algorithm presented in the previous TASS edition.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>
        El taller de Analisis de Sentimiento celebrado
en el marco del congreso internacional de la
sociedad espan~ola para el procesamiento del
lenguaje natural (SEPLN), es un importante
punto de encuentro para profesionales e
investigadores en el que compartir y discutir
nuevos avances en el campo del PLN en
general y del analisis de sentimiento en
particular
        <xref ref-type="bibr" rid="ref6">(Mart nez-Camara et al., 2018)</xref>
        . En esta
edicion se proponen cuatro tareas distintas,
dando un salto cualitativo hacia el analisis
semantico, en busca de modelos de
comprension de lenguaje mas completos y realistas.
tivos de ITAINNOVA ha participado en la
tarea 1: \Analisis de sentimiento a nivel de
Tweet", cuyo objetivo principal es la clasi
cacion de la opinion expresada en estos textos
cortos en espan~ol. La novedad principal de
esta edicion viene dada por la expansion del
corpus de tweets utilizado en ediciones
previas, el corpus InterTASS. Este an~o se han
incorporado publicaciones escritas por
usuarios de Peru y Costa Rica, variaciones del
espan~ol que presentan ciertas diferencias
lexicas y gramaticales que han de ser
consideradas en el desarrollo de sistemas de procesado
de lenguaje natural. Nuestro grupo se ha
enfocado en el desarrollo de un sistema de
clasi
      </p>
      <p>Copyright © 2018 by the paper's authors. Copying permitted for private and academic purposes.
cacion multiclase basado exclusivamente en
la variedad de espan~ol hablado en Espan~a,
utilizando para ello el dataset InterTASS ES
junto con un subconjunto del corpus
general utilizado desde las primeras ediciones, que
permitira predecir la polaridad de los tweets
en base a cuatro niveles: P (Positiva), N
(Negativa), NEU (Neutra), NONE (sin opinion).</p>
      <p>Finalmente los resultados obtenidos nos
permitiran comprobar la capacidad de
generalizacion del modelo a las otras variantes de
espan~ol.</p>
      <p>Nuestro grupo cuenta con experiencia de
participacion en ediciones anteriores de
talleres de analisis de opinion (Montan~es Salas
et al., 2017)(del Hoyo Alonso et al., 2015).</p>
      <p>
        En ellas veri camos y desarrollamos recursos
para el procesado del texto previo a su clasi
cacion, tales como la generacion de un
diccionario afectivo, y experimentamos con el
algoritmo FastText, capaz de aprender e
cientemente representaciones de palabras partiendo
de corpus de taman~o reducido. En el taller
de 2017
        <xref ref-type="bibr" rid="ref1">(D az-Galiano et al., 2018)</xref>
        se
presentaron una amplia variedad de soluciones
basadas en redes neuronales profundas (deep
learning) demostrando el gran potencial de
las mismas en tareas de analisis de lenguaje.
      </p>
      <p>Las conclusiones extra das en dicha edicion
han motivado que en nuestra participacion
en el taller de 2018 hayamos centrado
nuestro desarrollo en el estudio e implementacion
de un algoritmo basado en una combinacion
de este tipo de redes neuronales. Los
resultados obtenidos nos permiten comprobar la
capacidad de aprendizaje de este tipo de
algoritmos en esta tarea de procesamiento del
lenguaje natural.</p>
      <p>Este art culo se organiza como sigue. En la
seccion 2 se presenta el conjunto de trabajos
relacionados que han inspirado la
aproximacion propuesta. En la seccion 3 se describe la
implementacion realizada y en la seccion 4 se
presentan los resultados experimentales
obtenidos. Finalmente, en la seccion 5 se recogen
las conclusiones de nuestro estudio practico y
se presentan posibles l neas de trabajo futuro
a abordar.
2</p>
    </sec>
    <sec id="sec-2">
      <title>Trabajos relacionados</title>
      <p>
        La investigacion actual en el area de deep
learning ha dado lugar al desarrollo de
diversos tipos de redes neuronales que presentan
unas caracter sticas optimas para el
aprendizaje de ciertos tipos de informacion. Por
ejemplo, las redes convolucionales (CNNs)
han demostrado su excepcional capacidad de
aprendizaje en el area de vision por
computador, donde es necesario extraer
correlaciones locales en estructuras espacio-temporales
para el reconocimiento y clasi cacion de
objetos
        <xref ref-type="bibr" rid="ref2">(Galteri et al., 2017)</xref>
        . Del mismo
modo, este tipo de redes, aplicadas al area de
PLN, son capaces de extraer
automaticamente los vectores de caracter sticas sobre
n-gramas mediante ltrado convolucional y
pooling consiguiendo aprender relaciones de
mas alto nivel entre los componentes del
texto, tal como demuestra en sus experimentos
        <xref ref-type="bibr" rid="ref4">Kim (2014)</xref>
        . Existen otro tipo de
arquitecturas mas enfocadas al modelado de series
temporales, estas son las conocidas LSTM
(Long Short-term Memory RNN), que
incorporan un novedoso mecanismo de memoria
para el modelado de dependencias a largo
plazo lo que resuelve algunos de los
problemas derivados del calculo del gradiente en
redes recurrentes mas simples, convirtiendose
en una de las mejores opciones para el
desarrollo de modelos de miner a de opinion
        <xref ref-type="bibr" rid="ref5">(Liu,
Joty, y Meng, 2015)</xref>
        . Como ampliacion a
este tipo de redes,
        <xref ref-type="bibr" rid="ref9">Zhou et al. (2016)</xref>
        introdujo las LSTM bidireccionales (BiLSTM), que
an~aden la capacidad de preservar
informacion pasada y tambien futura. Estos
modelos basan su funcionamiento en el uso de los
populares Word Embeddings (Mikolov et al.,
2013), siendo uno de los metodos de
representacion de la informacion textual en vectores
n-dimensionales mas e ciente y ampliamente
utilizado en la actualidad.
      </p>
      <p>
        Adicionalmente, en el campo del
procesado de texto, la necesidad de realizar un
correcto tratamiento de este tipo de datos para
su posterior uso en algoritmos de
Inteligencia Arti cial, ha sido estudiada
extensamente, desde el punto de vista del analisis de
sentimiento en general
        <xref ref-type="bibr" rid="ref3">(Haddi, Liu, y Shi, 2013)</xref>
        como en el caso concreto de analisis de
sentimientos sobre textos cortos informales como
son los tweets
        <xref ref-type="bibr" rid="ref7">(Sing y Kumari, 2016)</xref>
        . En
ambos art culos se ofrecen conclusiones que
demuestran la importancia y el papel que juega
el preprocesamiento de textos en tareas como
el analisis de sentimientos, con el objetivo de
eliminar ruido y reducir la dimensionalidad
del problema para mejorar la clasi cacion.
      </p>
      <p>La solucion propuesta en el taller de 2017
(Montan~es Salas et al., 2017) ten a su
fundamento en dos de las anteriores
aproximaciones, por un lado la aplicacion de un
algoritmo basado en el uso de representaciones de
palabras (word embeddings enriquecidos con
informacion de n-gramas) y por otro lado la
aplicacion de una fase previa de procesado de
texto que mejoro ligeramente los resultados
obtenidos, por lo que, siguiendo un
planteamiento similar, se ha decidido continuar
trabajando con dichas aproximaciones e ir un
paso mas lejos con el uso de arquitecturas de
deep learning.
3</p>
    </sec>
    <sec id="sec-3">
      <title>Solucion propuesta</title>
      <p>Previamente a la eleccion del algoritmo
nal utilizado, se han realizado varias
pruebas de concepto con la intencion de veri car
la benevolencia de la hibridacion de tecnicas
convolucionales y recurrentes en el procesado
de lenguaje natural. Para ello, por un lado,
se han estudiado varios algoritmos
convolucionales y recurrentes, en particular, una red
neural convolucional (CNN), una red
neuronal recurrente LSTM y una red recurrente
LSTM bidireccional (BILSTM) y, por otro
lado, el algoritmo h brido que combina la red
convolucional con la red recurrente LSTM.
Los conjuntos de entrenamiento y desarrollo
usados son los utilizado en la tarea
(InterTASS ES). Las metricas de accuracy se
muestran en la tabla 1.</p>
      <p>Red
CNN
LSTM
CLSTM
BLSTM</p>
      <sec id="sec-3-1">
        <title>Training</title>
        <p>0.695114
0.654723
0.715961
0.682736</p>
      </sec>
      <sec id="sec-3-2">
        <title>Development</title>
        <p>0.463303
0.441964
0.471964
0.426339</p>
        <sec id="sec-3-2-1">
          <title>Tabla 1: Pruebas previas</title>
          <p>
            Como se ha adelantado en la seccion
anterior, las redes neuronales CNN y LSTM son
algoritmos que ofrecen resultados
satisfactorios en el estado del arte actual del analisis de
opinion. La solucion propuesta permite
combinar estos dos algoritmos, bene ciandose de
las ventajas de ambos: la extraccion de
terminos relevantes y correlaciones a nivel local de
las redes convolucionales junto con la
capacidad de aprendizaje sobre secuencias de datos
temporales y la estabilidad de las LSTMs. El
algoritmo propuesto se basa en la publicacion
            <xref ref-type="bibr" rid="ref8">(Zhou et al., 2015)</xref>
            y se explica con mas
detalle en la siguiente seccion.
          </p>
          <p>Los resultados obtenidos que se muestran
en la tabla 1 ponen de mani esto que la
solucion h brida (CLSTM) es la mejor opcion.</p>
          <p>La implementacion del sistema se ha
llevado a cabo en Python, haciendo uso de la
librer a Tensor ow con soporte para GPU.
3.1</p>
          <p>
            Modelo C-LSTM
A la vista de los resultados expuestos, el
sistema elegido para la participacion en el taller
de este an~o es una implementacion del
modelo C-LSTM descrito por
            <xref ref-type="bibr" rid="ref8">Zhou et al. (2015)</xref>
            .
Este se compone principalmente de 2 redes
neuronales: una red neuronal convolucional
(CNN) y una red neuronal recurrente de
memoria a corto y largo plazo (LSTM). En la
Figura 1 se muestra un diagrama de la
arquitectura CLSTM.
          </p>
        </sec>
        <sec id="sec-3-2-2">
          <title>Figura 1: Arquitectura CLSTM.</title>
          <p>Como paso previo al entrenamiento del
modelo de analisis de sentimiento, el
sistema calcula de forma no supervisada la
representacion vectorial del vocabulario presente
en el corpus, creando un conjunto de word
embeddings con los que se generara la
representacion matricial de las sentencias que
alimentan el sistema. La red convolucional
que recibe dicho input, aplica un ltrado
convolucional segun los taman~os de ltros de
nidos, generandose varios mapas de features
que son reorganizados secuencialmente
obteniendo una representacion del texto a un
nivel conceptual mas alto que los embeddings.
La red LSTM, compuesta por un conjunto
de celdas que se de nira en la con guracion,
recibe estas features como entrada, y se
encarga determinar que informacion almacena
en la memoria de cada celda o descarta en
cada paso temporal de la secuencia,
capturando de este modo dependencias a corto y
largo plazo en las sentencias. La salida del
modelo viene dada por la ultima capa oculta
de la red LSTM.
3.2</p>
          <p>Preprocesado de texto
Adicionalmente, y del mismo modo que en
la edicion TASS 2017, se ha realizado un
preprocesado de los textos, aplicando las
siguientes tecnicas:</p>
          <p>Eliminacion de patrones como URLs,
emails, menciones, etc., t picos en
publicaciones de redes sociales.</p>
        </sec>
        <sec id="sec-3-2-3">
          <title>Conversion a minusculas.</title>
        </sec>
        <sec id="sec-3-2-4">
          <title>Lematizacion en espan~ol.</title>
        </sec>
        <sec id="sec-3-2-5">
          <title>Eliminacion de stopwords.</title>
          <p>Sinonimos basados en diccionarios
emocionales.</p>
          <p>Las etapas de lematizacion, eliminacion de
stopwords y aplicacion de sinonimos basados
en diccionarios emocionales, utilizan recursos
propios desarrollados para el espan~ol hablado
en Espan~a, por lo que se ha llevado a cabo
esta fase en el experimento monolingue con
el objetivo de comprobar su efectividad en el
contexto de las redes neuronales profundas.
4</p>
        </sec>
      </sec>
    </sec>
    <sec id="sec-4">
      <title>Resultados experimentales</title>
      <p>En la Tabla 2 se muestran los resultados
obtenidos en las subtareas evaluadas por
ITAINNOVA.</p>
      <p>
        Los dos modelos (cl-base y cl-proc) se han
entrenado con el mismo conjunto de
hiperparametros, elegidos a partir de las
recomendaciones expuestas en
        <xref ref-type="bibr" rid="ref8">(Zhou et al., 2015)</xref>
        y
realizando una busqueda emp rica con
pequen~as variaciones en los valores:
      </p>
      <sec id="sec-4-1">
        <title>Taman~o del embedding: 256</title>
      </sec>
      <sec id="sec-4-2">
        <title>M nima frecuencia de palabra: 0</title>
      </sec>
      <sec id="sec-4-3">
        <title>Numero de ltros (CNN): 128</title>
      </sec>
      <sec id="sec-4-4">
        <title>Taman~o de los ltros (CNN): 2,3,4</title>
        <p>Numero de capas: 2 (1 CNN + 1 LSTM)</p>
      </sec>
      <sec id="sec-4-5">
        <title>Learning rate: 0.001</title>
      </sec>
      <sec id="sec-4-6">
        <title>Taman~o del batch: 32</title>
      </sec>
      <sec id="sec-4-7">
        <title>Numero de epocas: 100</title>
        <p>Si bien nuestro sistema no ha quedado
dentro del ranking de los 10 mejores
respecto al resto de sistemas presentados en esta
edicion, los resultados obtenidos se
aproximan a lo resultados publicados en el paper
de referencia para la clasi cacion de
polaridad en 5 niveles. Tras analizar los
resultados de la evaluacion observamos que el
modelo presenta ciertas de ciencias en la
clasicacion de publicaciones como NEU y
NONE, clases semanticamente y
conceptualmente muy proximas y por tanto dif ciles de
clasi car. Aunque pensamos que su
diferenciacion podr a ser factible usando un modelo de
representacion de palabras que disponga de
un vocabulario mas extenso modelizando de
forma mas precisa el lenguaje espan~ol.</p>
        <p>
          Asimismo, el experimento monoligue
realizado, nos indica que en este caso, el
preprocesado de los textos no mejora la prediccion
del sentimiento. Idea que ya apuntaba
          <xref ref-type="bibr" rid="ref8">Zhou
et al. (2015)</xref>
          en su publicacion mencionando
la independencia del modelo de conocimiento
del lenguaje a traves de recursos externos ni
necesidad de un complejo procesado que
reduzca excesivamente la dimensionalidad del
sistema.
        </p>
        <p>En cuanto a los experimentos entre
variantes del espan~ol, aplicando el modelo de
Espan~a a los textos de Peru (PE) y Costa Rica
(CR), se observa que el sistema es bastante
robusto a las diferencias lexicas y
gramaticales que se pueden presentar en estos textos
cortos.
5</p>
      </sec>
    </sec>
    <sec id="sec-5">
      <title>Conclusiones y trabajo futuro</title>
      <p>En este art culo se ha presentado la
aproximacion llevada a cabo por el equipo de
ITAINNOVA en el TASS 2018. Dicha
aproximacion ten a como objetivo principal la
aplicacion de tecnicas basadas en redes
neuronales profundas para la clasi cacion de la
polaridad en tweets. Los resultados obtenidos de
la aplicacion de algoritmos de CNN y LSTM
y un algoritmo h brido combina ambos
algoritmos mostraron obtener una mayor
metrica de accuracy en el algoritmo h brido, razon
por la que dicho algoritmo fue el elegido como
solucion propuesta a la tarea.</p>
      <p>El conjunto de entrenamiento sobre el que
se ha trabajado es el INTERTASS ES uni
cado con un subconjunto de las publicaciones
del corpus general. Los resultados obtenidos
en la tarea 'Monolingual ES' muestran que el
preprocesado de textos considerado no
mejora la prediccion del sentimiento. Por otro
lado, se observa que el algoritmo entrenado
solamente con el conjunto de datos en espan~ol
de Espan~a produce resultados similares en el
conjunto de test de textos de Peru y Costa
RiAlgoritmo</p>
      <sec id="sec-5-1">
        <title>Macro-F1</title>
      </sec>
      <sec id="sec-5-2">
        <title>Accuracy</title>
      </sec>
      <sec id="sec-5-3">
        <title>Monolingual ES</title>
      </sec>
      <sec id="sec-5-4">
        <title>Cross-lingual PE Cross-lingual CR</title>
        <p>cl-base
cl-proc
cl-base
cl-base
ca. No obstante, la solucion propuesta no ha
conseguido quedarse en el ranking de las 10
propuestas con mejores valores en las
metricas, obteniendo incluso metricas inferiores a
las obtenidas en la solucion que propusimos
en la tarea de 2017 (Montan~es Salas et al.,
2017).</p>
        <p>
          En base a los resultados obtenidos en
dicha tarea y en la tarea de 2017 en la que
participamos, vemos la necesidad de
aumentar el corpus en este tipo de redes o la
utilizacion de modelos de word embedding mas
extensos para introducir mas informacion al
sistema. Consideramos explorar una posible
l nea de trabajo futuro que podr a conducir
a la participacion en esta tarea de analisis de
sentimiento de proximas ediciones con un
algoritmo que integre las aspectos mas valiosos
de las aproximaciones consideradas. En
concreto, se aplicar a el algoritmo de FastText
utilizado en la tarea de 2017 para la
representacion vectorial de los tweets que ademas
ofrece una e ciencia computacional bastante
elevada. Posteriormente se aplicar a el
algoritmo h brido de CNN y LSTM para la
clasicacion, redes neuronales profundas con gran
potencial en tareas de procesamiento de
lenguaje natural y que, como se ha
demostrado en nuestros resultados y en
          <xref ref-type="bibr" rid="ref8">(Zhou et al.,
2015)</xref>
          mejora a los algoritmos simples
(noh bridos) de redes CNN y LSTM. Se piensa
que los resultados obtenidos en esta nueva
l nea podr an mejorar considerablemente los
conseguidos hasta ahora.
        </p>
      </sec>
    </sec>
    <sec id="sec-6">
      <title>Bibliograf a</title>
      <p>del Hoyo Alonso, R., V. Rodrigalvarez
Chamarro, J. Vea-Murgu a Merck, y R. M.
Montan~es Salas. 2015. Ensemble
algorithm with syntactical tree features to
improve the opinion analysis. En
Proceedings of TASS 2015: Workshop on
Sentiment Analysis at SEPLN, volumen 1397
de CEUR Workshop Proceedings,
paginas 53{58, Alicante, Spain, September.</p>
      <p>CEUR-WS.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <article-title>D az-</article-title>
          <string-name>
            <surname>Galiano</surname>
            ,
            <given-names>M. C.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>E.</surname>
          </string-name>
          <article-title>Mart nez-</article-title>
          <string-name>
            <surname>Camara</surname>
            ,
            <given-names>M. A. G.</given-names>
          </string-name>
          <string-name>
            <surname>Cumbreras</surname>
          </string-name>
          , M. G. Vega, y J.
          <string-name>
            <surname>Villena-Roman</surname>
          </string-name>
          .
          <year>2018</year>
          .
          <article-title>The democratization of deep learning in tass 2017</article-title>
          .
          <source>Procesamiento del Lenguaje Natural</source>
          ,
          <volume>60</volume>
          (
          <issue>0</issue>
          ):
          <volume>37</volume>
          {
          <fpage>44</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>Galteri</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>L.</given-names>
            <surname>Seidenari</surname>
          </string-name>
          , M. Bertini, y
          <string-name>
            <given-names>A. Del</given-names>
            <surname>Bimbo</surname>
          </string-name>
          .
          <year>2017</year>
          .
          <article-title>Spatio-temporal closed-loop object detection</article-title>
          .
          <source>IEEE Transactions on Image Processing</source>
          , PP:
          <volume>1</volume>
          {
          <issue>1</issue>
          ,
          <fpage>01</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <surname>Haddi</surname>
            ,
            <given-names>E.</given-names>
          </string-name>
          , X. Liu, y
          <string-name>
            <given-names>Y.</given-names>
            <surname>Shi</surname>
          </string-name>
          .
          <year>2013</year>
          .
          <article-title>The role of text pre-processing in sentiment analysis</article-title>
          .
          <source>Procedia Computer Science</source>
          ,
          <volume>17</volume>
          :
          <fpage>26</fpage>
          {
          <fpage>32</fpage>
          . First International Conference on Information Technology and
          <string-name>
            <given-names>Quantitative</given-names>
            <surname>Management</surname>
          </string-name>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <surname>Kim</surname>
            ,
            <given-names>Y.</given-names>
          </string-name>
          <year>2014</year>
          .
          <article-title>Convolutional neural networks for sentence classi cation</article-title>
          .
          <source>En Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, EMNLP 2014, October 25-29</source>
          ,
          <year>2014</year>
          , Doha,
          <string-name>
            <surname>Qatar,</surname>
          </string-name>
          <article-title>A meeting of SIGDAT, a Special Interest Group of the ACL</article-title>
          , paginas
          <volume>1746</volume>
          {
          <fpage>1751</fpage>
          ,
          <string-name>
            <surname>September</surname>
          </string-name>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <surname>Liu</surname>
            , P.,
            <given-names>S. R.</given-names>
          </string-name>
          <string-name>
            <surname>Joty</surname>
          </string-name>
          ,
          <string-name>
            <surname>y H. M. Meng</surname>
          </string-name>
          .
          <year>2015</year>
          .
          <article-title>Fine-grained opinion mining with recurrent neural networks and word embeddings</article-title>
          .
          <source>En EMNLP</source>
          , paginas
          <volume>1433</volume>
          {
          <fpage>1443</fpage>
          .
          <article-title>The Association for Computational Linguistics</article-title>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>Mart</surname>
            nez-Camara, E.,
            <given-names>Y.</given-names>
          </string-name>
          <string-name>
            <surname>Almeida Cruz</surname>
          </string-name>
          , M. C.
          <article-title>D az-</article-title>
          <string-name>
            <surname>Galiano</surname>
            ,
            <given-names>S. Estevez</given-names>
          </string-name>
          <string-name>
            <surname>Velarde</surname>
            ,
            <given-names>M. A.</given-names>
          </string-name>
          <string-name>
            <surname>Garc</surname>
            a-Cumbreras, M. Garc aVega,
            <given-names>Y.</given-names>
          </string-name>
          <string-name>
            <surname>Gutierrez Vazquez</surname>
            ,
            <given-names>A. Montejo</given-names>
          </string-name>
          <string-name>
            <surname>Raez</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          <string-name>
            <surname>Montoyo</surname>
            <given-names>Guijarro</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>R.</given-names>
            <surname>Mun</surname>
          </string-name>
          <article-title>~oz Guillena, A. Piad Mor s</article-title>
          , y J.
          <source>VillenaRoman</source>
          .
          <year>2018</year>
          .
          <article-title>Overview of TASS 2018: Opinions, health and emotions</article-title>
          . En E.
          <string-name>
            <surname>Mart</surname>
            nez-Camara Y. Almeida Cruz Montan~es Salas,
            <given-names>R. M.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>R. del Hoyo</given-names>
            <surname>Alonso</surname>
          </string-name>
          ,
          <string-name>
            <given-names>J.</given-names>
            <surname>Vea-Murgu a</surname>
          </string-name>
          <string-name>
            <surname>Merck</surname>
          </string-name>
          , R. Aznar Gimeno, y
          <string-name>
            <given-names>F. J.</given-names>
            <surname>Lacueva-Perez</surname>
          </string-name>
          .
          <year>2017</year>
          .
          <article-title>Fasttext como alternativa a la utilizacion de deep learning en corpus pequen~os</article-title>
          .
          <source>En Proceedings of TASS 2017: Workshop on Semantic Analysis at SEPLN</source>
          , volumen
          <year>1896</year>
          de CEUR Workshop Proceedings, paginas
          <volume>65</volume>
          {
          <fpage>69</fpage>
          ,
          <string-name>
            <surname>Murcia</surname>
          </string-name>
          , Spain, September. CEURWS.
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>Sing</surname>
            , T. y
            <given-names>M.</given-names>
          </string-name>
          <string-name>
            <surname>Kumari</surname>
          </string-name>
          .
          <year>2016</year>
          .
          <article-title>Role of text preprocessing in twitter sentiment analysis</article-title>
          .
          <source>Procedia Computer Science</source>
          ,
          <volume>89</volume>
          :
          <fpage>549</fpage>
          {
          <fpage>554</fpage>
          .
          <string-name>
            <surname>Twelfth International</surname>
          </string-name>
          Multi-Conference
          <source>on Information Processing (IMCIP-2016).</source>
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>Zhou</surname>
            ,
            <given-names>C.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>C.</given-names>
            <surname>Sun</surname>
          </string-name>
          ,
          <string-name>
            <surname>Z</surname>
          </string-name>
          . Liu, y
          <string-name>
            <given-names>F.</given-names>
            <surname>Lau</surname>
          </string-name>
          .
          <year>2015</year>
          .
          <article-title>A clstm neural network for text classi cation</article-title>
          .
          <source>CoRR, abs/1511</source>
          .08630.
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>Zhou</surname>
            ,
            <given-names>P.</given-names>
          </string-name>
          , W. Shi,
          <string-name>
            <given-names>J.</given-names>
            <surname>Tian</surname>
          </string-name>
          ,
          <string-name>
            <given-names>Z.</given-names>
            <surname>Qi</surname>
          </string-name>
          ,
          <string-name>
            <given-names>B.</given-names>
            <surname>Li</surname>
          </string-name>
          ,
          <string-name>
            <given-names>H.</given-names>
            <surname>Hao</surname>
          </string-name>
          , y
          <string-name>
            <given-names>B.</given-names>
            <surname>Xu</surname>
          </string-name>
          .
          <year>2016</year>
          .
          <article-title>Attention-based bidirectional long short-term memory networks for relation classi cation</article-title>
          .
          <source>En Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume</source>
          <volume>2</volume>
          : Short Papers), paginas
          <volume>207</volume>
          {
          <fpage>212</fpage>
          .
          <article-title>Association for Computational Linguistics</article-title>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>