<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta>
      <journal-title-group>
        <journal-title>Long
Short-Term Memory. Neural Compu-
tation</journal-title>
      </journal-title-group>
      <issn pub-type="ppub">1613-0073</issn>
    </journal-meta>
    <article-meta>
      <title-group>
        <article-title>ELiRF-UPV en TASS 2017: Analisis de Sentimientos en Twitter basado en Aprendiza je Profundo</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Llu s-F. Hurtado</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Ferran Pla</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Jose-Angel Gonzalez</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Universitat Politecnica de Valencia Cam de Vera</institution>
          <addr-line>s/n 46022 Valencia</addr-line>
        </aff>
      </contrib-group>
      <pub-date>
        <year>2017</year>
      </pub-date>
      <volume>9</volume>
      <issue>8</issue>
      <fpage>29</fpage>
      <lpage>34</lpage>
      <abstract>
        <p>This paper describes the participation of the ELiRF research group of the Universitat Politecnica de Valencia at TASS2017 Workshop. This workshop is a satellite event of the XXXIII edition of the International Conference of the Spanish Society for Natural Language Processing. This work describes the approaches used for all the tasks of the workshop, the results obtained and a discussion of these results. Our participation has focused primarily on exploring di erent approaches of deep learning and we have achieved competitive results in the addressed tasks.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>El Taller de Analisis de Sentimientos (TASS)
ha venido planteando una serie de tareas
relacionadas con el analisis de sentimientos en
Twitter con el n de comparar y evaluar las
diferentes aproximaciones presentadas por los
participantes. Ademas, desarrolla recursos de
libre acceso, basicamente, corpora anotados
con polaridad, tematica, tendencia pol tica,
aspectos, que son de gran utilidad para la
comparacion de diferentes aproximaciones a
las tareas propuestas.</p>
      <p>
        En esta sexta edicion del TASS
        <xref ref-type="bibr" rid="ref7">(Mart
nezCamara et al., 2017)</xref>
        se proponen dos
tareas: 1) Determinacion de la polaridad de los
tweets a nivel global y 2) Determinacion de la
polaridad a nivel de aspecto. Para la primera
tarea se utilizan dos corpus distintos. Un
nuevo corpus etiquetado para esta edicion,
denominado InterTASS, y el General Corpus
utilizado en ediciones anteriores
        <xref ref-type="bibr" rid="ref19">(Villena-Roman
et al., 2016)</xref>
        . Para la segunda tarea se
utilizaron los corpus Social TV, compuesto por
tweets publicados durante la nal de la Copa
del Rey 2014 y STOMPOL, que consta de un
conjunto de tweets sobre diferentes aspectos
pertenecientes al dominio de la pol tica.
      </p>
      <p>El presente art culo resume la
participacion del equipo ELiRF-UPV de la
Universitat Politecnica de Valencia en todas las tareas
planteadas en este taller. Primero se
describen las aproximaciones y recursos utilizados
en cada tarea. A continuacion se presenta la
evaluacion experimental realizada y los
resultados obtenidos. Finalmente se muestran las
conclusiones y posibles trabajos futuros.
2</p>
    </sec>
    <sec id="sec-2">
      <title>Descripcion de los sistemas</title>
      <p>
        Los sistemas presentados en el TASS 2017
cambian el enfoque utilizado en pasadas
ediciones en las que nuestro equipo ha
participado
        <xref ref-type="bibr" rid="ref10 ref12 ref13 ref17 ref2 ref3 ref4 ref5 ref6">(Pla y Hurtado, 2013; Hurtado y Pla,
2014; Hurtado, Pla, y Buscaldi, 2015;
Hurtado y Pla, 2016)</xref>
        , utilizando modelos
basados en SVM entrenados con representaciones
      </p>
      <p>
        Copyright © 2017 by the paper's authors. Copying permitted for private and academic purposes.
bag-of-words de los tweets. En
        <xref ref-type="bibr" rid="ref14">(Pla y
Hurtado, 2017)</xref>
        se puede consultar un resumen
de nuestras participaciones en el TASS hasta
2016.
      </p>
      <p>
        El preproceso de los tweets utiliza la
estrategia descrita en los trabajos anteriores. Esta
consiste basicamente en la adaptacion para el
castellano del tokenizador de tweets
Tweetmotif
        <xref ref-type="bibr" rid="ref11 ref15">(O'Connor, Krieger, y Ahn, 2010)</xref>
        . La
tokenizacion ha consistido en agrupar todas
las fechas, signos de puntuacion, numeros,
direcciones web, hashtags y menciones de
usuario. Ademas, se ha considerado y evaluado el
uso de palabras y caracteres como tokens.
      </p>
      <p>
        Todas las tareas se han abordado como un
problema de clasi cacion y para esto se han
utilizado redes neuronales debido a que han
obtenido buenos resultados en tareas
similares
        <xref ref-type="bibr" rid="ref14">(Gonzalez, Pla, y Hurtado, 2017a)</xref>
        . El
sistema se ha desarrollado en Python y utiliza
la librer a Keras
        <xref ref-type="bibr" rid="ref5">(Chollet y otros, 2015)</xref>
        .
      </p>
      <p>
        En este trabajo se han explorado
diferentes topolog as de redes neuronales as
como diferentes tipos de representaciones de
los tweets para obtener los mejores
resultados posibles sobre un conjunto de
validacion extra do para cada tarea. Generalmente
se ha experimentado con Multilayer
Perceptron (MLP) y con redes neuronales
recurrentes, t picamente Long Short Term Memory
(LSTM) (Hochreiter y Schmidhuber, 1997)
y stacks de redes convolucionales (CNN) y
LSTM
        <xref ref-type="bibr" rid="ref14">(Gonzalez, Pla, y Hurtado, 2017b)</xref>
        .
      </p>
      <p>As , en funcion de cada modelo se han
empleado diversos tipos de representaciones
como bag-of-words, bag-of-chars, colapsado de
embeddings y representaciones secuenciales
formadas por secuencias de embeddings o de
vectores one-hot sobre palabras y caracteres.</p>
      <p>
        Como recursos adicionales, se ha
experimentado an~adiendo informacion de polaridad
con el lexicon NRC
        <xref ref-type="bibr" rid="ref10 ref12 ref6">(Mohammad y Turney,
2013)</xref>
        , sin embargo, la inclusion de
informacion de polaridad haciendo uso de dicho
lexicon no ha mejorado los resultados
previamente obtenidos en validacion. Con respecto
a los embeddings utilizados, se ha empleado
una arquitectura skip-gram
        <xref ref-type="bibr" rid="ref8 ref9">(Mikolov et al.,
2013a)</xref>
        <xref ref-type="bibr" rid="ref8 ref9">(Mikolov et al., 2013b)</xref>
        <xref ref-type="bibr" rid="ref15">(Rehurek y
Sojka, 2010)</xref>
        con 300 dimensiones para cada
token de la lookup table y un contexto
formado por 5 componentes en ambos sentidos,
entrenada con 87 millones de tweets en espan~ol
recopilados entre el 1/06/17 y el 14/06/17.
      </p>
      <p>
        Ademas, tambien se ha experimentado
con sentiment speci c word embeddings
(SSWE)
        <xref ref-type="bibr" rid="ref18">(Tang, 2015)</xref>
        . Puesto que es necesario
disponer de datos etiquetados para entrenar
este tipo de arquitecturas, hemos aplicado
un heur stico basado en la presencia de
algunos emoticonos espec cos para etiquetar
de forma automatica un subconjunto de los
87 millones de tweets descritos
anteriormente. En total se utilizaron 743807 tweets
para aprender los modelos SSWE. Se entreno
una red similar a SSWE-Uni ed
        <xref ref-type="bibr" rid="ref18">(Tang, 2015)</xref>
        en dos pasos: primero optimizando los
embeddings con informacion contextual
(skipgram) y posteriormente, en funcion de la
polaridad aproximada determinada aplicando el
heur stico mencionada anteriormente.
      </p>
      <p>En resumen, en las experimentaciones
realizadas, cada tweet ha sido representado de
distintas maneras en funcion del modelo con
el que se han realizado dichas
experimentaciones y se han estimado los hiper parametros
de los modelos (numero de capas, neuronas
por capa, iteraciones, etc.), as como la mejor
representacion para cada modelo, mediante
holdout con particiones de 80 % para
entrenamiento y 20 % para validacion en aquellos
casos en los que la organizacion del TASS no
proporciona un conjunto de validacion.</p>
      <p>Para cada tarea, con caracter general, se
ha elegido las tres combinaciones de
representacion de tweets y modelo de clasi cacion
que optimizan la metrica o cial de evaluacion
propuesta por la organizacion (macro-F1).
3</p>
    </sec>
    <sec id="sec-3">
      <title>Tarea 1: Analisis de sentimientos en tweets</title>
      <p>Esta tarea consiste en determinar la
polaridad de los tweets. Se trata de un problema
de analisis de sentimientos a nivel global
utilizando cuatro etiquetas de polaridad: N que
expresa polaridad negativa, NEU y NONE
para polaridades neutras o ausencia de
polaridad respectivamente y P para la polaridad
positiva.</p>
      <p>La organizacion del TASS ha de nido tres
subtareas considerando tres corpus
diferentes. En primer lugar, el corpus InterTASS
compuesto por una particion de
entrenamiento de 1008 muestras, una de validacion de
506 muestras y otra de test formada por 1920
muestras. En segundo lugar, las dos subtareas
restantes utilizan para entrenamiento el
General Corpus compuesto por 7219 muestras;
pero, mientras una utiliza el conjunto de test
completo (60798 muestras) la otra utiliza un
subconjunto de 1000 muestras reetiquetadas
denominado General Corpus 1K.</p>
      <p>La distribucion de tweets segun su
polaridad en el conjunto de entrenamiento del
corpus InterTASS se muestra en la Tabla 1.</p>
      <sec id="sec-3-1">
        <title>Polaridad</title>
        <p>N
NEU
NONE
P
TOTAL
Tabla 1: Distribucion de tweets en el
conjunto de entrenamiento de InterTASS segun su
polaridad.</p>
        <p>
          Como se puede observar en la Tabla 1, el
corpus esta desbalanceado predominando las
clases N (41.46 %) y P (31.54 %). Para
intentar mitigar este problema, se ha empleado, en
toda la experimentacion, un escalado de la
funcion de perdida (loss) de forma que cada
clase tiene asociado un factor multiplicativo
a aplicar sobre dicha funcion. As ,
asignandoles un factor mayor a las clases minoritarias,
al cometer errores con las muestras de dichas
clases la loss sera mucho mayor, forzando as
a las redes neuronales para que clasi quen
correctamente dichas muestras
          <xref ref-type="bibr" rid="ref14">(Gonzalez, Pla,
y Hurtado, 2017a)</xref>
          .
        </p>
        <p>Como se ha comentado anteriormente, se
realizo un proceso de ajuste donde se
determino el mejor conjunto de entrenamiento, la
mejor representacion de los tweets y los
mejores valores para los hiperparametros de los
modelos. De esta manera, para los sistemas
basados en MLP se decidio utilizar como
entrenamiento para las tres subtareas el
conjunto de entrenamiento de InterTASS, y en los
casos donde el sistema esta basado en CNN
y LSTM se utilizo una combinacion de los
conjuntos de entrenamiento del InterTASS y
del General Corpus. Esto es debido a que,
como se pudo comprobar en la fase de
ajuste, los modelos basados en CNN y LSTM se
comportaban mejor con un mayor numero de
muestras en entrenamiento.</p>
        <p>
          Con ello, para las subtarea del corpus
InterTASS, se han considerado los siguientes
sistemas:
run1: La primera alternativa esta
basada en un modelo MLP que colapsa los
embeddings, extra dos mediante un
modelo skip-gram entrenado con 87
millones de tweets, de las palabras de un tweet
dado mediante la funcion suma. El MLP
esta compuesto por dos capas con
funciones de activacion ReLU y 128 neuronas
en las que se aplica dropout con p = 0;4
          <xref ref-type="bibr" rid="ref16">(Srivastava et al., 2014)</xref>
          para mejorar la
generalizacion del sistema, ademas, se
emplea Adagrad (Duchi, Hazan, y
Singer, 2011) como algoritmo de
optimizacion con el objetivo de minimizar la
entrop a cruzada entre la distribucion
original y la estimada.
run2: El segundo sistema se basa en un
stack de CNN y LSTM entrenado a
partir de los mismos embeddings del
sistema anterior. En este caso, la red esta
compuesta por una capa convolucional
de 128 kernels de anchura 4, un LSTM
con 64 neuronas y un MLP formado por
dos capas con 64 neuronas y funciones
de activacion ReLU. Tambien se emplea
dropout con p = 0;3, Batch
Normalization (BN)
          <xref ref-type="bibr" rid="ref5">(Io e y Szegedy, 2015)</xref>
          ,
Adagrad y se minimiza la entrop a cruzada.
run3: La ultima alternativa es similar al
primer sistema, pero empleando
embeddings espec cos de polaridad (SSWE),
obtenidos tal como se ha comentado en
el apartado anterior.
        </p>
        <p>
          Para la subtarea sobre el General Corpus
con el test de 60798 muestras, se han
empleado tres sistemas diferentes a los de la subtarea
con el corpus InterTASS:
run1: La primera alternativa es el run2
de la subtarea anterior (stack de CNN
y LSTM) entrenado a partir de
embeddings, extra dos mediante el modelo
skip-gram ya mencionado.
run2: La segunda alternativa es similar
al primer sistema, pero empleando
SSWE.
run3: Con la intencion de comparar los
nuevos modelos y los modelos utilizados
anteriormente por nuestro grupo,
basados en SVM, el ultimo sistema
presentado ha sido el ganador de la edicion de
2016 del TASS
          <xref ref-type="bibr" rid="ref3">(Hurtado y Pla, 2016)</xref>
          .
Cabe destacar que este modelo fue
ajustado utilizando como medida la
Accuracy que fue la medida o cial en todas
las ediciones anteriores.
        </p>
        <p>Sobre la subtarea con el test de 1000
muestras, subconjunto de General Corpus, se ha
extra do la polaridad de cada muestra a
partir de las salidas sobre el test de 60798
muestras, por lo que no se ha desarrollado ningun
sistema espec co para dicha subtarea.</p>
        <p>En la Tabla 2 se muestran los valores de
accuracy y macro-F1 obtenidos para las tres
subtareas. Con los sistemas presentados se
obtienen mejoras respecto a los resultados
presentados en la edicion anterior.</p>
      </sec>
      <sec id="sec-3-2">
        <title>InterTASS</title>
      </sec>
      <sec id="sec-3-3">
        <title>General Corpus</title>
      </sec>
      <sec id="sec-3-4">
        <title>General Corpus 1K</title>
        <p>Run
run1
run2
run3
run1
run2
run3
run1
run2
run3</p>
        <p>Acc
Tabla 2: Resultados o ciales del equipo
ELiRF-UPV en las tres subtareas de la Tarea
1 (TASS-2017).
4</p>
      </sec>
    </sec>
    <sec id="sec-4">
      <title>Tarea 2: Analisis de Polaridad de Aspectos en Twitter</title>
      <p>
        Esta tarea consiste en asignar la polaridad
a los aspectos que aparecen marcados en el
corpus. Una de las di cultades de la tarea
consiste en de nir que contexto se le asigna a
cada aspecto para poder establecer su
polaridad. Para un problema similar, deteccion de
la polaridad a nivel de entidad, en la edicion
del TASS 2013, propusimos una
segmentacion de los tweets basada en un conjunto de
heur sticas
        <xref ref-type="bibr" rid="ref10 ref12 ref6">(Pla y Hurtado, 2013)</xref>
        . Esta
aproximacion tambien se utilizo para la tarea de
deteccion de la tendencia pol tica de los
usuarios de Twitter
        <xref ref-type="bibr" rid="ref13 ref17 ref2">(Pla y Hurtado, 2014)</xref>
        y para
este caso proporciono buenos resultados. En
este trabajo se emplea la aproximacion
utilizada en la edicion del TASS 2016, mas simple
que las mencionadas y que consiste en
determinar el contexto de cada aspecto a traves
de una ventana ja de nida a la izquierda y
derecha de la instancia del aspecto. La
longitud de la ventana optima se ha determinado
experimentalmente sobre el conjunto de
entrenamiento mediante holdout.
      </p>
      <p>La organizacion del TASS ha planteado
dos subtareas. La primera utiliza el corpus
Social TV y la segunda el corpus STOMPOL.
4.1</p>
      <sec id="sec-4-1">
        <title>Corpus Social TV</title>
        <p>El corpus Social TV fue proporcionado por
la organizacion y se compone de un conjunto
de tweets recolectados durante la nal de la
Copa del Rey de futbol de 2014. Esta
dividido en 1773 tweets de entrenamiento y 1000
tweets de test. El conjunto de entrenamiento
esta anotado con los aspectos y su
correspondiente polaridad, utilizando en este caso solo
tres valores: P, N y NEU. El conjunto de test
esta anotado con los aspectos y se debe
determinar la polaridad de estos.
4.2</p>
      </sec>
      <sec id="sec-4-2">
        <title>Corpus STOMPOL</title>
        <p>El corpus STOMPOL se compone de un
conjunto de tweets relacionados con una serie de
aspectos pol ticos, como econom a, sanidad,
etc. que estan enmarcados en la campan~a
pol tica de las elecciones andaluzas de 2015.
Cada aspecto se relaciona con una o varias
entidades que se corresponden con uno de los
principales partidos pol ticos en Espan~a (PP,
PSOE, IU, UPyD, Cs y Podemos). El corpus
consta de 1.284 tweets, y ha sido dividido en
un conjunto de entrenamiento (784 tweets) y
un conjunto de evaluacion (500 tweets).
4.3</p>
      </sec>
      <sec id="sec-4-3">
        <title>Aproximacion y resultados</title>
        <p>Los sistemas utilizados son identicos a los
empleados con el corpus InterTASS de la
primera tarea. Tampoco se han utilizado
lexicones de polaridad debido a que no
mejoraban resultados sobre validacion y se hace uso
de embeddings obtenidos con skip-gram y
SSWE. Ademas, antes de abordar el
entrenamiento se determinan los segmentos de tweet
que constituyen el contexto de cada uno de
los aspectos presentes.</p>
        <p>Con ello, se han tenido en cuenta
diferentes taman~os de contexto y se han escogido
los mejores para cada sistema de cada
experimentacion en funcion de los resultados
obtenidos en validacion. Posteriormente,
cada segmento se tokeniza de la misma manera
que en la Tarea 1 y se escoge el mejor modelo
mediante validacion.</p>
        <p>Por un lado, para la tarea con el corpus
Social TV, los sistemas enviados son los
siguientes:
run1: La primera alternativa es el run1
de la Tarea 1, MLP con colapsado suma
de embeddings extra dos con skip-gram.
En este caso, el mejor contexto en
validacion fue el formado por dos tokens a
izquierda y derecha del aspecto.
run2: La segunda alternativa es la
misma red que el run2 de la Tarea 1, stack
de CNN y LSTM con embeddings
extra dos con skip-gram. En este caso, el
mejor contexto fue de tres tokens a
izquierda y derecha del aspecto.
run3: El ultimo sistema es identico al
run1 de esta tarea pero empleando
SSWE. El mejor contexto tambien esta
formado por tres tokens en ambos sentidos.</p>
        <p>Por otro lado, para la tarea con
STOMPOL, los sistemas considerados son identicos
a la anterior tarea, pero con taman~os de
contexto diferentes. En concreto, para el run1 y
el run2 el taman~o de contexto es de 5 tokens
a izquierda y derecha y en el run3 de 4 tokens.</p>
        <p>Por ultimo, los resultados obtenidos de
Accuracy y macro-F1 con los distintos
sistemas para cada subtarea se muestran en la
Tabla 3.</p>
        <sec id="sec-4-3-1">
          <title>Social TV</title>
        </sec>
        <sec id="sec-4-3-2">
          <title>STOMPOL</title>
          <p>Run
run1
run2
run3
run1
run2
run3
Tabla 3: Resultados o ciales del equipo
ELiRF-UPV en las dos subtareas de la tarea
2 (TASS-2017).
5</p>
        </sec>
      </sec>
    </sec>
    <sec id="sec-5">
      <title>Conclusiones y trabajos futuros</title>
      <p>
        En este trabajo se ha presentado la
participacion del equipo ELiRF-UPV en las 2 tareas
planteadas en TASS 2017. Nuestro equipo ha
utilizado tecnicas de aprendizaje automatico,
en concreto, aproximaciones basadas en redes
neuronales y, en algunos casos deep learning.
Para ello hemos utilizado la librer a Keras
para Python y otras como Gensim
        <xref ref-type="bibr" rid="ref15">(Rehurek
y Sojka, 2010)</xref>
        para la obtencion de
embeddings mediante modelos skip-gram. Nuestra
participacion se ha centrado principalmente
en explorar diferentes modelos y
representaciones de los tweets, consiguiendo mejorar, en
algunas tareas, las prestaciones de ediciones
anteriores.
      </p>
      <p>
        Nuestro grupo esta interesado en seguir
trabajando en la miner a de textos en
redes sociales (author pro ling, stance
detection, sentiment analysis, etc.), as como en
tareas relacionadas (seguimiento de
tendencias: pol ticas y radicalizacion, entre otras) y
especialmente en incorporar nuevos recursos
a los sistemas desarrollados y estudiar nuevas
estrategias y metodos de deep learning, a
destacar los metodos generativos como
Generative Adversarial Networks
        <xref ref-type="bibr" rid="ref1">(Goodfellow et al.,
2014)</xref>
        y Variational Autoencoders
        <xref ref-type="bibr" rid="ref10 ref12 ref6">(Kingma y
Welling, 2013)</xref>
        en combinacion con modelos
sequence-to-sequence
        <xref ref-type="bibr" rid="ref13 ref17 ref2">(Sutskever, Vinyals, y
Le, 2014)</xref>
        para tratar el problema del
desbalanceo en corpus similares a los tratados.
      </p>
    </sec>
    <sec id="sec-6">
      <title>Agradecimientos</title>
      <p>Este trabajo ha sido parcialmente
subvencionado por MINECO y fondos FEDER bajo el
proyecto ASLP-MULAN: Audio, Speech and
Language Processing for Multimedia
Analytics, TIN2014-54288-C4-3-R.</p>
    </sec>
    <sec id="sec-7">
      <title>Bibliograf a</title>
      <p>Chollet, F. et al. 2015. Keras. https://
github.com/fchollet/keras.</p>
      <p>Duchi, J., E. Hazan, y Y. Singer. 2011.</p>
      <p>Adaptive subgradient methods for online
learning and stochastic optimization. J.</p>
      <p>Mach. Learn. Res., 12:2121{2159, Julio.
Gonzalez, J.-A., F. Pla, y L.-F.
Hurtado. 2017a. ELiRF-UPV at IberEval
2017: Stance and Gender Detection in
Tweets. En Notebook Papers of 2nd
SEPLN Workshop on Evaluation of
Human Language Technologies for Iberian
Languages (IBEREVAL), Murcia, Spain.
CEUR Workshop Proceedings.
CEURWS.org.</p>
      <p>Gonzalez, J.-A., F. Pla, y L.-F. Hurtado.
2017b. ELiRF-UPV at SemEval-2017
Task 4: Sentiment Analysis using Deep
Learning. En Proceedings of the 11th
International Workshop on Semantic
Evaluation, SemEval '17, paginas 722{726,
Vancouver, Canada, August. Association
for Computational Linguistics.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <surname>Goodfellow</surname>
            ,
            <given-names>I. J.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>J.</given-names>
            <surname>Pouget-Abadie</surname>
          </string-name>
          ,
          <string-name>
            <given-names>M.</given-names>
            <surname>Mirza</surname>
          </string-name>
          ,
          <string-name>
            <given-names>B.</given-names>
            <surname>Xu</surname>
          </string-name>
          ,
          <string-name>
            <given-names>D.</given-names>
            <surname>Warde-Farley</surname>
          </string-name>
          ,
          <string-name>
            <given-names>S.</given-names>
            <surname>Ozair</surname>
          </string-name>
          ,
          <string-name>
            <given-names>A. C.</given-names>
            <surname>Courville</surname>
          </string-name>
          , y
          <string-name>
            <given-names>Y.</given-names>
            <surname>Bengio</surname>
          </string-name>
          .
          <year>2014</year>
          .
          <article-title>Generative adversarial networks</article-title>
          .
          <source>CoRR, abs/1406</source>
          .2661.
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>Hurtado</surname>
            , L.-
            <given-names>F.</given-names>
            y F.
          </string-name>
          <string-name>
            <surname>Pla</surname>
          </string-name>
          .
          <year>2014</year>
          .
          <article-title>Elirf-upv en tass 2014</article-title>
          : Analisis de sentimientos, deteccion de topicos y analisis de sentimientos de aspectos en twitter.
          <source>Procesamiento del Lenguaje Natural.</source>
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <surname>Hurtado</surname>
            , L.-
            <given-names>F.</given-names>
            y F.
          </string-name>
          <string-name>
            <surname>Pla</surname>
          </string-name>
          .
          <year>2016</year>
          .
          <article-title>Elirf-upv en tass 2016: Analisis de sentimientos en twitter</article-title>
          .
          <source>En TASS@SEPLN.</source>
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <surname>Hurtado</surname>
            , L.-
            <given-names>F.</given-names>
            , F.
          </string-name>
          <string-name>
            <surname>Pla</surname>
            ,
            <given-names>y D.</given-names>
          </string-name>
          <string-name>
            <surname>Buscaldi</surname>
          </string-name>
          .
          <year>2015</year>
          .
          <article-title>Elirf-upv en tass 2015: Analisis de sentimientos en twitter</article-title>
          .
          <source>En TASS@ SEPLN</source>
          , paginas
          <volume>75</volume>
          {
          <fpage>79</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          Io e, S. y
          <string-name>
            <given-names>C.</given-names>
            <surname>Szegedy</surname>
          </string-name>
          .
          <year>2015</year>
          .
          <article-title>Batch normalization: Accelerating deep network training by reducing internal covariate shift</article-title>
          .
          <source>CoRR, abs/1502</source>
          .03167.
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>Kingma</surname>
            ,
            <given-names>D. P. y M.</given-names>
          </string-name>
          <string-name>
            <surname>Welling</surname>
          </string-name>
          .
          <year>2013</year>
          .
          <article-title>Auto-encoding variational bayes</article-title>
          .
          <source>CoRR, abs/1312</source>
          .6114.
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>Mart</surname>
            nez-Camara,
            <given-names>E.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>M. C.</surname>
          </string-name>
          <article-title>D az-</article-title>
          <string-name>
            <surname>Galiano</surname>
            ,
            <given-names>M. A.</given-names>
          </string-name>
          <string-name>
            <surname>Garc</surname>
          </string-name>
          a-Cumbreras, M. Garc aVega, y J.
          <string-name>
            <surname>Villena-Roman</surname>
          </string-name>
          .
          <year>2017</year>
          .
          <article-title>Overview of TASS 2017</article-title>
          .
          <string-name>
            <surname>En J. Villena Roman M. A. Garc</surname>
          </string-name>
          <article-title>a Cumbreras E</article-title>
          . Mart
          <string-name>
            <surname>nez-Camara M. C. D az</surname>
          </string-name>
          Galiano, y M.
          <article-title>Garc a Vega, editores</article-title>
          ,
          <source>Proceedings of TASS 2017: Workshop on Semantic Analysis at SEPLN (TASS</source>
          <year>2017</year>
          ), volumen 1896 de CEUR Workshop Proceedings, Murcia, Spain, September. CEURWS.
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>Mikolov</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>K.</given-names>
            <surname>Chen</surname>
          </string-name>
          , G. Corrado,
          <string-name>
            <given-names>y J.</given-names>
            <surname>Dean</surname>
          </string-name>
          . 2013a.
          <article-title>E cient estimation of word representations in vector space</article-title>
          .
          <source>CoRR, abs/1301</source>
          .3781.
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>Mikolov</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          , I. Sutskever,
          <string-name>
            <given-names>K.</given-names>
            <surname>Chen</surname>
          </string-name>
          , G. Corrado,
          <string-name>
            <given-names>y J.</given-names>
            <surname>Dean</surname>
          </string-name>
          . 2013b.
          <article-title>Distributed representations of words and phrases and their compositionality</article-title>
          .
          <source>CoRR, abs/1310</source>
          .4546.
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <string-name>
            <surname>Mohammad</surname>
            , S. M. y
            <given-names>P. D.</given-names>
          </string-name>
          <string-name>
            <surname>Turney</surname>
          </string-name>
          .
          <year>2013</year>
          .
          <article-title>Crowdsourcing a Word-Emotion Association Lexicon</article-title>
          .
          <source>Computational Intelligence</source>
          ,
          <volume>29</volume>
          (
          <issue>3</issue>
          ):
          <volume>436</volume>
          {
          <fpage>465</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          <string-name>
            <surname>O'Connor</surname>
            ,
            <given-names>B.</given-names>
          </string-name>
          , M. Krieger,
          <string-name>
            <given-names>y D.</given-names>
            <surname>Ahn</surname>
          </string-name>
          .
          <year>2010</year>
          .
          <article-title>Tweetmotif: Exploratory search and topic summarization for twitter</article-title>
          .
          <source>En ICWSM</source>
          , paginas
          <volume>384</volume>
          {
          <fpage>385</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          <string-name>
            <surname>Pla</surname>
            ,
            <given-names>F. y L.-F.</given-names>
          </string-name>
          <string-name>
            <surname>Hurtado</surname>
          </string-name>
          .
          <year>2013</year>
          .
          <article-title>Elirf-upv en tass-2013: Analisis de sentimientos en twitter</article-title>
          .
          <source>En XXIX Congreso de la Sociedad Espanola para el Procesamiento del Lenguaje Natural (SEPLN</source>
          <year>2013</year>
          ). TASS, paginas
          <volume>220</volume>
          {
          <fpage>227</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          <string-name>
            <surname>Pla</surname>
            ,
            <given-names>F. y L.-F.</given-names>
          </string-name>
          <string-name>
            <surname>Hurtado</surname>
          </string-name>
          .
          <year>2014</year>
          .
          <article-title>Political tendency identi cation in twitter using sentiment analysis techniques</article-title>
          .
          <source>En Proceedings of COLING</source>
          <year>2014</year>
          ,
          <source>the 25th International Conference on Computational Linguistics: Technical Papers</source>
          , paginas
          <volume>183</volume>
          {
          <fpage>192</fpage>
          , Dublin, Ireland,
          <year>August</year>
          . Dublin City University and Association for Computational Linguistics.
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          <string-name>
            <surname>Pla</surname>
            ,
            <given-names>F. y L.-F.</given-names>
          </string-name>
          <string-name>
            <surname>Hurtado</surname>
          </string-name>
          .
          <year>2017</year>
          .
          <article-title>Spanish sentiment analysis in twitter at the tass workshop</article-title>
          .
          <source>Language Resources and Evaluation</source>
          , Jun.
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          <string-name>
            <surname>Rehurek</surname>
            , R. y
            <given-names>P.</given-names>
          </string-name>
          <string-name>
            <surname>Sojka</surname>
          </string-name>
          .
          <year>2010</year>
          .
          <article-title>Software Framework for Topic Modelling with Large Corpora</article-title>
          .
          <source>En Proceedings of the LREC 2010 Workshop on New Challenges for NLP Frameworks</source>
          , paginas
          <volume>45</volume>
          {
          <fpage>50</fpage>
          ,
          <string-name>
            <surname>Valletta</surname>
          </string-name>
          , Malta, Mayo. ELRA. http:// is.muni.cz/publication/884893/en.
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          <string-name>
            <surname>Srivastava</surname>
            ,
            <given-names>N.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>G.</given-names>
            <surname>Hinton</surname>
          </string-name>
          ,
          <string-name>
            <given-names>A.</given-names>
            <surname>Krizhevsky</surname>
          </string-name>
          , I. Sutskever, y
          <string-name>
            <given-names>R.</given-names>
            <surname>Salakhutdinov</surname>
          </string-name>
          .
          <year>2014</year>
          .
          <article-title>Dropout: A simple way to prevent neural networks from over tting</article-title>
          .
          <source>J. Mach. Learn. Res.</source>
          ,
          <volume>15</volume>
          (
          <issue>1</issue>
          ):
          <year>1929</year>
          {1958, Enero.
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          <string-name>
            <surname>Sutskever</surname>
            ,
            <given-names>I.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>O.</given-names>
            <surname>Vinyals</surname>
          </string-name>
          ,
          <string-name>
            <given-names>y Q. V.</given-names>
            <surname>Le</surname>
          </string-name>
          .
          <year>2014</year>
          .
          <article-title>Sequence to sequence learning with neural networks</article-title>
          .
          <source>CoRR, abs/1409</source>
          .3215.
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          <string-name>
            <surname>Tang</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          <year>2015</year>
          .
          <article-title>Sentiment-speci c representation learning for document-level sentiment analysis</article-title>
          .
          <source>En Proceedings of the Eighth ACM International Conference on Web Search and Data Mining</source>
          , WSDM '
          <volume>15</volume>
          , paginas
          <volume>447</volume>
          {
          <fpage>452</fpage>
          , New York, NY, USA. ACM.
        </mixed-citation>
      </ref>
      <ref id="ref19">
        <mixed-citation>
          <string-name>
            <surname>Villena-Roman</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>M. A. G.</given-names>
            <surname>Cumbreras</surname>
          </string-name>
          ,
          <string-name>
            <given-names>E. M.</given-names>
            <surname>Camara</surname>
          </string-name>
          , M. C.
          <article-title>D az-</article-title>
          <string-name>
            <surname>Galiano</surname>
            ,
            <given-names>M. T.</given-names>
          </string-name>
          <string-name>
            <surname>Mart</surname>
          </string-name>
          n-Valdivia, y L. A. U. Lopez, editores.
          <source>2016. Proceedings of TASS 2016: Workshop on Sentiment Analysis at SEPLN co-located with 32nd SEPLN Conference (SEPLN</source>
          <year>2016</year>
          ), Salamanca, Spain,
          <year>September 13th</year>
          ,
          <year>2016</year>
          , volumen 1702 de CEUR Workshop Proceedings. CEUR-WS.org.
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>