<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta>
      <issn pub-type="ppub">1613-0073</issn>
    </journal-meta>
    <article-meta>
      <title-group>
        <article-title>Participacion de SINAI en TASS 2016</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>A. Montejo-Raez</string-name>
          <email>amontejo@ujaen.es</email>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>M.C. D az-Galiano</string-name>
          <email>mcdiaz@ujaen.es</email>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>University of Jaen</institution>
          ,
          <addr-line>23071 Jaen</addr-line>
          ,
          <country country="ES">Spain</country>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>University of Jaen</institution>
          ,
          <addr-line>23071 Jaen</addr-line>
          ,
          <country country="ES">Spain</country>
        </aff>
      </contrib-group>
      <pub-date>
        <year>2016</year>
      </pub-date>
      <fpage>41</fpage>
      <lpage>45</lpage>
      <abstract>
        <p>This paper introduces the polarity classi cation system used by the SINAI team for the task 1 at the TASS 2016 workshop. Our approach is based on a supervised learning algorithm over vectors resulting from a weighted vector. This vector is computed using a deep-learning algorithm called Word2Vec. The algorithm is applied so as to generate a word vector from a deep neural net trained over a speci c tweets collection and the Spanish Wikipedia. Our experiments show massive data from Twitter can lead to a slight improvement in classi caciones accuracy.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>
        En este trabajo describimos las
aportaciones realizadas para participar en la
tarea 1 del taller TASS (Sentiment
Analysis at global level), en su edicion de 2016
        <xref ref-type="bibr" rid="ref6">(Garc a-Cumbreras et al., 2016)</xref>
        . Nuestra
solucion continua con las tecnicas aplicadas
en el TASS 2014
        <xref ref-type="bibr" rid="ref11 ref8">(Montejo-Raez, Garc
aCumbreras, y D az-Galiano, 2014)</xref>
        y 2015
        <xref ref-type="bibr" rid="ref4">(D az-Galiano y Montejo-Raez, 2015)</xref>
        ,
utilizando aprendizaje profundo para
representar el texto y una coleccion de entrenamiento
creada con tweets que contienen emoticonos
que expresan emociones de felicidad o
tristeza. Para ello utilizamos el metodo Word2Vec,
ya que ha obtenido los mejores resultados en
an~os anteriores. Por lo tanto, generamos un
vector de pesos para cada palabra del tweet
utilizando Word2Vec, y realizamos la media
de dichos vectores para obtener una unica
representacion vectorial. Nuestros resultados
demuestran que el rendimiento del sistema de
clasi cacion puede verse sensiblemente
mejorado gracias a la introduccion de estos datos
en la generacion del modelo de palabras, no
as en el entrenamiento del clasi cador de
polaridad nal.
      </p>
      <p>La tarea del TASS en 2016 denominada
Sentiment Analysis at global level consiste en
el desarrollo y evaluacion de sistemas que
determinan la polaridad global de cada tweet
del corpus general. Los sistemas presentados
deben predecir la polaridad de cada tweet
utilizando 6 o 4 etiquetas de clase (granularidad
na y gruesa respectivamente).</p>
      <p>El resto del art culo esta organizado de la
siguiente forma. El apartado 2 describe el
estado del arte de los sistemas de clasi cacion
de polaridad en espan~ol. A continuacion, se
describe la coleccion de tweets con
emoticonos utilizada para entrenar el clasi cador. En
el apartado 4 se describe el sistema
desarrollado y en el apartado 5 los experimentos
realizados, los resultados obtenidos y el analisis
de los mismos. Finalmente, en el ultimo
apartado exponemos las conclusiones y el trabajo
futuro.
2</p>
    </sec>
    <sec id="sec-2">
      <title>Clasi cacion de la polaridad en espan~ol</title>
      <p>
        La mayor parte de los sistemas de clasi
cacion de polaridad estan centrados en textos
en ingles, y para textos en espan~ol el sistema
mas completo, en cuanto a tecnicas lingu
sticas aplicadas, posiblemente sea The Spanish
SO Calculator
        <xref ref-type="bibr" rid="ref2">(Brooke, To loski, y Taboada,
2009)</xref>
        , que ademas de resolver la polaridad de
los componentes clasicos (adjetivos,
sustantivos, verbos y adverbios) trabaja con modi
cadores como la deteccion de negacion o los
intensi cadores.
      </p>
      <p>
        Los algoritmos de aprendizaje profundo
(deep-learning en ingles) estan dando buenos
resultados en tareas donde el estado del
arte parec a haberse estancado
        <xref ref-type="bibr" rid="ref1">(Bengio, 2009)</xref>
        .
Estas tecnicas tambien son de aplicacion en
el procesamiento del lenguaje natural
        <xref ref-type="bibr" rid="ref3">(Collobert y Weston, 2008)</xref>
        , e incluso ya existen
sistemas orientados al analisis de sentimientos,
como el de Socher et al.
        <xref ref-type="bibr" rid="ref14">(Socher et al., 2011)</xref>
        .
Los algoritmos de aprendizaje automatico no
son nuevos, pero s estan resurgiendo gracias
a una mejora de las tecnicas y la disposicion
de grandes volumenes de datos necesarios
para su entrenamiento efectivo.
      </p>
      <p>
        En la edicion de TASS en 2012 el equipo
que obtuvo mejores resultados
        <xref ref-type="bibr" rid="ref13">(Saralegi
Urizar y San Vicente Roncal, 2012)</xref>
        presentaron
un sistema completo de pre-procesamiento de
los tweets y aplicaron un lexicon derivado del
ingles para polarizar los tweets. Sus
resultados eran robustos en granularidad na (65 %
de accuracy) y gruesa (71 % de accuracy).
      </p>
      <p>
        En la edicion de TASS en 2013 el mejor
equipo
        <xref ref-type="bibr" rid="ref5">(Fernandez et al., 2013)</xref>
        tuvo todos
sus experimentos en el top 10 de los
resultados, y la combinacion de ellos alcanzo la
primera posicion. Presentaron un sistema con
dos variantes: una version modi cada del
algoritmo de ranking (RA-SR) utilizando
bigramas, y una nueva propuesta basada en
skipgrams. Con estas dos variantes crearon
lexicones sobre sentimientos, y los utilizaron
junto con aprendizaje automatico (SVM)
para detectar la polaridad de los tweets.
      </p>
      <p>
        En 2014 el equipo con mejores resultados
en TASS se denominaba ELiRF-UPV
        <xref ref-type="bibr" rid="ref8">(Hurtado y Pla, 2014)</xref>
        . Abordaron la tarea
como un problema de clasi cacion, utilizando
SVM. Utilizaron una estrategia
uno-contratodos donde entrenan un sistema binario
para cada polaridad. Los tweets fueron
tokeninizados para utilizar las palabras o los lemas
como caracter sticas y el valor de cada
caracter stica era su coe ciente tf-idf.
Posteriormente realizaron una validacion cruzada para
determinar el mejor conjunto de caracter
sticas y parametros a utilizar.
      </p>
      <p>
        El equipo ELiRF-UPV
        <xref ref-type="bibr" rid="ref4 ref9">(Hurtado, Pla, y
Buscaldi, 2015)</xref>
        volvio a obtener los mejores
resultados en la edicion de TASS 2015 con
una tecnica muy similar a la edicion anterior
(SVM, tokenizacion, clasi cadores binarios y
coe cientes tf-idf). En este caso utilizaron un
sistema de votacion simple entre un mayor
numero de clasi cadores con parametros
distintos. Los mejores resultados los obtuvieron
con un sistema que combinaba 192 sistemas
SVM con con guraciones diferentes,
utilizando un nuevo sistema SVM para realizar dicha
combinacion.
3
      </p>
    </sec>
    <sec id="sec-3">
      <title>Coleccion de tweets con emoticonos</title>
      <p>Los algoritmos de deep-learning necesitan
grandes volumenes de datos para su
entrenamiento. Por ese motivo se ha creado una
coleccion de tweets espec ca para la
deteccion de polaridad. Para crear dicha coleccion
se han recuperado tweets con las siguientes
caracter sticas:</p>
      <p>Que contengan emoticonos que expresen
la polaridad del tweet. En este caso se
han utilizado los siguientes emoticonos:
Positivos: :) :-) :D :-D</p>
      <sec id="sec-3-1">
        <title>Negativos: :( :-(</title>
        <p>Que los tweets no contengan URLs, para
evitar tweets cuyo contenido principal se
encuentra en el enlace.</p>
        <p>Que no sean retweets, para reducir el
numero de tweets repetidos.</p>
        <p>La captura de dichos tweets se realizo
durante 22 d as, del 18/07/2016 hasta el
9/08/2016, recuperando unos 100.000 tweets
diarios aproximadamente. Tal y como se ve
en la Figura 1 la recuperacion fue muy
homogenea y se obtuvieron mas de 2.000.000
de tweets.
Figura 1: Numero de tweets recuperados cada
12 horas</p>
        <p>Posteriormente, se realizo un ltrado de
dichos tweets eliminando aquellos que
contubieran menos de 5 palabras, teniendo
en cuenta que consideramos palabra todo
termino que solo contenga letras (sin
numeros, ni caracteres especiales).</p>
        <p>Al nal quedaron 1.777.279 clasi cados
segun el emoticono que contienen de la
siguiente manera:</p>
      </sec>
      <sec id="sec-3-2">
        <title>Positivos: 869.339 tweets</title>
      </sec>
      <sec id="sec-3-3">
        <title>Negativos: 907.940 tweets Por ultimo, se realiza la siguiente limpieza de tweets:</title>
      </sec>
      <sec id="sec-3-4">
        <title>Convertir el texto a minusculas.</title>
        <p>Sustituir letras acentuadas por sus
versiones sin acentuar.</p>
        <p>Quitar las palabras vac as de contenido
(stopwords).</p>
        <p>Normalizar las palabras para que no
contengan letras repetidas, sustituyendo las
repeticiones de letras contiguas para
dejar solo 3 repeticiones.
4</p>
      </sec>
    </sec>
    <sec id="sec-4">
      <title>Descripcion del sistema</title>
      <p>
        Word2Vec1 es una implementacion de la
arquitectura de representacion de las palabras
mediante vectores en el espacio continuo,
basada en bolsas de palabras o n-gramas
concebida por Tomas Mikolov et al.
        <xref ref-type="bibr" rid="ref10">(Mikolov
et al., 2013)</xref>
        . Su capacidad para capturar la
semantica de las palabras queda
comprobada en su aplicabilidad a problemas como la
analog a entre terminos o el agrupamiento de
palabras. El metodo consiste en proyectar las
palabras a un espacio n-dimensional, cuyos
pesos se determinan a partir de una
estructura de red neuronal mediante un algoritmo
recurrente. El modelo se puede con gurar
para que utilice una topolog a de bolsa de
palabras (CBOW) o skip-gram, muy similar al
anterior, pero en la que se intenta predecir
los terminos acompan~antes a partir de un
termino dado. Con estas topolog as, si
disponemos de un volumen de textos su ciente,
esta representacion puede llegar a capturar
la semantica de cada palabra. El numero de
dimensiones (longitud de los vectores de
cada palabra) puede elegirse libremente. Para
el calculo del modelo Word2Vec hemos
recurrido al software indicado, creado por los
propios autores del metodo.
      </p>
      <p>
        Tal y como se ha indicado, para obtener
los vectores Word2Vec representativos para
cada palabra tenemos que generar un modelo
a partir de un volumen de texto grande. Para
ello hemos utilizado los parametros que
mejores resultados obtuvieron en nuestra
participacion del 2014
        <xref ref-type="bibr" rid="ref11 ref8">(Montejo-Raez, Garc
aCumbreras, y D az-Galiano, 2014)</xref>
        . Por lo
tanto, a partir de un volcado de Wikipedia2
en Espan~ol de los art culos en XML, hemos
extra do el texto de los mismos. Obtenemos
as unos 2,2 GB de texto plano que
alimenta al programa word2vec con los parametros
siguientes: una ventana de 5 terminos, el
modelo skip-gram y un numero de dimensiones
esperado de 300, logrando un modelo con mas
de 1,2 millones de palabras en su vocabulario.
      </p>
      <p>
        Como puede verse en la Figura 2, nuestro
sistema realiza la clasi cacion de los tweets
utilizando dos fases de aprendizaje, una en
la que entrenamos el modelo Word2Vec
haciendo uso de un volcado de la enciclopedia
on-line Wikipedia, en su version en espan~ol,
como hemos indicado anteriormente. De esta
forma representamos cada tweet con el vector
resultado de calcular la media de los vectores
Word2Vec de cada palabra en el tweet y su
desviacion t pica (por lo que cada vector de
palabras por modelo es de 600 dimensiones).
Se lleva a cabo una simple normalizacion
previa sobre el tweet, eliminando repeticion de
letras y poniendo todo a minusculas. La
segunda fase de entrenamiento utiliza el
algoritmo SVM y se entrena con la coleccion de
tweets con emoticonos explicada en el
apartado 3. La implementacion de SVM utilizada es
la basada en kernel lineal con entrenamiento
SGD (Stochastic Gradient Descent)
proporcionada por la biblioteca Sci-kit Learn3
        <xref ref-type="bibr" rid="ref12">(Pedregosa et al., 2011)</xref>
        .
      </p>
      <p>Esta solucion es la utilizada en las dos
variantes de la tarea 1 del TASS con prediccion
2http://dumps.wikimedia.org/eswiki
3http://scikit-learn.org/
de 4 clases: la que utiliza el corpus de tweets
completo (full test corpus) y el que utiliza el
corpus balanceado (1k test corpus).</p>
      <p>Figura 2: Flujo de datos del sistema completo
5</p>
    </sec>
    <sec id="sec-5">
      <title>Resultados obtenidos</title>
      <p>Hemos experimentado con el efecto que
tienen en el rendimiento del sistema el uso de
una coleccion de datos generada a partir de
la captura de tweets y que han sido
etiquetados segun los emoticonos que contienen en
la forma comentada anteriormente. La
coleccion de mas de 1,7 millones de tweets ha sido
utilizada al completo para generar un
modelo de vectores de palabras, cuya combinacion
con el de Wikipedia se ha analizado. Tambien
hemos comprobado como el uso de dicha
coleccion de tweets afecta cuando se usa para
el entrenamiento del modelo de clasi cacion
de la polaridad. Para ello se han
seleccionado 500,000 tweets aleatoriamente de esta
coleccion, con sus correspondientes etiquetas P
(positivo) o N (negativo) y se han combiando
con la colecciond de entrenamiento de TASS.</p>
      <p>Los resultados segun las medidaas de
Accuracy y Macro F1 obtenidas se muestran
en la tabla 1. La primera columna nos
indica a partir de cuales datos se han
generado los modelos de vectores de palabras, bien
solo con Wikipedia (W) o como combinacion
de esta con los tweets del corpus construido
(W+T). La segunda columna indica como se
ha entrenado el clasi cador de polaridad a
partir de los textos etiquetados vectorizados
con los modelos generados en el paso previo,
bien solo usando los datos de entrenamiento
proporcionados por la organizacion (TASS) o
incorporando los etiquetados a partir de
emoticonos (TASS+T).</p>
      <p>Como podemos observar, el uso de una
coleccion de tweets para ampliar la capacidad
de representar un modelo basado en
vectores de palabras mejora sensiblemente al
ge</p>
      <p>Tabla 1: Resultados obtenidos sobre el
conjunto full
w2v SVM Accuracy
W TASS 61,31 %
W+T TASS 62,39 %
W TASS+T 49,28 %
W+T TASS+T 53,72 %
Macro-F1
48,55 %
50,44 %
40,20 %
44,10 %
nerado solamente con Wikipedia, pasando de
61,31 % de ajuste a un 62,39 %. En cambio,
utilizar los tweets capturados para la fase
de entrenamiento supervisado no lleva sino
a una ca da del rendimiento del sistema.</p>
      <p>Esto nos lleva a plantearnos la pregunta
de que ocurrir a si utilizaramos solo los tweets
recopilados para generar un modelo de
vectores de palabras. Los resultados que se
obtienen son un 59,05 % de ajuste y un 44,43 % de
F1. No cabe duda de que conviene explorar el
uso de modelos de generacion de caracter
sticas a partir de vectores de palabras.</p>
      <p>Estos resultados mejoran nuestros datos
del an~o pasado, en los que obtuvimos un
ajuste del 61,19 % combinando vectores de
palabras (Word2Vec) y vectores de documentos
(Doc2Vec).
6</p>
    </sec>
    <sec id="sec-6">
      <title>Conclusiones y trabajo futuro</title>
      <p>A partir de los resultados obtenidos,
encontramos que resulta interesante la
incorporacion de texto no formal (tweets) para la
generacion de los modelos de palabras, lo cual
tiene su sentido en una tarea de clasi
cacion que, precisamente, trabaja sobre textos
no formales que tienen la misma red social
como fuente. En cambio, el considerar que
los emoticonos en un tweet pueden ayudar a
un clasi cador como SVM a mejorar en la
determinacion de la polaridad ha resultado
una hipotesis fallida. Esto puede entenderse
echando un vistazo a algunos de los tweets
capturados por el sistema, donde se
evidencia la di cultad, incluso para una persona,
de poner en contexto el sentido del tweet y
su consideracion como positivo o negativo si
no disponemos de un emoticono asociado.</p>
      <p>
        Como trabajo futuro nos proponemos
disen~ar una red neuronal profunda mas
elaborada, pero que parta tambien de textos de
entrenamiento tanto formales como no
formales, si bien teniendo en cuanta informacion
lingu stica mas avanzada como la sintactica,
en lugar de trabajar con simples bolsas de
palabras. Tambien queremos explorar el uso
de redes de este tipo en el proceso de clas
cacion en s , y no solo en la generacion de
caracter sticas. Una posibilidad es utilizar una
red de tipo DBN (Deep Belief Network)
        <xref ref-type="bibr" rid="ref7">(Hinton y Salakhutdinov, 2006)</xref>
        en la que se an~ade
una ultima fase donde se realiza el etiquetado
de los ejemplos.
      </p>
    </sec>
    <sec id="sec-7">
      <title>Bibliograf a</title>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <surname>Bengio</surname>
          </string-name>
          , Yoshua.
          <year>2009</year>
          .
          <article-title>Learning deep architectures for ai</article-title>
          .
          <source>Foundations and trends in Machine Learning</source>
          ,
          <volume>2</volume>
          (
          <issue>1</issue>
          ):1{
          <fpage>127</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>Brooke</surname>
          </string-name>
          , Julian, Milan To loski, y Maite Taboada.
          <year>2009</year>
          .
          <article-title>Cross-linguistic sentiment analysis: From english to spanish. En Galia Angelova Kalina Bontcheva Ruslan Mitkov Nicolas Nicolov, y Nikolai Nikolov, editores</article-title>
          , RANLP, paginas
          <volume>50</volume>
          {
          <fpage>54</fpage>
          .
          <article-title>RANLP 2009 Organising Committee / ACL.</article-title>
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <surname>Collobert</surname>
          </string-name>
          , Ronan y Jason Weston.
          <year>2008</year>
          .
          <article-title>A uni ed architecture for natural language processing: Deep neural networks with multitask learning</article-title>
          .
          <source>En Proceedings of the 25th International Conference on Machine Learning, ICML '08, paginas</source>
          <volume>160</volume>
          {
          <fpage>167</fpage>
          , New York, NY, USA. ACM.
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <article-title>D az-</article-title>
          <string-name>
            <surname>Galiano</surname>
          </string-name>
          , M.C. y A.
          <string-name>
            <surname>Montejo-Raez</surname>
          </string-name>
          .
          <year>2015</year>
          .
          <article-title>Participacion de SINAI DW2Vec en TASS 2015</article-title>
          .
          <article-title>En In Proc</article-title>
          .
          <source>of TASS 2015: Workshop on Sentiment Analysis at SEPLN. CEUR-WS.org, volumen 1397.</source>
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <surname>Fernandez</surname>
          </string-name>
          , Javi, Yoan Gutierrez, Jose M. Gomez,
          <string-name>
            <surname>Patricio Mart</surname>
          </string-name>
          nez-Barco, Andres Montoyo, y Rafael Mun~oz.
          <year>2013</year>
          .
          <article-title>Sentiment analysis of spanish tweets using a ranking algorithm and skipgrams</article-title>
          .
          <source>En In Proc. of the TASS workshop at SEPLN</source>
          <year>2013</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>Garc</surname>
          </string-name>
          a-Cumbreras, Miguel Angel, Julio Villena-Roman,
          <article-title>Eugenio Mart nezCamara, Manuel Carlos D az-</article-title>
          <string-name>
            <surname>Galiano</surname>
          </string-name>
          , Ma. Teresa
          <string-name>
            <surname>Mart</surname>
          </string-name>
          n-Valdivia, y L.
          <article-title>Alfonso Uren~a-</article-title>
          <string-name>
            <surname>Lopez</surname>
          </string-name>
          .
          <year>2016</year>
          .
          <article-title>Overview of tass 2016</article-title>
          .
          <source>En Proceedings of TASS</source>
          <year>2016</year>
          :
          <article-title>Workshop on Sentiment Analysis at SEPLN co-located with the 32nd SEPLN Conference (SEPLN</article-title>
          <year>2016</year>
          ), Salamanca, Spain, September.
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>Hinton</surname>
          </string-name>
          , Geo rey E y Ruslan R Salakhutdinov.
          <year>2006</year>
          .
          <article-title>Reducing the dimensionality of data with neural networks</article-title>
          .
          <source>Science</source>
          ,
          <volume>313</volume>
          (
          <issue>5786</issue>
          ):
          <volume>504</volume>
          {
          <fpage>507</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>Hurtado</surname>
          </string-name>
          , Llu s F y Ferran Pla.
          <year>2014</year>
          .
          <article-title>Elirfupv en tass</article-title>
          <year>2014</year>
          : Analisis de sentimientos, deteccion de topicos y analisis de sentimientos de aspectos en twitter.
          <source>En In Proc. of the TASS workshop at SEPLN</source>
          <year>2014</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>Hurtado</surname>
          </string-name>
          ,
          <string-name>
            <surname>Llu</surname>
          </string-name>
          s-F, Ferran Pla, y Davide Buscaldi.
          <year>2015</year>
          .
          <article-title>Elirf-upv en tass 2015: Analisis de sentimientos en twitter</article-title>
          .
          <source>En In Proc. of TASS 2015: Workshop on Sentiment Analysis at SEPLN. CEUR-WS.org, volumen 1397, paginas</source>
          <volume>35</volume>
          {
          <fpage>40</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <string-name>
            <surname>Mikolov</surname>
          </string-name>
          , Tomas, Kai Chen, Greg Corrado,
          <source>y Je rey Dean</source>
          .
          <year>2013</year>
          .
          <article-title>E cient estimation of word representations in vector space</article-title>
          .
          <source>CoRR, abs/1301</source>
          .3781.
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          <string-name>
            <surname>Montejo-Raez</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>M.A.</given-names>
            <surname>Garc</surname>
          </string-name>
          a-Cumbreras, y M.
          <string-name>
            <surname>C. D</surname>
          </string-name>
          az-Galiano.
          <year>2014</year>
          .
          <article-title>Participacion de SINAI Word2Vec en TASS 2014</article-title>
          .
          <source>En In Proc. of the TASS workshop at SEPLN</source>
          <year>2014</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          <string-name>
            <surname>Pedregosa</surname>
            , Fabian, Gael Varoquaux, Alexandre Gramfort, Vincent Michel, Bertrand Thirion, Olivier Grisel, Mathieu Blondel,
            <given-names>Peter</given-names>
          </string-name>
          <string-name>
            <surname>Prettenhofer</surname>
          </string-name>
          , Ron Weiss, Vincent Dubourg, y others.
          <year>2011</year>
          .
          <article-title>Scikit-learn: Machine learning in python</article-title>
          .
          <source>The Journal of Machine Learning Research</source>
          ,
          <volume>12</volume>
          :
          <fpage>2825</fpage>
          {
          <fpage>2830</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          <string-name>
            <given-names>Saralegi</given-names>
            <surname>Urizar</surname>
          </string-name>
          , Xabier y In~aki San Vicente Roncal.
          <year>2012</year>
          .
          <article-title>Tass: Detecting sentiments in spanish tweets</article-title>
          .
          <source>En TASS 2012 Working Notes.</source>
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          <string-name>
            <surname>Socher</surname>
          </string-name>
          , Richard, Je rey Pennington,
          <string-name>
            <surname>Eric H. Huang</surname>
            , Andrew Y. Ng, y
            <given-names>Christopher D.</given-names>
          </string-name>
          <string-name>
            <surname>Manning</surname>
          </string-name>
          .
          <year>2011</year>
          .
          <article-title>Semi-supervised recursive autoencoders for predicting sentiment distributions</article-title>
          .
          <source>En Proceedings of the Conference on Empirical Methods in Natural Language Processing</source>
          , EMNLP '
          <volume>11</volume>
          , paginas
          <volume>151</volume>
          {
          <fpage>161</fpage>
          ,
          <string-name>
            <surname>Stroudsburg</surname>
          </string-name>
          , PA, USA. Association for Computational Linguistics.
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>