<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta>
      <issn pub-type="ppub">1613-0073</issn>
    </journal-meta>
    <article-meta>
      <title-group>
        <article-title>Evaluacion de Modelos de Representacion del Texto con Vectores de Dimension Reducida para Analisis de Sentimiento</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Edgar Casasola Murillo</string-name>
          <email>edgar.casasola@ucr.ac.cr</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Gabriela Mar n Raventos Universidad de Costa Rica San Jose</institution>
          ,
          <country country="CR">Costa Rica</country>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>Universidad de Costa Rica San Jose</institution>
          ,
          <country country="CR">Costa Rica</country>
        </aff>
      </contrib-group>
      <fpage>23</fpage>
      <lpage>28</lpage>
      <abstract>
        <p>The Sentiment Analisys System developed by GAS-UCR team of the University of Costa Rica for task 1 of TASS 2016 workshop is presented. Preliminar evaluation results of the proposed Sentiment Analysis System are presented. The system is based on low dimension feature vectors for text representation. The proposed model is based on text normalization with emphasis mark identi cation, the use of local and global language models, and other features like emoticons an negation terms. Initial experimentation shows that the introduction of the selected features have a positive impact on precision at the polarity classi cation task.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>
        Este trabajo tiene como proposito describir
el sistema utilizado por el grupo de
investigacion en analisis de sentimiento de la
Universidad de Costa Rica en su participacion
en el taller TASS2016
        <xref ref-type="bibr" rid="ref3">(Garc a-Cumbreras et
al., 2016)</xref>
        . El enfoque del trabajo del grupo
ha sido el estudio de los factores que van
incidiendo en las mejoras en la precision obtenida
al llevar a cabo la clasi cacion de la polaridad
de tweets en idioma espan~ol. Nuestro sistema
se fundamenta en tres elementos basicos que
son: la normalizacion del texto en la etapa
de preprocesamiento identi cando los
poten
      </p>
      <p>
        Este trabajo se ha llevado a cabo gracias al
apoyo economico de la Universidad de Costa Rica y el
Gobierno de la Republica de Costa Rica a traves del
MICITT. Se agradece a los asistentes del grupo de
investigacion GAS-UCR por su trabajo
ciales marcadores de enfasis presentes en el
mismo, la creacion de vectores de caracter
sticas de dimension reducida para disminuir el
efecto de la dispersion de los datos, y la
exploracion del impacto del uso de diccionarios
de polaridad que se generan mediante la
utilizacion de diferentes modelos de
representacion del lenguaje asociados tanto al contexto
local como global de los datos. Para esto
estamos utilizando una adaptacion propia del
algoritmo de Turney
        <xref ref-type="bibr" rid="ref8">(Turney, 2002)</xref>
        sobre un
corpus de 5 millones de tweets en espan~ol.
Estos modelos se almacenan en forma de
diccionarios con polaridad para su posterior
reutilizacion. Nos interesa particularmente la
investigacion en este campo dado que si bien
desde el an~o 2013 se identi co una brecha
importante entre la cantidad de investigacion y
tecnolog a del lenguaje desarrollada para el
idioma ingles y el espan~ol (Cambria et al.,
2013)
        <xref ref-type="bibr" rid="ref6">(Melero et al., 2012)</xref>
        , de la misma
forma debemos tener presente que no
necesariamente las soluciones para espan~ol peninsular
van a tener los mismos resultados al aplicarse
a variantes de espan~ol americano, por lo que
los recursos y metodos que utilizamos tienen
la intension de aportar a la investigacion en
espan~ol y colaborar para su posterior
aplicacion en otros contextos de habla hispana.
2
      </p>
    </sec>
    <sec id="sec-2">
      <title>Antecedentes</title>
      <p>
        Entre los resultados obtenidos con sistemas
con enfoques basados en aprendizaje
maquina, el uso de maquina de soporte
vectorial (MSV) ha ofrecido buenos resultados
tanto en ingles
        <xref ref-type="bibr" rid="ref4">(Kiritchenko, Zhu, y
Mohammad, 2014)</xref>
        y (Batista y Ribeiro, 2013) como
en espan~ol donde 9 de los 14 sistemas para el
espan~ol presentados en TASS2015
(
        <xref ref-type="bibr" rid="ref9">VillenaRoman et al., 2015</xref>
        ) hac an uso de este
tipo de clasi cador. Sin embargo, la
dependencia del lenguaje hace que estos clasi cadores
dependan de los vectores de caracter sticas
con los que son representados los
comentarios de texto. Esta extraccion de caracter
sticas ha sido el foco de atencion de multiples
trabajos como
        <xref ref-type="bibr" rid="ref4">(Cabanlit y Junshean
Espinosa, 2014)</xref>
        ,
        <xref ref-type="bibr" rid="ref2">(Feldman, 2013)</xref>
        ,
        <xref ref-type="bibr" rid="ref7">(Guo y Wan,
2012)</xref>
        ,
        <xref ref-type="bibr" rid="ref7">(Sharma y Dey, 2012)</xref>
        y
        <xref ref-type="bibr" rid="ref10">(Wang et al.,
2011)</xref>
        . En trabajos recientes de analisis de
sentimiento en espan~ol tales como el trabajo
de
        <xref ref-type="bibr" rid="ref5">(Mart nez-Camara et al., 2015)</xref>
        se utilizan
varios diccionarios de polaridad y se
representan utilizando un modelo de espacio vectorial
MEV. El diccionario en s se convierte en un
modelo de lenguaje que sirve como recurso
para lograr representaciones e cientes de los
vectores utilizados para la clasi cacion.
      </p>
      <p>
        En los ultimos an~os la representacion
vectorial basada en modelos de lenguaje como
unigramas y bigramas se movio hacia
representaciones de caracter sticas ya que la
cantidad de terminos introduce un problema
asociado a su alta dispersion en el vector
(Cambria et al., 2013). Si los vectores contienen
un alto numero de atributos diferentes, uno
por termino, los conjuntos de datos para
entrenamiento deben contener una mayor
cantidad de textos anotados que atributos para
un buen entrenamiento de los clasi cadores.
Es por esto que los modelos de representacion
del lenguaje basados en unigramas, bigramas
o bien skipgramas requiren de una
representacion vectorial e ciente. Trabajos recientes
buscan la representacion vectorial de las
palabras en el espacio continuo como es el caso del
uso de Word2Vect
        <xref ref-type="bibr" rid="ref1">(D az-Galiano y
MontejoRaez, 2015)</xref>
        .
3
      </p>
    </sec>
    <sec id="sec-3">
      <title>Descripcion del sistema</title>
      <p>Nuestro sistema se fundamenta en cuatro
elementos que consideramos importantes de
mencionar. Primero nos referiremos a la
forma en que construimos nuestro diccionario
con la polaridad de los terminos y las razones
para haber construido uno propio.
Posteriormente nos referimos a nuestro proceso de
preprocesamiento e identi cacion de potenciales
marcadores de enfasis durante esta etapa
inicial. En la siguiente subseccion explicamos la
forma en que construimos vectores de baja
dimension con informacion y hacemos uso del
diccionario. Finalmente se menciona la forma
en que se pretende capturar en los vectores de
caracter sticas aspectos locales con respecto a
los datos de entrenamiento, y globales, a
partir de modelos de representacion del lenguaje
general.
3.1</p>
      <sec id="sec-3-1">
        <title>Creacion del diccionario polarizado</title>
        <p>
          Decidimos desarrollar diccionarios de
polaridad propios, en lugar de utilizar los
existentes, ya que consideramos que desde el punto
de vista del procesamiento de lenguaje
natural tradicional (Indurkhya y Damerau, 2010)
estos diccionarios con polaridad pueden ser
vistos cada uno, como un modelo de lenguaje
particular. Por este motivo tratamos de
desarrollar y evaluar una adaptacion del
tradicional metodo de generacion de estos
recursos lingu sticos de
          <xref ref-type="bibr" rid="ref8">(Turney, 2002)</xref>
          . La
decision anterior no se debio a la no existencia
de diccionarios polarizados ya que
claramente en trabajos como
          <xref ref-type="bibr" rid="ref5">(Mart nez-Camara et al.,
2015)</xref>
          se hace uso de varios de ellos, sino con
el n de incorporar la etapa de creacion de
diccionario dentro de la metodolog a de
trabajo para que posteriores investigaciones en
otros pa ses de habla hispana puedan replicar
el trabajo y disminuir la barrera inicial
asociada a la falta de recursos lingu sticos
propios y el efecto del uso del diccionario
polarizado sobre la calidad de los resultados de
clasi cacion.
        </p>
        <p>
          El diccionario de polaridad creado utiliza
un corpus recolectado durante el an~o 2013,
con 5 millones de tweets en espan~ol. La
variante con respecto al algoritmo propuesto
por Turney
          <xref ref-type="bibr" rid="ref8">(Turney, 2002)</xref>
          es la siguiente.
Para el calculo de la orientacion
semantica de un termino, tal y como lo de ne
Turney en su art culo original, se utilizaron
grupos de palabras semilla en lugar de un
solo termino, y en lugar de utilizar
consultas a motores de busqueda para obtener la
cantidad de textos donde aparecen las
palabras analizadas cerca de las palabras
positivas o negativas se utilizo el motor de
busqueda implementado con el software libre Solr
http://lucene.apache.org/solr/. Con el
motor se indexaron los 5 millones de tweets
por lo que las consultas se ejecutaron en
forma local. Este metodo cuenta con la ventaja
de que se puede calcular entonces la
orientacion semantica de un termino
directamente o bien almacenarlo en un diccionario. En
nuestro caso precalculamos la polaridad y la
almacenamos en forma de diccionario. Por el
momento solo se han llevado a cabo los
calculos para terminos individuales.
3.2
        </p>
      </sec>
      <sec id="sec-3-2">
        <title>Normalizador de texto con marcadores de enfasis</title>
        <p>Luego de un proceso de analisis de las
caracter sticas presentes en el texto
desarrollamos un sistema para normalizacion del texto.
Para este preprocesamiento se segmentan los
terminos potenciales, signos de puntuacion y
emoticones. Se lleva a cabo un marcado y
conversion de los terminos. El proceso que
seguimos hace una eliminacion de los terminos
que son identi cados en el diccionario. Este
proceso se muestra en la gura 1.</p>
        <p>Las repeticiones de letras, repeticiones de
s labas y mayusculas son identi cadas y
eliminadas pero estos terminos se marcan como
potenciales identi cadores de enfasis.
Ejemplos son: EXCELENTE, graciassss,
buenis simo. En esta fase se identi can los
tweets que contienen palabras positivas con
enfasis para su posterior uso.
3.3</p>
      </sec>
      <sec id="sec-3-3">
        <title>Representacion vectorial de baja dimension</title>
        <p>Dos caracter sticas representadas en los
vectores tienen que ver con la presencia y
polaridad de los emoticones y con la
presencia de part culas de negacion. Ademas, al
desarrollar esta investigacion se pudo
observar que los terminos positivos con
marcadores de enfasis son un potencial identi cador
de la polaridad positiva de los textos que
los contienen, por lo tanto esta caracter
sti</p>
        <p>Figura 1: Proceso de normalizacion del texto
ca tambien fue incorporada. La presencia de
marcadores de enfasis tales como repeticion
de caracteres, de s labas, o mayusculas
sobre terminos que aparecen como negativos en
algun contexto son registrados como una
caracter stica importante en el vector.</p>
        <p>Los vectores generados utilizan la
polaridad de los terminos para determinar la
posicion en el vector de caracter sticas creado.
Cabe dejar claro que dependiendo del modelo
de datos los terminos pueden ser unigramas,
bigramas o skipgramas. En el caso de los
unigramas, por ejemplo, si se construye un
vector con la frecuencia de los terminos segun
su polaridad con valores de polaridad desde
-1.0 hasta 1.0, el vector que se obtiene ser a
como el que se muestra en la gura 2. En este
vector por ejemplo se muestran dos terminos
con polaridad, segun diccionario, entre el -0.8
y -0.9, un termino con polaridad entre 0.1 y
0.2, y otro con polaridad mayor a 0.9. En
este caso, en nuestro diccionario, la polaridad
se representa con valores distribuidos desde
lo mas negativo hasta lo positivo con valores
entre -1.0 y 0 para los negativos y 0 a 1.0 para
los positivos.</p>
        <p>Para el taller TASS2016 quisimos evaluar
inicialmente el uso de vectores con la menor
dimension posible, as que en lugar de
vectores de 20 celdas utilizamos solo vectores de 5
celdas para cada grupo de caracter sticas, en
lugar de saltos de 0.1 el rango utilizado es de
Figura 2: Vector de caracter sticas
0.5.
3.4</p>
      </sec>
      <sec id="sec-3-4">
        <title>Modelos locales y globales de representacion del lenguaje</title>
        <p>Nuestra propuesta pretende representar en
los vectores de caracter sticas informacion
propia obtenida durante el proceso de
entrenamiento, al igual que datos que
representen informacion obtenida de modelos de
lenguaje del espan~ol en general. En nuestro caso
se utilizo inicialmente el diccionario
generado a partir del corpus recolectado como
insumo para obtener de el la informacion general
del espan~ol. En el momento de
entrenamiento, la polaridad de los terminos en cada tweet
son conocidos para ese conjunto de datos.
La informacion global es la que se ha
calculado previamente y se encuentra
almacenada en forma de diccionarios. En nuestra
propuesta lo que queremos hacer es representar
en el vector las frecuencias de los terminos
de cada tweet distribuidos segun su
polaridad pero utilizar diferentes modelos de
representacion de lenguaje para llevar a cabo
este calculo. El diccionario utilizado en
estos experimentos fue nuestra version con
unigramas. Se pretende utilizar representaciones
con bigramas y una version de skipgramas
que incluye solo los terminos anteriores a la
palabra que se desea representar. Durante el
entrenamiento, la polaridad obtenida en
forma local es almacenada al igual que las
frecuencias tomadas de diccionarios de
polaridad global. Por lo tanto, los vectores
cuentan con entradas para las distribuciones de
polaridad local y las distribuciones de
polaridad global. Aqu es donde incorporamos los
diferentes modelos de lenguaje. Inicialmente
trabajamos con unigramas para obtener
resultados base para posteriores experimentos.
Posteriormente, se genera un diccionario para
bigramas y otro para lo que de nimos como
skip-gramas previos. Por el momento
estas variantes no fueron enviadas como
experimentos a TASS2016 sino solo las versiones
iniciales.
4</p>
      </sec>
    </sec>
    <sec id="sec-4">
      <title>Metodolog a</title>
      <p>Utilizando el diccionario, el normalizador y
el modelo de representacion vectorial se
procedio a crear vectores de respresentacion con
diferentes con guraciones. Primeramente se
construyo una version con vectores de
dimension 20 distribuyendo la polaridad de los
terminos segun la polaridad almacenada
para unigramas en el diccionario local. En este
caso se pretende evaluar solamente el uso del
diccionario y los marcadores de enfasis como
repeticiones y mayusculas. Este primer
experimento es el denominado GASUCR-01. El
segundo experimento consistio en evaluar un
modelo un poco mas robusto a nivel local con
bigramas y la polaridad para el unigrama en
el diccionario, si el bigrama no esta
presente durante el proceso de evaluacion. En este
caso se crearon vectores de menor dimension
para los datos locales, con solo cinco campos.
Esta ejecucion se idendi co como
experimento GASUCR-01-noEMO-noPartNeg. Esta es
la implementacion base para luego evaluar el
uso de bigramas tomados del contexto
global. Esta version base tambien fue enviada
a la tarea de 4 categor as. En este caso, lo
que se hizo fue unir las categor as +P y P en
una sola, y la categor a +N con la N. El
tercer experimento agregaba al anterior el uso
de los emoticones, aparicion de terminos
positivos con enfasis y las part culas negativas.
En los resultados esta version se identi co
como GASUCR-04 En esta version de TASS no
nos dio tiempo de ejecutar las versiones con
bigramas globales, ni skipgramas.
5</p>
    </sec>
    <sec id="sec-5">
      <title>Resultados</title>
      <p>Los resultados o ciales obtenidos para las
ejecuciones antes mencionadas son los que se
muestran en las Tablas 1 y 2. En estas
guras la columna Ac. muestra la exactitud, P
se re ere a la Macro Precision, R al
Macro Exhaustividad y F1 al Macro F1. En
los resultados generales de TASS los
resultados del grupo aparecen con el id
indicado bajo el nombre del grupo GASUCR. En
nuestro caso con el experimento 01
obtenemos los casos base para el uso de unigramas
globales con vectores de dimension 20 y los
bigramas locales con dimension 5. Es
importante observar que los bigramas locales con
dimension 5 y las caracter sticas de enfasis
positivo, part culas de negacion y emoticones
producen un leve incremento pasando de 0.32
a 0.41. Otro aspecto que rescatamos es el
aumento de la exactitud al pasar a la tarea de
3 categor as.</p>
      <p>Tabla 1: Resultados Tarea 1 con 5 levels y
corpus completo)
id Ac. P R F1
01 0.342 0.217 0.237 0.227
01-noEmNeg 0.326 0.334 0.258 0.291
04 0.410 0.268 0.242 0.254
Tabla 2: Resultados Tarea 1 con 3 niveles y
corpus completo
id Ac. P R F1
01-noEmNeg 0.373 0.212 0.303 0.250</p>
      <p>Estos casos se fueron seleccionando para ir
evaluando en forma incremental cada uno de
los aspectos relacionados a nuestra
propuesta. Con cada caracter stica nueva se trata de
determinar su impacto sobre los valores de
exactitud, precision y exhaustividad.
6</p>
    </sec>
    <sec id="sec-6">
      <title>Conclusiones y trabajo futuro</title>
      <p>El marco de evaluacion de TASS es
provechoso para los grupos que inician la investigacion
en analisis de sentimiento en espan~ol con el
n de extenderla a otras latitudes. En
nuestro caso pudimos evaluar y comparar la
calidad de los resultados de los primeros casos
base de nuestro trabajo. Observamos los
primeros resultados con un sistema que utiliza
un metodo de normalizacion con identi
cacion de potenciales marcadores de enfasis, un
modelo de representacion basado en vectores
de baja dimension, y modelos de
representacion del texto con caracter sticas locales y
globales. El trabajo ademas hace uso de
caracter sticas comunes con otros como los son
el uso de emoticones y part culas negativas.
Como trabajo futuro tenemos pendiente la
evaluacion usando 3 categor as de los datos
que hacen uso de contexto local con
bigramas y caracter sticas adicionales como uso
de emoticones, palabras positivas con enfasis,
y part culas de negacion. Esperamos que los
mejores resultados sean obtenidos al
incorporar los nuevos modelos de lenguaje que
estamos calculando para bigramas y skipgramas
previos al unirlo con nuestro metodo de
representacion en vectores de baja dimension.
Se desea estudiar el efecto de la reduccion
del taman~o del vector al igual que tecnicas
de extrapolacion de la polaridad en los
modelos para los terminos que no aparecen en
los datos de entrenamiento.</p>
    </sec>
    <sec id="sec-7">
      <title>Bibliograf a</title>
      <p>Batista, F. y R. Ribeiro. 2013. Sentiment
analysis and topic classi cation based on
binary maximum entropy classi ers.
Procesamiento de Lenguaje Natural, 50:77{
84.</p>
      <p>Cabanlit, M. A. y K. Junshean Espinosa.
2014. Optimizing n-gram based text
feature selection in sentiment analysis for
commercial products in twitter through
polarity lexicons. En Information,
Intelligence, Systems and Applications, IISA
2014, The 5th International Conference
on, paginas 94{97. IEEE.</p>
      <p>Cambria, E., B. Schuller, Y. Xia, y C.
Havasi. 2013. New avenues in opinion mining
and sentiment analysis. Intelligent
Systems, IEEE, PP(99):1{1.
tass 2016. En Proceedings of TASS
2016: Workshop on Sentiment Analysis at
SEPLN co-located with the 32nd SEPLN
Conference (SEPLN 2016), Salamanca,
Spain, September.</p>
      <p>Guo, L. y X. Wan. 2012. Exploiting syntactic
and semantic relationships between terms
for opinion retrieval. Journal of the
american society for information science and
technology, 63(11):2269{2282, Noviembre.
sis in twitter: a graph-based hashtag
sentiment classi cation approach. En
Proceedings of the 20th ACM international
conference on Information and knowledge
management, paginas 1031{1040. ACM.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <article-title>D az-</article-title>
          <string-name>
            <surname>Galiano</surname>
            , M. y
            <given-names>A</given-names>
          </string-name>
          .
          <string-name>
            <surname>Montejo-Raez</surname>
          </string-name>
          .
          <year>2015</year>
          .
          <article-title>Participacion de sinai dw2vec en tass 2015</article-title>
          .
          <source>En Proceedings del Taller TASS 2015 en Analisis de Sentimiento de la XXXI Conferencia SEPLN</source>
          <year>2015</year>
          , paginas
          <volume>59</volume>
          {
          <fpage>64</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>Feldman</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          <year>2013</year>
          .
          <article-title>Techniques and applications for sentiment analysis</article-title>
          .
          <source>Commun. ACM</source>
          ,
          <volume>56</volume>
          (
          <issue>4</issue>
          ):
          <volume>82</volume>
          {
          <fpage>89</fpage>
          ,
          <string-name>
            <surname>Abril</surname>
          </string-name>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <surname>Garc</surname>
            a-Cumbreras,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>J.</given-names>
            <surname>Villena-Roman</surname>
          </string-name>
          , E. Mart nez Camara,
          <string-name>
            <surname>M. C. D azGaliano</surname>
          </string-name>
          , M. T. Mart n Valdivia, y L.
          <source>A. Uren~a Lopez</source>
          .
          <year>2016</year>
          . Overview of Indurkhya, N. y
          <string-name>
            <given-names>F. J.</given-names>
            <surname>Damerau</surname>
          </string-name>
          .
          <year>2010</year>
          .
          <article-title>Handbook of natural language processing, volumen 2</article-title>
          . CRC Press.
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <surname>Kiritchenko</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          , X. Zhu, y
          <string-name>
            <given-names>S. M.</given-names>
            <surname>Mohammad</surname>
          </string-name>
          .
          <year>2014</year>
          .
          <article-title>Sentiment analysis of short informal texts</article-title>
          .
          <source>Journal of Arti cial Intelligence Research</source>
          , paginas
          <volume>723</volume>
          {
          <fpage>762</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <surname>Mart</surname>
            nez-Camara,
            <given-names>E.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>M. A.</given-names>
            <surname>Garc aCumbreras</surname>
          </string-name>
          ,
          <string-name>
            <surname>M. T. Mart</surname>
          </string-name>
          n-Valdivia, y L.
          <article-title>A. Uren~a-L'opez</article-title>
          .
          <year>2015</year>
          .
          <article-title>Sinai-emma: Vectores de palabras para el analisis de opiniones en twitter</article-title>
          .
          <source>En Proceedings del Taller TASS 2015 en Analisis de Sentimiento de la XXXI Conferencia SEPLN</source>
          <year>2015</year>
          , paginas
          <volume>41</volume>
          {
          <fpage>46</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>Melero</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>A.-B. Cardus</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          <string-name>
            <surname>Moreno</surname>
            , G. Rehm, K. de Smedt, y
            <given-names>H.</given-names>
          </string-name>
          <string-name>
            <surname>Uszkoreit</surname>
          </string-name>
          .
          <year>2012</year>
          .
          <article-title>The Spanish language in the digital age</article-title>
          . Springer.
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>Sharma</surname>
            , A. y
            <given-names>S.</given-names>
          </string-name>
          <string-name>
            <surname>Dey</surname>
          </string-name>
          .
          <year>2012</year>
          .
          <article-title>A comparative study of feature selection and machine learning techniques for sentiment analysis</article-title>
          .
          <source>En Proceedings of the 2012 ACM Research in Applied Computation Symposium, paginas 1{7</source>
          . ACM.
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>Turney</surname>
            ,
            <given-names>P. D.</given-names>
          </string-name>
          <year>2002</year>
          .
          <article-title>Thumbs up or thumbs down?: semantic orientation applied to unsupervised classi cation of reviews. En Proceedings of the 40th annual meeting on association for computational linguistics</article-title>
          , paginas
          <volume>417</volume>
          {
          <fpage>424</fpage>
          .
          <article-title>Association for Computational Linguistics</article-title>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>Villena-Roman</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          ,
          <source>J. Garc a Morera</source>
          ,
          <string-name>
            <given-names>M. A.</given-names>
            <surname>Garc</surname>
          </string-name>
          a-Cumbreras,
          <string-name>
            <given-names>E. M.</given-names>
            <surname>Camara</surname>
          </string-name>
          , M. T. M. Valdivia, y
          <string-name>
            <given-names>L. A. U.</given-names>
            <surname>Lopez</surname>
          </string-name>
          .
          <year>2015</year>
          .
          <article-title>Overview of tass 2015</article-title>
          .
          <source>En Proceedings del Taller TASS 2015 en Analisis de Sentimiento de la XXXI Conferencia SEPLN</source>
          <year>2015</year>
          , paginas
          <volume>13</volume>
          {
          <fpage>21</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <string-name>
            <surname>Wang</surname>
            ,
            <given-names>X.</given-names>
          </string-name>
          ,
          <string-name>
            <given-names>F.</given-names>
            <surname>Wei</surname>
          </string-name>
          ,
          <string-name>
            <given-names>X.</given-names>
            <surname>Liu</surname>
          </string-name>
          , M. Zhou, y
          <string-name>
            <given-names>M.</given-names>
            <surname>Zhang</surname>
          </string-name>
          .
          <year>2011</year>
          .
          <article-title>Topic sentiment analy-</article-title>
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>