=Paper=
{{Paper
|id=Vol-2096/paper13
|storemode=property
|title=Aprendizaje Profundo para la Extracción de Aspectos: Tarea Esencial en la Creación y uso de las Ontologías (Deep Learning for the Aspects Extraction: Essential Task in the Creation and Use of Ontologies)
|pdfUrl=https://ceur-ws.org/Vol-2096/paper13.pdf
|volume=Vol-2096
|authors=Dionis López Ramos,Leticia Arco García
|dblpUrl=https://dblp.org/rec/conf/iwsw/RamosG18
}}
==Aprendizaje Profundo para la Extracción de Aspectos: Tarea Esencial en la Creación y uso de las Ontologías (Deep Learning for the Aspects Extraction: Essential Task in the Creation and Use of Ontologies)==
Aprendizaje profundo para la extracción de aspectos: tarea esencial en la creación y uso de las ontologı́as Dionis López Ramos1,2 and Leticia Arco Garcı́a2 1 Departamento de Informática, Universidad de Oriente, Santiago de Cuba, Cuba. Avenida de Las Américas s/n, Santiago de Cuba, Cuba dionis@uo.edu.cu 2 Departamento Ciencia de la Computación, Universidad Central “Marta Abreu” de Las Villas. Carretera a Camajuanı́ km 5 1/2 Santa Clara. Villa Clara. Cuba CP 54830. leticiaa@uclv.edu.cu Abstract. On the internet, a large amount of information is organized and related through the technologies and components that define the Semantic Web. Other data sources such as blogs, web pages and digital documents contain important information, but it is not well organized or structured. For many institutions and people, it is important to extract and organize this information automatically by using knowledge sources such as ontologies. The efficient use of these sources of knowledge is con- ditioned by an effective process of information extraction. This process requires performing several natural language processing tasks. One of the most important tasks is the aspect extraction or the extraction of entity characteristics, events or objects in the processed information. An efficient aspect extraction allows an effective use of ontologies. In recent years, researchers have applied models based on Deep Learning algo- rithms to extracting aspects with good results. This paper is focus on the study of the main results related to the application of Deep Learn- ing techniques in the aspect extraction task. The analysis presented here will facilitate the selection of Deep Learning methods for aspect extrac- tion, as well as the textual representation models to be used that allow obtaining good results, and thus contribute satisfactorily to the use of ontologies. Keywords: Aspect Extraction, Deep Learning, Ontology, Semantic Web Resumen. En internet gran cantidad de información es organizada y relacionada a través de las tecnologı́as y componentes que definen a la Web Semántica. Otras fuentes de datos como los blogs, páginas web y documentos digitales contienen información importante, pero no organi- zada o estructurada. Para muchas instituciones y personas es importante extraer y organizar esta información de manera automática empleando fuentes de conocimiento como las ontologı́as. El uso eficiente de estas fuentes de conocimiento está condicionado por un eficaz proceso de ex- tracción de la información. Este proceso requiere realizar varias tareas del procesamiento del lenguaje natural. Una de las tareas más importantes 144 es la extracción de aspectos o caracterı́sticas de entidades, eventos u ob- jetos presentes en la información procesada. Una extracción de aspectos eficiente permite un empleo efectivo de las ontologı́as. En los últimos años, los investigadores han aplicado los modelos basados en algorit- mos del Aprendizaje Profundo a la extracción de aspectos con buenos resultados. En este trabajo se realizó un estudio de las investigaciones relacionadas con estos algoritmos y la extracción de aspectos. El análisis que aquı́ se presenta facilitará la selección de los métodos de Aprendizaje Profundo para la extracción de aspectos, ası́ como las formas de repre- sentación textual a utilizar que permitan obtener buenos resultados, y ası́ contribuir satisfactoriamente al uso de las ontologı́as. Palabras Claves: Extracción de Aspectos, Aprendizaje Profundo, On- tologı́as, Web Semántica 1 Introducción Las técnicas y componentes de la Web Semántica han permitido la creación de contenidos y recursos como Wikitology [14], DBpedia [6], YAGO [56], Free- base [10] y WordNet [34]. La extracción de conocimiento e información con estos recursos permite la creación de servicios y el análisis efectivo de los datos [45]. Otros datos son publicados en fuentes como blogs, páginas web y documentos digitales de forma no estructurada. Para el procesamiento y recuperación de la información no estructurada se realizan varias tareas del procesamiento del lenguaje natural (PLN). Una de las tareas importantes es la extracción de aspec- tos porque permite obtener mayor información de los documentos y oraciones de textos digitales. Esta tarea se encarga de extraer aspectos o caracterı́sticas de las entidades, eventos u objetos escritos en los documentos. Por ejemplo, en la oración “La comida de ese restaurante es deliciosa y barata” se debe extraer el aspecto “comida” de la entidad “restaurante”. En este ejemplo el aspecto aparece como una palabra simple, pero puede contener frases compuestas que hacen esta tarea aún más compleja [30]. Desde inicios del 2000 han aumentado las investigaciones dirigidas a abordar la extracción de aspectos. Varias propuestas [1,49] para la extracción automática de aspectos han empleado ontologı́as como: WordNet [34], SentiWordNet [8], WordNet-Affect [54], o ConceptNet [53]. En el estado del arte realizado en [25] se reporta, desde el 2010 hasta la fecha, la existencia de varios trabajos que emplean ontologı́as como estrategias de búsquedas de información o combinan el empleo del análisis semántico con ontologı́as. En varios trabajos se realiza la extracción de aspectos como un paso previo al uso de las ontologı́as [5,52]. Éstas se usan luego para determinar el dominio o el significado correcto de los aspectos según su contexto de ocurrencia. En otras publicaciones, se realiza la extracción de aspectos a partir del uso directo de las ontologı́as [26,38,55]. Con el objetivo de acelerar el proceso de desarrollo de las ontologı́as los inves- tigadores en ocasiones tratan de reusar los recursos no ontológicos, como son los esquemas de clasificación, tesauros, lexicones y folcsonomı́as que han alcanzado 145 un grado de consenso en la comunidad cientı́fica [55]. Mediante la reutilización de recursos no ontológicos se puede reducir el tiempo y los costos asociados al desarrollo de ontologı́as. Además, se pueden desarrollar ontologı́as de mejor cal- idad mediante la reutilización de recursos estandarizados o consensuados por la comunidad de expertos en diversos dominios. Existen varias metodologı́as que proponen guı́as para el desarrollo de ontologı́as: METHONDOLOGY, On-To- Knowledge, DILIGENT, NeOn, entre otras [42]. En NeOn [55] se propone una guı́a para tener en cuenta recursos no-ontológicos durante la creación de una ontologı́a. La guı́a plantea un escenario que muestra el caso donde los desarrolladores de ontologı́as necesitan analizar un recurso no ontológico y decidir, según los requerimientos de la ontologı́a a crear, cuales re- cursos (i.e., tesauros, glosarios, bases de datos, etc.) deben ser seleccionados para crear la red ontológica. Ası́, el proceso consta de tres pasos: (1) ingenierı́a inversa de los recursos no-ontológicos, (2) transformación de los recursos no-ontológicos, e (3) ingenierı́a avanzada de la ontologı́a. El primer paso tiene como objetivo analizar un recurso no ontológico para identificar los componentes o información presente y crear la representación de los datos en los diferentes niveles de abstracción (de diseño, requerimientos y conceptual). El segundo tiene como propósito generar un modelo conceptual a partir de estos recursos [55]. Por tanto, la aplicación de técnicas para el PLN y en especial la extracción de aspectos constituyen herramientas de gran utilidad para llevar a cabo los pasos 1 y 2. Siguiendo ideas muy similares a las planteadas por la metodologı́a NeOn, varios trabajos proponen estrategias para la construcción de ontologı́as desde conjuntos de documentos. En [60] se muestran los avances más recientes para la construcción de taxonomı́as desde textos, se definen subtareas relevantes, recur- sos para la evaluación y retos para investigaciones futuras. En [26] se propone una estrategia semántica para extraer taxonomı́as de dominios desde textos que transita por cuatro etapas. La primera extrae términos de un conjunto de doc- umentos. En la segunda etapa, de estos términos se toman los más relevantes para un dominio especı́fico usando un filtro. En la tercera etapa se desambiguan los términos y son generados los conceptos. En la última etapa se establecen relaciones entre conceptos usando una técnica para asociarlos a una categorı́a, teniendo en cuenta su coocurrencia en el texto. Una vez generada la nueva tax- onomı́a, ésta puede convertirse automáticamente en una ontologı́a. En [16] se usa una estrategia empleando la Arquitectura General para la Ingenierı́a de Texto (General Architecture for Text Engineering; GATE 1 ) para poblar ontologı́as desde documentos. El proceso de extracción de términos o conceptos de las propuestas anteri- ores es un campo de acción para los métodos de extracción de aspectos. En [26] se propone un algoritmo semi-supervisado difuso para minar una ontologı́a de productos a partir de los conceptos que los definen. En este artı́culo los concep- tos están asociados a los aspectos explı́citos o implı́citos en el texto para cada producto. Para la extracción de aspectos se emplea el método Asignación La- 1 https://gate.ac.uk/ 146 tente de Dirichlet (Latent Dirichlet Allocation; LDA) [9]. Cada tópico o aspecto seleccionado por el algoritmo representa un concepto. Para estimar el grado de inclusión entre conceptos se propone un modelo de lenguaje probabilı́stico. A partir del valor probabilı́stico de la pertenencia de un concepto con respecto a otro se define una función de relación taxonómica difusa. Estos trabajos de- muestran la utilidad de la extracción de aspectos para la creación de ontologı́as a partir de recursos no ontológicos. Una subtarea de gran relevancia para el análisis de sentimiento y el PLN es la extracción de aspectos porque permite obtener mayor información de los docu- mentos y oraciones de textos digitales. Esta tarea se encarga de extraer aspectos o caracterı́sticas de las entidades, eventos u objetos escritos en los documentos [30]. La extracción de aspectos y las ontologı́as tienen gran importancia para el análisis de sentimientos en opiniones sobre productos, por ejemplo, en el caso de productos electrodomésticos. Al procesar información sobre éstos pudiéramos encontrar la siguiente oración: “La baterı́a es muy buena aun cuando se usa el flash y el LCD”. En este ejemplo se pueden extraer como opiniones candidatas “baterı́a-buena”, “flash-buena” y “lcd-buena”. Para una efectiva extracción de las relaciones se pueden agrupar las caracterı́sticas de los productos con una on- tologı́a de productos como se muestra en la Fig. 1. Esto permite agrupar aspectos de productos con significados similares. Fig. 1. Ejemplo de arquitectura para la extracción de aspectos en un sistema para el análisis de sentimientos [52]. Un reto muy importante para la Web Semántica es relacionar la información no estructurada o que no ha sido creada con relaciones semánticas en su con- tenido. Las técnicas que logran la extracción de aspectos permiten a investi- gadores y desarrolladores tener herramientas para lograr relacionar el contenido. Esto se logra al poder enlazar las entidades con los aspectos o caracterı́sticas aso- ciadas a ellos y que están presentes en el texto digital. Seleccionar una estrategia correcta para la extracción de aspectos es determinante para lograr sistemas que permitan construir recursos para la Web Semántica. Por otro lado, el concepto de Aprendizaje Profundo agrupa a un conjunto de algoritmos que han tenido mucho éxito al resolver problemas en varios domin- 147 ios del conocimiento humano, entre ellos, el procesamiento de imágenes [50] y el procesamiento del lenguaje natural [7]. Estos algoritmos usan redes neuronales y permiten el aprendizaje automático de las caracterı́sticas del problema. Definen varias capas de abstracción y logran que los sistemas aprendan las más comple- jas representaciones del conocimiento. Estos métodos adquieren la habilidad de aprender las caracterı́sticas que son importantes y usan grandes volúmenes de información para el aprendizaje [13]. Las diferentes estrategias o algoritmos del Aprendizaje Profundo han sido aplicadas con éxito en la tarea de extracción de aspectos [17,29,36]. Por esta razón, en esta investigación se hace un análisis de los trabajos que emplean estos algoritmos para la extracción de aspectos con el objetivo de determinar las estrategias de mejor desempeño, ası́ como las formas de representación del conocimiento efectivas. 2 Metodologı́a empleada en la investigación Está investigación se basa en los criterios expuestos en [62] y se orientó a los artı́culos relacionados a la extracción de aspectos empleando algoritmos del Aprendizaje Profundo. Los artı́culos analizados comprenden un perı́odo de tiempo entre enero 2011 hasta febrero 2018. Si los estudios han sido publica- dos en más de una fuente o memorias de conferencias, se eligió el trabajo más completo. Se tuvieron en cuenta las publicaciones de varias fuentes de búsqueda de investigación cientı́fica: ACM Digital Library, IEEE Explorer, ScienceDirect, Scopus, Springer Link y Google Scholar. No se tomaron en cuenta los traba- jos que no tienen referencia de la revista, conferencia o memoria de evento, ni aquellos que son un resumen o publicación parcial de otro artı́culo. Los términos principales de búsqueda fueron: extracción de aspectos aprendizaje profundo (aspect extraction deep learning), nivel de aspecto aprendizaje profundo (aspect- level deep learning), y nivel de caracterı́sticas aprendizaje profundo (feature level deep learning). En el trabajo se analizaron las formas de representación de la información, los algoritmos o métodos más empleados y los resultados obtenidos. El análisis comprende 32 artı́culos de investigación y 26 artı́culos de revisión. 3 Análisis de los resultados y discusión Para contribuir a la investigación es útil realizar una evaluación, identificación e interpretación de las investigaciones más relevantes sobre el tema que se aborda hasta la fecha. Una búsqueda sobre revisiones de la literatura o estados del arte reveló la existencia de varios trabajos de este tipo. En [58] se hace un análisis de varias estrategias del Aprendizaje Profundo para el análisis de sentimiento y sólo se hace alusión a tres artı́culos que abor- dan el objeto de investigación de este trabajo. En [31] el objetivo fue estudiar los algoritmos que realizan la extracción de aspectos pero sólo se menciona una propuesta que emplea algoritmos del Aprendizaje Profundo. En [35] se hace un estudio del estado del arte de métodos que han dado una propuesta para la tarea de extracción de aspectos pero no se menciona ninguna propuesta que emplee 148 métodos del Aprendizaje Profundo. La revisión realizada en [66] menciona solo dos propuestas que emplean algoritmos del Aprendizaje Profundo. En el trabajo publicado en [3] se presenta una revisión sistemática de la literatura orientada a las propuestas existentes para el análisis de sentimiento y se reporta la existencia de tres propuestas que realizan la extracción de aspectos empleando algoritmos del Aprendizaje Profundo. Ramya y un colectivo de autores [43] analizan varias propuestas que realizan la extracción de aspectos o caracterı́sticas y solamente referencian una investigación sobre el tema de esta investigación. El estudio pre- sentado en [44] es un estado del arte de las investigaciones que enfrentan la tarea de la extracción de aspectos y no se menciona ninguna propuesta que use algoritmos del Aprendizaje Profundo. En [21] solo se menciona la investigación publicada en [41] y se afirma que ésta es la primera que realizó la extracción de aspectos con algoritmos del Aprendizaje Profundo. El resto de los estados del arte analizados, por solo citar los más recientes [2,4,15,25,32,46,48] no mencio- nan investigaciones sobre la extracción de aspectos o el empleo de técnicas del Aprendizaje Profundo para esta tarea. Los 26 estados del arte o revisiones sistemáticas de la literatura que se con- sultaron en esta investigación tienen una escasa referencia a investigaciones que enfrentan la tarea de la extracción de aspectos y usan algoritmos del Aprendizaje Profundo. Durante el perı́odo de enero de 2011 a febrero de 2018 se encontraron 36 artı́culos que muestran resultados al enfrentar la tarea de extracción de aspec- tos empleando diferentes algoritmos del Aprendizaje Profundo. De la información obtenida se realiza un análisis orientado a estudiar, por su importancia, los algo- ritmos del Aprendizaje Profundo y sus resultados en la extracción de aspectos, los modelos para la representación de la información y otros datos de interés para los investigadores. Por otro lado, las ontologı́as son un valioso recurso para la Web Semántica. Por tanto, esta investigación contribuye a tener una visión general del empleo de técnicas que pueden mejorar el uso de ontologı́as en el PLN y su enriquecimiento a partir de la extracción de aspectos. 3.1 Algoritmos del Aprendizaje Profundo empleados en la extracción de aspectos Los algoritmos del Aprendizaje Profundo se pueden usar en la solución de problemas a través de enfoques supervisados, no supervisados o pueden usar propuestas hı́bridas combinando la salida de un método no supervisado con otro supervisado [13]. Algunos ejemplos de algoritmos del Aprendizaje Profundo propuestos en [13] y [28] son: las Redes Neuronales Convolucionales (Convolu- tional Neural Networks; CNN) [27], las Redes Neuronales Recurrentes (Recur- rent Neural Network ; RNN) [61], la propuesta nombrada Memoria a Corto Plazo (Long Short Term Memory; LSTM) [22], Autoencoders[11], Redes de Creencia Profunda (Deep Belief Network ; DBN), Máquinas de Boltzman Restringidas (Restricted Boltzmann Machines; RBM) [51], Máquinas Profundas de Boltzman (Deep Boltzman Machine; DBM) [47]. En el análisis realizado en esta investigación se encontraron más trabajos con modelos supervisados que no supervisados o hı́bridos. De las propuestas que 149 siguen un enfoque supervisado, 12 corresponden a variantes que usan CNN. En [18,41,19] se emplea una variante de CNN mediante el uso de una secuencia de redes convolucionales donde la salida de una red es la entrada de la otra. Este algoritmo es conocido como Redes Convolucionales Apiladas o en Cascada (Convolucional Stacked Network ; CSN). La selección de este tipo de algoritmo por parte de los investigadores se justifica por la variedad de problemas del PLN resuelto aplicando las CNN y los buenos resultados obtenidos. Esta técnica permite a partir de la representación de las palabras aplicar una operación de convolución o de selección de caracterı́sticas importantes en cada capa de la red. Otros enfoques del Aprendizaje Profundo muy empleados de forma super- visada son las LSTM y las RNN. De los trabajos analizados, 13 usan algoritmos de uno de estos dos tipos. El empleo de estos algoritmos por parte de los autores se justifica porque estas técnicas están especializadas para procesar secuencias de valores. Estos métodos procesan una oración desde el inicio hasta el final, analizando una palabra a la vez. Además, estos métodos se auxilian de las rela- ciones de dependencias y los árboles sintácticos para extraer a nivel de palabras las relaciones semánticas y sintácticas. De esta forma, logran capturar las rep- resentaciones del conocimiento más abstractas y de más alto nivel en diferentes capas. Por otro lado, las RNN son capaces de modelar secuencias de tamaño arbitrario por la aplicación de unidades recurrentes a lo largo de las secuencias de tokens. Las RNN tienen como desventajas el desvanecimiento o explosión del gradiente. Esto provoca que las RNN no sean suficientes para modelar depen- dencias de gran tamaño. Este problema ha motivado que varias propuestas usen las LSTM para la extracción de aspectos [57,67]. El resto de los trabajos revisados emplean los algoritmos del Aprendizaje Profundo de forma no supervisada, como se muestra, por ejemplo, el uso de Autoencoders en la investigación publicada en [17]. Esta técnica implementa una red neuronal que copia los datos de la capa de entrada en la capa de salida. Internamente, tiene una capa oculta que a través de dos funciones f y r se encargan de codificar y decodificar los datos de entrada. Por lo general, estas funciones se definen de forma que la copia sea aproximada y de esta manera el modelo es forzado a priorizar aquellos aspectos que sean propiedades útiles de los datos. En [60] se prueba un RBM para la extracción de aspectos. Esta red neuronal es un modelo basado en energı́a con una distribución de probabilidad conjunta especificada por una función de energı́a. El RBM representa un grafo no dirigido probabilı́stico que contiene una capa de variables observables y una capa de variables latentes. Su representación modela un grafo bipartito entre la capa de entrada y de variables latentes donde el cálculo de algunas variables puede ser exhaustivo y costoso. En [60] las unidades de la capa oculta representan aspectos, sentimientos previamente seleccionados y palabras de rechazo, mientras que la capa de entrada está asociada a las palabras de las oraciones de entrenamiento. En [20,63] se usa una Red de Memoria Profunda (Deep Memory Network ; DMN) que es entrenada a partir de un conjunto de aspectos predefinidos. En varios trabajos [12,20,23,63] se reporta el empleo de un mecanismo conocido 150 como Mecanismo de Atención (Attention Mecanism) que promedia los pesos que pueden ser relevantes en otros puntos de una red neuronal. Este mecan- ismo permite incluir caracterı́sticas lingüı́sticas o sintácticas al proceso de apren- dizaje de la red neuronal que implementa el algoritmo del Aprendizaje Profundo. Varias propuestas [24,41,65] agregan reglas lingüı́sticas al empleo de algoritmos del Aprendizaje Profundo. Debido a que la extracción de aspectos es una tarea de gran importancia en el análisis de sentimientos basado en aspectos, apare- cen muchas propuestas que realizan la extracción de aspectos y la clasificación de la polaridad de los aspectos (positiva, negativa y neutra) de forma paralela [37,58,64], lo que dificulta determinar cuáles técnicas fueron propiamente uti- lizadas para la extracción. De todos los trabajos analizados, el propuesto en [41], empleando un CNN con siete capas consecutivas o apiladas, obtuvo los mejores resultados alcan- zando un 86 % para la Medida-F al evaluar su propuesta en un conjunto de datos de opiniones de restaurantes [40]. Es importante señalar que la calidad de la extracción de los aspectos no solo depende de las técnicas de Aprendizaje Profundo que se apliquen, en los resultados también repercute la forma de rep- resentación textual. Por ello, que en la próxima sección abordaremos sobre las principales formas de representación de la información y su repercusión en la extracción de aspectos. 3.2 Formas de representación de la información La forma de representación de la información está asociada a la posible orga- nización de la información del texto no estructurado. Los textos generalmente se conforman por párrafos, oraciones y palabras. Una correcta organización de la información no estructurada es necesaria para lograr un efectivo entrenamiento de los algoritmos del Aprendizaje Profundo y consecuentemente una eficaz ex- tracción de aspectos. El Aprendizaje Profundo se basa esencialmente en el trabajo con redes neu- ronales. Uno de los retos más importantes al utilizar redes neuronales es lograr una forma de representación correcta para los datos de entrada a la red. Los conjuntos de entrenamiento de estas redes están formados por documentos u oraciones que contienen palabras. El Word Embedding[33] se definió para lograr un mejor entrenamiento de las redes neuronales que se utilizan en el proce- samiento del lenguaje natural. Word Embedding es el nombre de un conjunto de lenguajes de modelado y técnicas de aprendizaje dónde las palabras o frases del vocabulario son vinculadas a vectores de números reales. Conceptualmente transforma un espacio con una dimensión por cada palabra a un espacio vecto- rial continuo con menos dimensiones [27]. La herramienta word2vec 2 fue creada para la creación de estos vectores a partir de un conjunto de palabras. De las propuestas analizadas, 31 emplean como forma de representación el Word Embedding. Este necesita de grandes volúmenes de información para la creación de los vectores asociados a las palabras. En [33] se propuso e hizo 2 https://code.google.com/archive/p/word2vec/ 151 público un conjunto de vectores pre-entrenados, a partir de un conjunto de datos de noticias procedentes del sitio Google News 3 (100 mil millones de palabras). El modelo contiene un vector de dimensión 300 para 3 millones de palabras o frases. Este conjunto de vectores fue empleado por 13 de los 31 trabajos que emplean Word Embedding. El resto usa la herramienta word2vec para construir los vectores asociados al conjunto de palabras. En varios trabajos [12,59,19] se usan conjuntos de datos, como el propuesto en Yelp 4 o Amazon 5 , para el entrenamiento del vector asociado a las palabras. El concepto de vector de valores reales asociados a palabras puede ser ex- tendido a oraciones o párrafos, a partir del conjunto de datos de entrenamiento. En [20] se realiza el entrenamiento del vector de valores reales en función de las oraciones presentes en el conjunto de datos y en el trabajo publicado en [39] se emplean los párrafos. Estas formas de representación de la información repercutieron negativamente en la calidad de la extracción de aspectos. En [17] se emplea una bolsa de palabras (bag-of-words) y se obtiene un vector binario que codifica la presencia/ausencia de unigramas y bigramas. En [60] se tiene un vector de palabras y se calcula la frecuencia de los términos (Term Frecuency; TF) para los sustantivos en el conjunto de datos de entrenamiento y se calcula la frecuencia inversa del documento (Inverse Document Frecuency; IDF) en un conjunto de datos de n-gramas de Google 6 . Las propuestas que utilizan estas formas de representación no necesitan grandes conjuntos de datos para su entrenamiento y no tiene una representación vectorial de grandes dimensiones. Sin embargo, pierden la riqueza semántica que posee el Word Embedding y, por tanto, no superan los resultados de las propuestan que lo emplean. 4 Conclusiones y recomendaciones Las ontologı́as son usadas en el proceso de extracción de la información no estructurada. En este proceso es necesario realizar varias tareas del PLN, espe- cialmente la subtarea de extracción de aspectos. Esta subtarea se usa en com- binación con ontologı́as para obtener mayor información de la fuente de datos no estructurados. Se han desarrollado varias propuestas que intentan extraer as- pectos, dentro de éstas, las técnicas del Aprendizaje Profundo han granado gran popularidad por los buenos resultados obtenidos. Sin embargo, los 26 estados del arte o revisiones sistemáticas de la literatura que se consultaron en esta investi- gación tienen una escasa referencia a investigaciones que enfrentan la tarea de la extracción de aspectos y usan algoritmos del Aprendizaje Profundo. Es por ello que en esta investigación se realizó un estudio de las principales publicaciones sobre el tema y se logró suplir ası́ las carencias de los artı́culos de revisión con- sultados. El análisis de los 36 artı́culos sobre el uso del Aprendizaje Profundo 3 https://news.google.com 4 https://www.yelp.com/datasetchallenge/ 5 http://www.cs.jhu.edu/ mdredze/datasets/sentiment/ 6 http://books.google.com/ngrams/datasets 152 para la extracción de aspectos publicados desde enero de 2011 hasta febrero de 2018 arrojó las siguientes conclusiones: – CNN es la técnica del Aprendizaje Profundo más empleada en la extracción de aspectos. La selección de este tipo de algoritmo por parte de los investi- gadores se justifica por la variedad de problemas del PLN resueltos aplicando las CNN y los buenos resultados obtenidos al usar este algoritmo. – Word Embedding con vectores asociados a palabras es la forma de repre- sentación más empleada para la extracción de aspectos aplicando Apren- dizaje Profundo. La forma más empleada de entrenar estos vectores parte de un conjunto de datos de Google Noticias. No obstante, algunos investigadores emplean exitosamente otros conjuntos de datos para el entrenamiento inicial del Word Embedding. Esta forma de representación es muy útil para datos de entradas de las redes neuronales de los algoritmos del Aprendizaje Profundo, debido a que representan un vector de números reales. Los grandes conjuntos de datos con los que se crean los vectores permiten cubrir gran cantidad de ejemplos y representar la relación semántica entre palabras, información útil en el proceso de extracción de aspectos. La extracción automática de aspectos en datos no estructurados utilizando las CNN con la representación Word Embedding es una solución prometedora para un uso efectivo posterior de las ontologı́as. El trabajo futuro debe estar orientado a la revisión de los resultados de la extracción de aspectos en múltiples dominios y su impacto en los resultados al emplear ontologı́as. References 1. Agarwal, B., Mittal, N., Bansal, P., Garg, S.: Sentiment analysis using common- sense and context informations. Computational Intelligence and Neuroscience 30 (2015) 2. Ain, Q.T., Ali, M., Riaz, A., Noureen, A., Kamran, M., Hayat, B., Rehman, A.: Sentiment analysis using deep learning techniques: a review. International Journal of Advanced Computer Science and Applications (6), 424–433 (2017) 3. Al-Moslmi, T., Omar, N., Abdullah, S., Albared, M.: Approaches to cross-domain sentiment analysis: a systematic literature review. IEEE Access pp. 16173–16192 (2017) 4. Alasmari, S.F., Dahab, M.: Sentiment detection, recognition and aspect identifica- tion. International Journal of Computer Applications pp. 31–37 (2017) 5. Alfonso, M., Sardinha, R.: Ontology based aspect level opinion mining. Interna- tional Journal of Engineering Sciences and Research 5, 797–804 (2016) 6. Auer, S., Bizer, C., Kobilarov, G., Lehmann, J., Cyganiak, R., Ives, Z.: Dbpedia: a nucleus for a web of open data. The Semantic Web. Lecture Notes in Computer Science 4825, 722–735 (2007) 7. Azzam, A., Tazi, N., Hossny, A.: Text-based question routing for question an- swering communities via deep learning. In: Symposium on Applied Computing, Marrakech, Marruecos. pp. 1674–1678 (2017) 153 8. Baccianella, S., Esuli, A., Sebastiani, F.: SentiWordNet 3.0: an enhanced lexical resource for sentiment analysis and opinion mining. In: Language Resources and Evaluation Conference (LREC), Valleta, Malta. pp. 2200–2204 (2010) 9. Blei, D.M., Ng, A., Jordan, M.I.: Latent dirichlet allocation. Journal of machine Learning research (1), 993–1022 (2003) 10. Bollacker, K., Evans, C., Paritosh, P., Sturge, T., Taylor, J.: Freebase: a collabo- ratively created graph database for structuring human knowledge. In: ACM SIG- MOD international conference on Management of data, Vancouver, Canada. pp. 1247–1250 (2008) 11. Bourlard, H., Kamp, Y.: Auto-association by multilayer perceptrons and singular value decomposition. Biological Cybernetics pp. 291–294 (1988) 12. Cheng, J., Zhao, S., Zhang, J., King, I., Zhang, X., Wang, H.: Aspect-level senti- ment classification with heat (hierarchical attention) network. In: ACM on Con- ference on Information and Knowledge Management, Singapore, Singapore. pp. 97–106 (2017) 13. Deng, L., Yu, D.: Deep learning in medical image analysis. Foundations and Trends in Signal Processing (3-4), 197–387 (2014) 14. Finin, T., Syed, Z.: Creating and exploiting a web of semantic data. In: Interna- tional Conference on Agents and Artificial Intelligence, Valencia, España. pp. 7–18 (2010) 15. Ganeshbhai, S.Y., Shah, B.K.: Feature based opinion mining: a survey. In: IEEE International Advance Computing Conference (IACC), Bangalore, India. pp. 919– 923 (2015) 16. Ganino, G., Lembo, D., Scafoglieri, F.: Ontology Population from Raw Text Corpus for Open-Source Intelligence. Current Trends in Web Engineering pp. 173–186 (2018) 17. Glorot, X., Bordes, A., Bengio, Y.: Domain adaptation for large-scale sentiment classification: a deep learning approach. In: 28th international conference on ma- chine learning (ICML-11), Bellevue, Washington, USA. pp. 513–520 (2011) 18. Gu, X., Gu, Y., Wu, H.: Cascaded convolutional neural networks for aspect-based opinion summary. Neural Processing Letters pp. 581–594 (2017) 19. H. Ye, Z. Yan, Z.L.y.W.C.: Dependency-tree based convolutional neural networks for aspect term extraction. In: Pacific-Asia Conference on Knowledge Discovery and Data Mining, Jeju, South Korea. pp. 350–362 (2017) 20. He, R., Lee, W.S., Ng, H.T., Dahlmeier, D.: An unsupervised neural attention model for aspect extraction. In: 55th Annual Meeting of the Association for Com- putational Linguistics , Vancouver, Canada. pp. 388–397 (2017) 21. Hemmatian, F., Sohrabi, M.K.: A survey on classification techniques for opinion mining and sentiment analysis. Artificial Intelligence Review pp. 1–51 (2017) 22. Hochreiter, S., Schmidhuber, J.: Long short-term memory. Neural Computation (8), 1735–1780 (1997) 23. Huang, M., Wang, Y., Zhu, X., Zhao, L.: Attention-based lstm for aspect-level sentiment classification. In: Empirical Methods in Natural Language Processing, Austin, Texas, USA. pp. 606–615 (2016) 24. Joty, S., Liu, P., Meng, H.M.: Fine-grained opinion mining with recurrent neural networks and word embeddings. In: Conference on Empirical Methods in Natural Language Processing, Lisboa, Portugal. pp. 1433–1443 (2015) 25. Kumar, P.K., Nandagopalan, S.: Insights to problems, research trend and progress in techniques of sentiment analysis. International Journal of Electrical and Com- puter Engineering (IJECE) 7(5), 2818–2822 (2017) 154 26. Lau, R.Y., Li, C., Liao, S.S.: Social analytics: learning fuzzy product ontologies for aspect-oriented sentiment analysis. Decision Support Systems 65, 80–94 (2014) 27. LeCun, Y.: Generalization and network design strategies. Connectionism in per- spective pp. 143–155 (1989) 28. LeCun, Y., Bengio, Y., Hinton, G.: Deep learning. Nature (7553), 436–444 (2015) 29. Liao, J., Wang, S., Li, D., Li, X.: FREERL: Fusion relation embedded representa- tion learning framework for aspect extraction. Knowledge-Based Systems pp. 9–17 (2017) 30. Liu, B.: Sentiment analysis: Mining opinions, sentiments, and emotions. Cambridge University Press (2015) 31. Luo, C., Sun, S., Chen, J.: A review of natural language processing techniques for opinion mining systems. Information Fusion pp. 10–25 (2015) 32. Madhoushi, Z., Hamdan, A.R., Zainudin, S.: Sentiment analysis techniques in re- cent works. In: Science and Information Conference (SAI), 2015, London , United Kingdom. pp. 288–291. IEEE (2015) 33. Mikolov, T., Sutskever, I., Chen, K., Corrado, G.S., Dean, J.: Distributed repre- sentations of words and phrases and their compositionality. Advances in Neural Information Processing Systems p. 3111–3119 (2013) 34. Miller, G.A.: WordNet: a lexical database for english. Communications of the ACM 38(11), 39–41 (1995) 35. More, P., Ghotkar, A.: A study of different approaches to aspect-based opinion mining. International Journal of Computer Applications (6) 36. Nguyen, T.H., Shirai, K.: PhraseRNN: phrase recursive neural network for aspect- based sentiment analysis. In: Conference on Empirical Methods in Natural Lan- guage Processing, Lisboa, Portugal. pp. 2509–2514 (2015) 37. Nguyen-Hoang, B.D., Ha, Q.V., Nghiem, M.Q.: Aspect-based sentiment analysis using word embedding restricted boltzmann machines. In: International Conference on Computational Social Networks. pp. 285–297 (2016) 38. Peñalver-Martı́nez, I., Garcia-Sanchez, F., Valencia-Garcia, R., Rodrı́guez-Garcı́a, Miguel Á., M.V., Fraga, A., Sánchez-Cervantes, J.L.: Feature-based opinion mining through ontologies. Expert Systems with Applications 41(13), 5995–6008 (2014) 39. Pham, D.H., Le, A.C.: Learning multiple layers of knowledge representation for aspect based sentiment analysis. Data and Knowledge Engineering (2017) 40. Pontiki, M., Galanis, D., Pavlopoulos, J., Papageorgiou, H., Androutsopoulos, I., Manandhar, S.: Semeval-2014 task 4: Aspect based sentiment analysis. In: 8th international workshop on semantic evaluation (SemEval 2014). p. 27–35 (2014) 41. Poria, S., Cambria, E., Gelbukh, A.: Aspect extraction for opinion mining with a deep convolutional neural network. Knowledge-Based Systems pp. 42–49 (2016) 42. Poveda, M.: Metodologı́a NeOn Aplicada a la representación del contexto. Maestrı́a de investigación en inteligencia artificial, Universidad Politécnica de Madrid, Madrid, Espa{ñ}a (2010) 43. Ramya, R.S., Venugopal, K.R., Iyengar, S.S., Patnaik, L.M.: Feature extraction and duplicate detection for text Mining: a survey. Global Journal of Computer Science and Technology. (5) (2017) 44. Rana, T.A., Cheah, Y.N.: Aspect extraction in sentiment analysis: comparative analysis and survey. Artificial Intelligence Review (4) (2016) 45. Ristoski, P., Paulheim, H.: Semantic web in data mining and knowledge discovery: a comprehensive survey. Web semantics: science, services and agents on the World Wide Web 36(11), 1–22 (2016) 46. Rojas-Barahona, L.M.: Deep learning for sentiment analysis. Language and Lin- guistics Compass (12), 701–719 (2016) 155 47. Salakhutdinov, R., Hinton, G.: Deep boltzmann machines. Artificial Intelligence and Statistics pp. 448–455 (2009) 48. Schouten, K., Frasincar, F.: Survey on aspect-level sentiment analysis. IEEE Trans- actions on Knowledge and Data Engineering (3), 813–830 (2016) 49. Shein, K.P.P.: Ontology based combined approach for sentiment classification. In: 3rd International Conference on Communications and information technology, Flo- rencia, Italia. pp. 112–115 (2009) 50. Shen, D., Wu, G., Suk, H.I.: Deep learning in medical image analysis. Annual Review of Biomedical Engineering pp. 221–248 (2017) 51. Smolensky, P.: Information processing in dynamical systems: Foundations of har- mony theory. Ph.D. thesis, Colorado University at Boulder, Department of Com- puter Science (1986) 52. Somprasertsri, G., Lalitrojwong, P.: Mining feature-opinion in online customer reviews for opinion summarization. Journal of Universal Computer Science 16(6), 938–955 (2010) 53. Speer, R., Havasi, C.: ConceptNet 5: A large semantic network for relational knowl- edge. In: The People’s Web Meets NLP. pp. 161–176. Springer (2013) 54. Strapparava, C., Valitutti, A.: WordNet Affect: an affective extension of wordnet. In: 4th International Conference on Language Resources. p. 1083–1086 (2004) 55. Suárez-Figueroa, M.C., Gómez-Pérez, A., Fernández-López, M.: The NeOn methodology for ontology engineering. Ontology engineering in a networked world pp. 9–34 (2012) 56. Suchanek, F.M., Kasneci, G., Weikum, G.: Yago: a core of semantic knowledge. In: 16th International Conference on World Wide Web, Banff, Alberta, Canada. pp. 697–706 (2007) 57. Sun, C., Wang, X., Liu, Y., Wang, B., Wang, X.: Predicting polarities of tweets by composing word embeddings with long short-term memory. In: Association for Computational Linguistics (ACL)., Beijing, China. pp. 1343–1353 (2015) 58. Tang, D., Qin, B., Liu, T.: Deep learning for sentiment analysis: successful ap- proaches and future challenges. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery (6), 292–303 (2015) 59. Toh, Z., Jian, S.: NLANGP: Supervised Machine Learning System for Aspect Cate- gory Classification and Opinion Target Extraction. In: 9th International Workshop on Semantic Evaluation, Denver, Colorado, USA. pp. 496–501 (2015) 60. Wang, C., He, X., Zhou, A.: A Short Survey on Taxonomy Learning from Text Corpora: Issues, Resources and Recent Advances. In: 2017 Conference on Empirical Methods in Natural Language Processing. pp. 1190–1203. ACM (2017) 61. Williams, D., Hinton, G.: Learning representations by back-propagating errors. Nature (6088), 533–538 (1986) 62. Wohlin, C., Prikladniki, R.: Systematic literature reviews in software engineering. Information and Software Technology (6), 919–920 (2013) 63. Xiong, S., Zhang, Y., Ji, D., Lou, Y.: Distance metric learning for aspect phrase grouping. In: Conference on Computational Linguistics (Coling), Osaka, Japon. p. 2492–2502 (2016) 64. Xu, L., Lin, J., Wang, L., Yin, C., Wang, J.: Deep convolutional neural net- work based approach for aspect-based sentiment analysis. Artificial Intelligence and Statistics pp. 199–204 (2017) 65. Ying, D., Yu, J., Jiang, J.: Recurrent neural networks with auxiliary labels for cross-domain opinion target extraction. In: 31st AAAI Conference on Artificial Intelligence: San Francisco, USA. pp. 3436–3442 (2017) 156 66. Yousif, A., Niu, Z., Tarus, J.K., Ahmad, A.: A survey on sentiment analysis of scientific citations. Artificial Intelligence Review pp. 1–34 (2017) 67. Yuan, J., Zhao, Y., Qin, B., Liu, T.: Local contexts are effective for neural as- pect extraction. In: IEEE International Advance Computing Conference (IACC), Bangalore, India. pp. 244–255 (2017)