<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Grounding adaptativo basado en aprendizaje automático para sistemas de diálogo negociativos</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>José Luis Pro Martín</string-name>
          <email>jose.pro@lekta.ai</email>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Universidad de Sevilla</institution>
        </aff>
      </contrib-group>
      <fpage>43</fpage>
      <lpage>48</lpage>
      <abstract>
        <p>In this thesis proposal we address the design of a dialogue manager for negotiative and task-oriented domains with an adaptative grounding system resulting from a hybrid model between rule-based and machine learning heuristics. We will propose a model that, at a first stage, will be knowledge-based and that it will be used to generate a data corpus big enough for, in a second stage, feeding up a machine learning framework that gives us more decision skills in every dialogue turn. We don't aim to substitute the first model with the new one, furthermore, we would like to create some heuristics that allow both models to live together in order to increase the conversational interface robustness.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>1.1. Propuesta de tesis e inspiración.</title>
      <p>Uno de los mejores trabajos realizados en
prospectiva sobre la evolución de las
tecnologías del lenguaje y en concreto sobre
interfaces conversacionales es el proyecto
ROCKIT (financiado por el programa FP7 de la
comisión europea) realizado por Renals et al
(2015) en el que se muestran las previsiones de
posibles líneas de investigación en este área
temática hasta el año 2024.</p>
      <p>Uno de los cinco escenarios propuestos por
ROCKIT es el de asistentes personales
inteligentes, en el que se vislumbra que serán
capaces de gran capacidad de comprensión del
lenguaje natural así como en la generación del
mismo haciendo uso eficiente de fuentes
heterogéneas de conocimiento, contexto social,
servicios de información y perfiles de usuario
personalizados.</p>
      <p>Los casos de usos en los que estos asistentes
personales podrían actuar serían por ejemplo
sistemas empresariales en los que se pretende
una rápida comunicación con el cliente en
sectores del mercado muy verticales como
comercio, turismo, salud, aprendizaje, servicios
sociales, etc.</p>
      <p>Teniendo este informe como fuente de
inspiración se pretende, en esta tesis, realizar el
diseño e implementación de un entorno de
trabajo para la realización de sistemas de
diálogo negociativos con una alta capacidad
adaptativa en la detección de errores y
recuperación de los mismos (grounding) basada
en aprendizaje automático:</p>
      <p>
        Sistema de diálogo negociativo - En este
tipo de sistemas de diálogo el usuario se
encarga de dar información al sistema
para que éste pueda llevar a cabo cierta
tarea. Dicha información está sujeta a
posibles errores que pueden ser
detectados y resueltos gracias a:
Grounding adaptativo - Dada una serie
de estrategias de grounding para la
resolución y detección de errores se
pretende diseñar un conjunto de
heurísticas que permitan el cambio
automático entre estas estrategias. Estas
heurísticas se basarán en:
Aprendizaje automático - Para ello se
analizarán distintas propuestas
recientemente establecidas en la
literatura como son las redes neuronales
recursivas (RNN), y en concreto, el
subtipo Long Short Term Memory
(LSTM). De hecho estos dos tipos de
redes neuronales también se han usado
para la fase previa a la propia gestión del
diálogo en
        <xref ref-type="bibr" rid="ref5">Dyer et al. (2016)</xref>
        y
        <xref ref-type="bibr" rid="ref1">Ballesteros et al. (2016)</xref>
        ,
respectivamente.
      </p>
    </sec>
    <sec id="sec-2">
      <title>1.2. Retos en el diseño y la implementación.</title>
      <p>Los posibles retos en el diseño y puesta en
marcha de la propuesta serían:







</p>
      <p>Reusabilidad y modularidad.</p>
      <p>Flexibilidad y robustez.</p>
      <p>Detección y recuperación de errores.</p>
      <p>Inclusión temprana de módulos para
tratamiento automático de datos en el
marco de “Bussiness Inteligence” y
“Analytics”.</p>
      <p>Posibilidad de integración con reglas de
negocio corporativas para la
implementación de políticas de
seguridad, autenticación y protección de
datos.</p>
      <p>Sistema de testeo para la gestión del
diálogo.</p>
      <p>Hibridación de estrategias de diálogo,
combinando las aproximaciones basadas
en reglas y dirigidas por datos.</p>
      <p>Evaluación y etiquetado de los datos
adquiridos por el sistema de diálogo.
2.</p>
      <sec id="sec-2-1">
        <title>Origen y trabajo relacionado</title>
        <p>
          Para un compresión del estado actual del área
de la gestión del diálogo cabe destacar los
trabajos de
          <xref ref-type="bibr" rid="ref13">McTear (2017)</xref>
          y MacTear et al.
(2016).
        </p>
        <p>
          Entornos de trabajo para la realización de
gestores de diálogo independientes del dominio
se han publicado en
          <xref ref-type="bibr" rid="ref21">Traum y Larsson (2000</xref>
          ),
          <xref ref-type="bibr" rid="ref3">Bohus y Rudnicky (2007</xref>
          ) y, más recientemente
se ha usado OwlSpeak
          <xref ref-type="bibr" rid="ref8">(Heinroth and Minker,
2013)</xref>
          como gestor genérico de diálogo en el
proyecto europeo KRISTINA (2018), gestor al
que se le han ampliado las capacidades
necesarias para implementar estrategias de
diálogo híbridas. En este último se integra la
multimodalidad para enriquecer el gestor de
diálogo con fuentes adicionales de información
tales como análisis de la expresión facial,
análisis gestual y otra información
paralingüística.
        </p>
        <p>
          Tradicionalmente, las estrategias de diálogo
basadas en reglas se han usado para
aplicaciones muy dependientes del dominio con
cierto grado de éxito aunque en la práctica no
son aplicables en escenarios más complejos.
Por contra, la idea básica de los gestores de
diálogo estadísticos consiste en el uso de datos
de diálogos previos para optimización en la
elección de posibles estrategias de diálogo,
aunque estas técnicas son sólo aplicables
cuando se disponen gran cantidad de datos, algo
que no suele suceder en la mayor parte de los
dominios. La solución puede ser utilizar una
combinación de ambas técnicas como el
sistema OpenDial implementado por
          <xref ref-type="bibr" rid="ref11">Lison y
Kennington (2016</xref>
          ).
        </p>
        <p>
          Para el tratamiento del error y estrategias de
grounding se estudian los trabajos de
          <xref ref-type="bibr" rid="ref20">Traum
(1994)</xref>
          ,
          <xref ref-type="bibr" rid="ref18">Skantze (2007)</xref>
          y
          <xref ref-type="bibr" rid="ref12">López-Cózar et al.
(2010)</xref>
          .
        </p>
        <p>
          Para el estudio de los gestores de diálogo
estadísticos cabe destacar a
          <xref ref-type="bibr" rid="ref25">Young et al. (2013)</xref>
          y el trabajo de
          <xref ref-type="bibr" rid="ref6">Griol et al. (2014)</xref>
          . Y para las
aplicaciones del aprendizaje automático en
gestores de diálogo tenemos a
          <xref ref-type="bibr" rid="ref15">Paek y Pieraccini
(2008</xref>
          ) y a
          <xref ref-type="bibr" rid="ref16">Rieser y Lemon (2011</xref>
          ).
        </p>
        <p>
          Los llamados sistemas de diálogo de
extremo a extremo (end-to-end) basados en
aprendizaje automático tratan de llevar a cabo
una simplificación de la arquitectura del
sistema y están ahora mismo muy en boga en la
literatura, por ejemplo, caben destacar los
trabajos de
          <xref ref-type="bibr" rid="ref23">Williams y Zweig (2016</xref>
          ),
          <xref ref-type="bibr" rid="ref22">TsungHsien et al. (2016</xref>
          ) y
          <xref ref-type="bibr" rid="ref4">Bordes y Weston (2016</xref>
          ).
        </p>
        <p>
          Con
          <xref ref-type="bibr" rid="ref24">Young (2014)</xref>
          nos acercamos a los
gestores de diálogo de dominio abierto (open
domain).
        </p>
      </sec>
      <sec id="sec-2-2">
        <title>Descripción de la investigación propuesta</title>
        <p>El diseño e implementación de la propuesta de
investigación se está llevando a cabo teniendo
en cuenta los siguientes elementos.</p>
      </sec>
    </sec>
    <sec id="sec-3">
      <title>Etiquetado de actos de diálogo.</title>
      <p>Como elemento atómico de información que se
usa en la parte del gestor de diálogo utilizamos
el concepto de acto de diálogo con un modelo a
dos niveles para la anotación (dimensión y
función) desde la entrada de usuario.</p>
      <p>De hecho la integración con la fase de
understanding y la fase de generación del
lenguaje se hace con los mismos actos de
diálogo lo que facilita la encapsulación del
gestor de diálogo a nivel de diseño e
implementación. De este modo podemos
implementar en paralelo las partes de NLU y
NLG sin entrar en conflicto con el DM. De la
misma forma se facilitan desde el primer
momento las API’s necesarias para integrar
reconocedores automáticos del habla y
sintetizadores de voz a la entrada y salida del
sistema respectivamente.</p>
      <p>Proponemos aquí el uso de un módulo
llamado “pragmatic mapper”. Este módulo se
sitúa entre la fase de NLU y el DM propiamente
dicho. La explicación del nombre es la
siguiente:
“Mapper”: Ya que traduce la
información desde algún canal de
entrada de información en Actos de
Diálogos que podrán ser usados por el
gestor de diálogo.
“Pragmatic”: Esta traducción se hará
teniendo en cuenta el contexto del
diálogo y lo que realmente el usuario
quería expresar.</p>
      <p>Este módulo se usará para integrar los
distintos módulos de NLU de forma que toda la
información proporcionada por dichos canales
puedan ser unificados en un solo esquema de
anotación que será el usado por el gestor del
diálogo.</p>
      <p>Un buen ejemplo podría ser el siguiente:
Imaginemos que tenemos dos módulos de NLU
trabajando en paralelo. Uno de ellos podría ser
un módulo NLU clásico basado en léxico y
reglas gramaticales, especializado en la
detección de información estructurada en la
fase de comprensión del lenguaje natural como
podrían ser fechas, números y cantidades
monetarias.</p>
      <p>Por otro lado podríamos tener un módulo de
“intent detection” basado en un clasificador
entrenado gracias a técnicas de aprendizaje
automático, perfecto para detectar intenciones
del usuario con independencia de la proferencia
obtenida.</p>
      <p>Así que, por ejemplo, dada la siguiente
proferencia del usuario:
“Me gustaría concertar una cita para el médico
para mañana o pasado mañana.”</p>
      <p>El módulo de “pragmatic mapper” podría
detectar que la primera parte de la proferencia:
“Me gustaría concertar una cita para el
médico…” ha sido reconocida con un alto nivel
de confianza por el módulo de detección de
intenciones basado en aprendizaje automático y
la traducción correspondiente puede ser anotada
como sigue:
(REQUEST, ACTION, BOOKAPPOINTMENT)</p>
      <p>El mismo módulo “pragmatic mapper”
podría ahora detectar que la segunda parte de la
proferencia: “…para mañana o pasado mañana”
ha sido reconocida con un alto nivel de
confianza por una gramática basada en reglas y
el correspondiente acto de diálogo podría ser
así:
(INFORM, PARAMETER, OFFSETDATE:
(OR: (OFFSETDATEVALUE: 1)</p>
      <p>(OFFSETDATEVALUE: 2)))</p>
      <p>Con estos dos actos de diálogo, el gestor de
diálogo puede reaccionar y decidir qué hacer a
continuación independientemente de las fuentes
de información usadas en el NLU.</p>
      <p>La parte de la pragmática en este módulo se
usa para acceder al contexto del diálogo
almacenado por el DM en la memoria del
sistema y se usa para escoger correctamente la
interpretación correcta de la proferencia del
usuario teniendo en cuenta el estado actual del
diálogo. Esto puede ser usado para resolver
anáforas y elipsis, fenómenos que aparecen
ampliamente en diálogos reales entre humanos.</p>
    </sec>
    <sec id="sec-4">
      <title>Gestión de diálogo.</title>
      <p>El módulo de gestión de diálogo recibe a la
entrada la secuencia de actos de diálogo, realiza
el procesamiento de los mismos en base al
contexto del diálogo y genera los actos de
diálogo de salida según las estrategias de
diálogo que han sido activadas en ese turno en
particular.</p>
      <p>En un primer momento la selección de las
posibles estrategias válidas en un determinado
estado se hace en base a un sistema de
producción de reglas basado en heurísticas y
reglas de negocio.</p>
      <p>Después y gracias a que el sistema se pondrá
en producción en un ecosistema industrial
empieza la fase de recolección de datos,
etiquetado de los mismos, evaluación de los
diálogos y mejora iterativa del sistema.</p>
      <p>Para poder integrar los módulos de
aprendizaje automático se propondrá un modelo
de selección basado en redes neuronales
recurrentes para escoger la estrategia de diálogo
que optimice la métrica escogida para el
diálogo actual.</p>
    </sec>
    <sec id="sec-5">
      <title>Aprendizaje automático.</title>
      <p>Para poder aplicar aprendizaje automático se
realizará desde el principio una clasificación de
las estrategias válidas para un determinado
estado teniendo en cuenta los actos de diálogo
presentes en la entrada. A partir de aquí se
pueden elegir distintos métodos y redes
neuronales para el aprendizaje del sistema,
aunque parece que los mejores resultados están
apareciendo haciendo uso de redes neuronales
recursivas (RNN).</p>
      <p>
        La evaluación de estos sistemas de
aprendizaje se llevan a cabo de un tiempo a esta
parte haciendo uso de técnicas de simulación de
usuario. Dos trabajos que hacen uso de esta
técnica son el de
        <xref ref-type="bibr" rid="ref7">Griol et al. (2016)</xref>
        y el de
        <xref ref-type="bibr" rid="ref9">Hillmann y Englebrecht (2016</xref>
        ).
      </p>
    </sec>
    <sec id="sec-6">
      <title>Estrategias de grounding.</title>
      <p>El sistema de grounding para el gestor de
diálogo propuesto está diseñado desde un
primer momento para permitir correcciones y
recuperación de errores en las posibles
contribuciones de información que haga el
usuario del sistema.</p>
      <p>Se proponen tres niveles o estrategias de
grounding teniendo en cuenta la importancia de
cada parámetro en los posibles dominios de
implementación:


</p>
      <p>MINOR: Técnica de grounding
ingenua. Todos los cambios realizados
en los valores de los parámetros se
consideran correctos.</p>
      <p>IMPLICIT: Confirmación implícita.
Después de cada cambio del valor de
información se muestra al usuario
alguna evidencia de que se ha recibido
correctamente para dar al usuario la
oportunidad de realizar correcciones.</p>
      <p>EXPLICIT: Confirmación explícita.
Después de cada cambio de información
el sistema pedirá confirmación de forma
explícita al usuario sobre ese cambio.</p>
      <p>Para la implementación de estas estrategias
se han diseñado un conjunto de estados y las
transiciones entre ellos basadas en los actos de
diálogo detectados en la entrada de cada turno.</p>
      <p>Estas transiciones se harán, en primera
instancia, teniendo en cuenta un sistema basado
en reglas al que posteriormente se le añadirá la
posibilidad de estar apoyado por un sistema
basado en aprendizaje automático que escoja la
mejor estrategia de diálogo en cada situación.</p>
      <sec id="sec-6-1">
        <title>Linguistics: Technical</title>
        <p>Dublin: 1402–1413.</p>
      </sec>
      <sec id="sec-6-2">
        <title>Papers,</title>
        <p>23-29,</p>
        <p>Figura 1: Estados en la estrategia MINOR
Entre estos estados de grounding (asignados
para cada elemento de información del diálogo)
tenemos:



</p>
        <p>EMPTY: Ningún valor ha sido
asignado al parámetro en el dominio
actual.</p>
        <p>ASKED: El sistema acaba de preguntar
por el valor de uno de los parámetros del
diálogo.</p>
        <p>ECHOED: El sistema acaba de mostrar
al usuario alguna evidencia de que el
cambio en el valor de la información ha
sido recibido correctamente.</p>
        <p>GROUNDED: El sistema piensa que el
valor actual del parámetro es correcto.</p>
        <p>El conjunto de posibles transiciones en las
estrategias MINOR e IMPLICIT se muestran
en la Figura 1 y en la Figura 2, respectivamente.</p>
        <p>Figura 2: Estados en la estrategia IMPLICIT</p>
        <sec id="sec-6-2-1">
          <title>Bibliografía</title>
          <p>Ballesteros, M., Bohnet, B., Mille, S., Wanner,
L. 2014. Deep-syntactic parsing. En
Proceedings of COLING 2014, the 25th
International Conference on Computational</p>
          <p>PhD Thesis, Univerisity of Rochester, New
York.</p>
        </sec>
      </sec>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <surname>Ballesteros</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Dyer</surname>
            ,
            <given-names>C.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Goldberg</surname>
            ,
            <given-names>Y.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Smith</surname>
            ,
            <given-names>N.</given-names>
          </string-name>
          <year>2016</year>
          .
          <article-title>Greedy transition-based dependency parsing with stack-LSTMs</article-title>
          .
          <source>Journal Computational Linguistics</source>
          ,
          <volume>43</volume>
          (
          <issue>2</issue>
          ):
          <fpage>311</fpage>
          -
          <lpage>347</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <surname>Bohnet</surname>
            ,
            <given-names>B.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Nivre</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          <string-name>
            <surname>Boguslavsky</surname>
            ,
            <given-names>I.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Farkas</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ginter</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Hajic</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          <year>2013</year>
          .
          <article-title>Joint morphological and syntactic analysis for richly inflected languages</article-title>
          .
          <source>Transactions of the Association for Computational Linguistics</source>
          ,
          <volume>1</volume>
          :
          <fpage>415</fpage>
          -
          <lpage>428</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <surname>Bohus</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Rudnicky</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          <year>2007</year>
          .
          <article-title>The RavenClaw dialog management framework: Architecture and systems</article-title>
          .
          <source>Computer Speech &amp; Language</source>
          ,
          <volume>23</volume>
          (
          <issue>3</issue>
          ):
          <fpage>332</fpage>
          -
          <lpage>361</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <surname>Bordes</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Weston</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          <year>2016</year>
          .
          <article-title>Learning end-toend goal-oriented dialog</article-title>
          .
          <source>En International Conference on Learning Representations 2017. Accepted as a conference paper at ICLR</source>
          <year>2017</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <surname>Dyer</surname>
            ,
            <given-names>C.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kuncoro</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ballesteros</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Smith</surname>
            ,
            <given-names>N.</given-names>
          </string-name>
          <year>2016</year>
          .
          <article-title>Recurrent neural network grammars</article-title>
          .
          <source>En Proceedings of NAACL-HLT</source>
          <year>2016</year>
          , San Diego, California:
          <fpage>199</fpage>
          -
          <lpage>209</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>Griol</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Callejas</surname>
            ,
            <given-names>Z.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Lopez-Cozar</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Riccardi</surname>
            ,
            <given-names>G.</given-names>
          </string-name>
          <year>2014</year>
          .
          <article-title>A domain-independent statistical methodology for dialog management in spoken dialog systems</article-title>
          .
          <source>Computer Speech &amp; Language</source>
          ,
          <volume>28</volume>
          (
          <issue>3</issue>
          ):
          <fpage>743</fpage>
          -
          <lpage>768</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <given-names>Griol D.</given-names>
            ,
            <surname>Molina</surname>
          </string-name>
          ,
          <string-name>
            <given-names>J. M.</given-names>
            ,
            <surname>Sanchis</surname>
          </string-name>
          ,
          <string-name>
            <surname>A.</surname>
          </string-name>
          , Callejas
          <string-name>
            <surname>Z.</surname>
          </string-name>
          <year>2016</year>
          .
          <article-title>Combining several user models to improve and adapt the dialog management process in spoken dialogue systems. Future and Emergent Trends in Language Technology</article-title>
          . First International Workshop, FETLT 2015, Springer, Seville:
          <fpage>65</fpage>
          -
          <lpage>76</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>Heinroth</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Minker</surname>
            ,
            <given-names>W.</given-names>
          </string-name>
          <year>2013</year>
          .
          <article-title>The OwlSpeak Adaptive Spoken Dialogue Manager</article-title>
          .
          <source>Introducing Spoken Dialogue Systems into Intelligent Environments</source>
          . Springer, New York:
          <fpage>65</fpage>
          -
          <lpage>111</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>Hillmann</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Englebrecht</surname>
            ,
            <given-names>K.</given-names>
          </string-name>
          <year>2016</year>
          .
          <article-title>Modelling goal modifications in user simulation</article-title>
          .
          <source>Future and Emergent Trends in Language Technology. First International Workshop, FETLT 2015</source>
          , Springer, Seville:
          <fpage>149</fpage>
          -
          <lpage>159</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <article-title>KRISTINA: Knowledge-based information agent with social competence and human interaction capabilities</article-title>
          .
          <source>Programme H2020- EU.2.1.1</source>
          .4, id 645012. European Union.
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          <string-name>
            <surname>Lison</surname>
            ,
            <given-names>P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kennington</surname>
            ,
            <given-names>C.</given-names>
          </string-name>
          <year>2016</year>
          .
          <article-title>Opendial: A toolkit for developing spoken dialogue systems with probabilistic rules</article-title>
          .
          <source>En Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics-System Demonstrations</source>
          , Berlin:
          <fpage>67</fpage>
          -
          <lpage>72</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          <string-name>
            <surname>López-Cózar</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Callejas</surname>
            ,
            <given-names>Z.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Griol</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          <year>2010</year>
          .
          <article-title>Using knowledge of misunderstandings to increase the robustness of spoken dialogue systems</article-title>
          .
          <source>Knowledge-Based Systems</source>
          ,
          <volume>23</volume>
          (
          <issue>5</issue>
          ):
          <fpage>471</fpage>
          -
          <lpage>485</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          <string-name>
            <surname>McTear</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          <year>2017</year>
          .
          <article-title>The rise of the conversational interface: A new kid on the block? Future and Emerging Trends in Language Technology</article-title>
          .
          <source>Machine Learning and Big Data, FETLT 2016</source>
          , Springer, Seville:
          <fpage>38</fpage>
          -
          <lpage>49</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          <string-name>
            <surname>McTear</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Callejas</surname>
            ,
            <given-names>Z.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Griol</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          <year>2016</year>
          .
          <article-title>The conversational interface: Talking to smart devices</article-title>
          , Springer. ISBN:
          <fpage>978</fpage>
          -3-
          <fpage>319</fpage>
          -32965- 9.
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          <string-name>
            <surname>Paek</surname>
            ,
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Pieraccini</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          <year>2008</year>
          .
          <article-title>Automating spoken dialogue management design using machine learning: an industry perspective</article-title>
          .
          <source>Speech Communication</source>
          ,
          <volume>50</volume>
          (
          <issue>8-9</issue>
          ):
          <fpage>716</fpage>
          -
          <lpage>729</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          <string-name>
            <surname>Rieser</surname>
            ,
            <given-names>V.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Lemon</surname>
            ,
            <given-names>O.</given-names>
          </string-name>
          <year>2011</year>
          .
          <article-title>Reinforcement learning for adaptive dialogue systems: A data-driven methodology for dialogue management and natural language generation</article-title>
          , Springer. ISBN:
          <fpage>978</fpage>
          -3-
          <fpage>642</fpage>
          - 24941-9.
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          <article-title>ROCKIT: Roadmap for conversational interaction technologies</article-title>
          .
          <source>Programme FP7- ICT</source>
          , id
          <volume>611902</volume>
          . European Union.
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          <string-name>
            <surname>Skantze</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          <year>2007</year>
          .
          <article-title>Error handling in spoken dialogue systems</article-title>
          .
          <source>Managing Uncertainty</source>
          , Grounding and Miscommunication.
          <source>PhD Thesis</source>
          , KTH Royal Institute of Technology in Stockholm. ISBN:
          <fpage>978</fpage>
          -9-
          <fpage>171</fpage>
          -78788-0.
        </mixed-citation>
      </ref>
      <ref id="ref19">
        <mixed-citation>
          <string-name>
            <surname>Thomson</surname>
            ,
            <given-names>B.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Young</surname>
            <given-names>S.</given-names>
          </string-name>
          <year>2010</year>
          .
          <article-title>Bayesian update of dialogue state: A POMDP framework for spoken dialogue systems</article-title>
          .
          <source>Computer Speech &amp; Language</source>
          ,
          <volume>24</volume>
          :
          <fpage>562</fpage>
          -
          <lpage>588</lpage>
        </mixed-citation>
      </ref>
      <ref id="ref20">
        <mixed-citation>
          <string-name>
            <surname>Traum</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          <year>1994</year>
          .
          <article-title>A computational theory of grounding in natural language conversation</article-title>
          .
        </mixed-citation>
      </ref>
      <ref id="ref21">
        <mixed-citation>
          <string-name>
            <surname>Traum</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Larsson</surname>
            <given-names>S.</given-names>
          </string-name>
          <year>2000</year>
          .
          <article-title>The information state approach to dialogue management</article-title>
          .
          <source>Current and New Directions in Discourse and Dialogue</source>
          , Springer:
          <fpage>325</fpage>
          -
          <lpage>353</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref22">
        <mixed-citation>
          <string-name>
            <surname>Tsung-Hsien</surname>
            <given-names>W.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Gasic</surname>
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Mrksic</surname>
            <given-names>N.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>RojasBarahona L. M.</surname>
          </string-name>
          ,
          <string-name>
            <surname>Pei-Hao</surname>
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ultes</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Vandyke</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Young</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          <year>2016</year>
          .
          <article-title>A networkbased end-to-end trainable taskoriented dialogue system</article-title>
          .
          <source>En Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics</source>
          ,
          <volume>1</volume>
          , Valencia:
          <fpage>438</fpage>
          -
          <lpage>449</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref23">
        <mixed-citation>
          <string-name>
            <surname>Williams</surname>
            ,
            <given-names>J. D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Zweig</surname>
            ,
            <given-names>G.</given-names>
          </string-name>
          <year>2016</year>
          .
          <article-title>End-to-end LSTM-based dialog control optimized with supervised and reinforcement learning</article-title>
          .
          <source>arXiv preprint arXiv:1606</source>
          .
          <fpage>01269</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref24">
        <mixed-citation>
          <string-name>
            <surname>Young</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ,
          <year>2014</year>
          .
          <article-title>Statistical approaches to opendomain spoken dialogue systems</article-title>
          .
          <source>En Proceedings of the SIGDIAL 2014 Conference, page 1.</source>
        </mixed-citation>
      </ref>
      <ref id="ref25">
        <mixed-citation>
          <string-name>
            <surname>Young</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Gasic</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Thomson</surname>
            ,
            <given-names>B.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Williams</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          <year>2013</year>
          .
          <article-title>POMDP-based Statistical Spoken Dialogue Systems: a Review</article-title>
          .
          <source>En Proceedings of the IEEE</source>
          ,
          <volume>101</volume>
          (
          <issue>5</issue>
          ):
          <fpage>1160</fpage>
          -
          <lpage>1179</lpage>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>