<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Языковое моделирование для систем автоматического распознавания слитной русской речи Language Modelling for Continuous Russian Speech Recognition Systems</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Irina Kipyatkova</string-name>
          <email>kipyatkova@iias.spb.su</email>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Alexey Karpov</string-name>
          <email>karpov@iias.spb.su</email>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>SPIIRAS</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Saint Petersburg</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Russian Federation</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>ITMO University Saint Petersburg</institution>
          ,
          <addr-line>Russian Federation</addr-line>
        </aff>
      </contrib-group>
      <abstract>
        <p>The paper deals with a research of three types of language models, namely trigram, factored, and neural network language models. Factored language models were created using several linguistic factors (word, lemma, stem, part-of-speech, and morphological tag). Recurrent neural network based language models were created with different number of hidden units. Experiments on application of created models in the continuous Russian speech recognition system were conducted. Trigram language model was used at decoding stage, factored and neural network models were used for N-best list rescoring. The relative word error rate reduction of 8% using factored language models and 14% relative word error rate reduction using neural network language model with respect to the baseline model was achieved.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>2 SPIIRAS,
Аннотация
Аннотация: Статья посвящена исследованию трех типов статистических
моделей языка: триграммной, факторной и нейросетевой. Были созданы
факторные модели русского языка с использованием различных лингвистических
факторов (словоформа, лемма, основа слова, часть речи и метка морфологических
признаков) и модели на базе рекуррентных искусственных нейронных сетей
с различным числом элементов в скрытом слое. Проведены эксперименты по
применению созданных моделей в системе распознавания слитной русской
речи с большим словарем, при этом триграммная модель использовалась на
этапе декодирования, а факторная и нейросетевая – на этапе переоценки списков
лучших гипотез распознавания. Относительное уменьшение количества
неправильно распознанных слов составило 8% при использовании факторной модели
языка и 14% – при использовании нейросетевой модели языка.</p>
      <p>Ключевые слова: Языковое моделирование, факторная модель языка,
нейросетевая модель языка, системы распознавания русской речи
1</p>
      <p>Введение
Модель языка является необходимым компонентом систем автоматического
распознавания слитной речи. Наиболее распространенной моделью языка является
статистическая модель на основе n-грамм слов, позволяющая оценить вероятность
появления цепочки из n слов в некотором тексте. Данная модель показала свою
эффективность для языков с жестким порядком слов (например, английского), однако
русский язык обладает рядом особенностей, снижающих эффективность
статистических моделей. В русском языке практически свободный порядок слов, кроме того,
русский язык является синтетическим флективным языком с богатой морфологией,
что приводит к существенному увеличению размера словаря системы распознавания,
а также к увеличению коэффициента неопределенности (perplexity) n-граммных
моделей языка. В данной статье приводится описание моделей языка, позволяющих
учитывать особенности русского языка.
2</p>
      <p>Разновидности моделей языка
Существует несколько разновидностей статистических моделей языка, позволяющих
моделировать длинный контекст или дальнодействующие связи между словами.
Одной из таких разновидностей являются триггерные модели (Trigger models). В этом
методе появление инициирующего слова в истории увеличивает вероятность другого
слова, называемого целевым, с которым оно связано [Vaiˇciu¯nas 2006].</p>
      <p>Упрощенной версией триггерных пар является кэш-модель (cache model),
которая увеличивает вероятность появления слова в соответствии с тем, как часто данное
слово встречалось в истории, поскольку считается, что, употребив конкретное слово,
диктор будет использовать его еще раз, поскольку либо оно является характерным
для конкретной темы, либо потому что диктор имеет тенденцию использовать это
слово в своем лексиконе [Vaiˇciu¯nas 2006].</p>
      <p>В работе [Protasov 2008] предлагается дальнодействующая триграммная модель,
представляющая собой триграммную модель, которая предсказывает вероятность
появления слова не только по непосредственно предшествующим словам, но и по
словам, находящемся на большем расстоянии от предсказываемого слова. Лежащая
в основе “грамматика” представляет собой множество пар слов, которые могут быть
связаны вместе через несколько разделяющих слов.</p>
      <p>Еще одним типом модели языка, позволяющим моделировать
дальнодействующие связи в предложении, является синтаксическо-статистическая модель,
предложенная в работе [Karpov 2014]. Для создания такой модели вначале выполняется
статистический анализ текстового корпуса и создается список n-грамм слов. Затем
производится синтаксический анализ, в ходе которого выявляются грамматически
связанные пары слов (синтаксические группы), которые были разделены в тексте
другими словами. Такие синтаксические группы добавляются к списку n-грамм слов,
полученных в ходе статистического анализа текстового корпуса. Диаграмма
создания синтаксическо-статистической модели языка показана на рисунке 1.</p>
      <p>Рис. 1: Процесс создания синтаксическо-статистической модели языка
Модели, основанные на частях слов, (Particle-based models) используются для
языков с богатой морфологией, например, флективных языков [Vaiˇciu¯nas 2006]. В
этом случае слово w разделяется на некоторое число (L(w)) частей (морфем) с
помощью функции U : w ! u1; u2; : : : ; uL(w); ui 2 , где – это набор частиц слова.
Существует два типа методов разделения слов на морфемы: словарные и
алгоритмические [Kurimo 2009]. Преимуществом алгоритмических методов является то, что они
опираются лишь на анализ текста и не используют никаких дополнительных знаний,
что позволяет анализировать текст на любом языке, но при этом слова разбиваются
на псевдоморфемные единицы. Преимуществом словарных методов является то, что
они позволяют получить правильное разбиение слов на морфемы, что может быть
использовано далее на уровне пост-обработки гипотез распознавания фраз.</p>
      <p>Еще одной моделью, которая может быть использована для языков с богатой
морфологией, является факторная модель языка (ФМЯ), которая впервые была
предложена в работе [Bilmes 2003] для моделирования арабского языка. Эта модель
объединяет различные признаки слова (факторы), при этом слово представляется
как вектор k факторов Yi = (Fi1; Fi2; : : : ; Fik). В качестве факторов могут
использоваться: словоформа, часть речи, основа, корень слова и другие морфологические и
грамматические признаки.</p>
      <p>Модель языка может быть построена на базе искусственных нейронных сетей,
в частности для данной задачи успешно используются рекуррентные ИНС (РИНС),
которые в первые были предложены в работе [Elman 1990]. Применение РИСН для
моделирования языка представлено в работе [Mikolov 2010]. Преимущество данной
модели состоит в том, что скрытый слой хранит весь контекст, предшествующий
рассматриваемому слову. Сеть имеет входной слой, скрытый слой (также называемый
контекстным слоем или состоянием) и выходной слой. Выходной слой после
обучения нейронной сети представляет собой вероятностное распределение следующего
слова при данном предыдущем слове и состоянии скрытого слоя в предшествующий
временной шаг. Размер скрытого слоя обычно выбирается эмпирически.</p>
      <p>В данной статье приведено описание процесса создания факторной и
нейросетевой модели для русского языка и применения таких моделей на этапе переоценки
лучших гипотез распознавания (N-best list) в системах автоматического
распознавания слитной речи.
3</p>
      <p>Триграммная модель русского языка
В ходе нашего исследования для создания моделей языка был собран и
автоматически обработан текстовый корпус, сформированный из интернет-сайтов ряда
электронных газет. Общий объем собранного корпуса после его обработки составил
свыше 350 млн словоупотреблений, корпус содержит около 1 млн уникальных
словоформ [Kipyatkova 2010]. Данный корпус был использован для обучения как
базовой (триграммной) модели языка, так и факторных и нейросетевых моделей. Для
создания триграммной модели языка использовался пакет программных средств
SRILM [Stolcke 2011]. В ходе предыдущих экспериментов по автоматическому
распознаванию слитной русской речи с применением различных моделей языка было
определено, что наименьшее количество неправильно распознанных слов
достигается при применении модели языка со словарем 150 тыс. словоформ [Kipyatkova 2013].
Оценка созданной модели языка (определение коэффициента неопределенности)
осуществлялась по текстовому корпусу, в который вошли материалы интернет-газеты,
не используемой в обучающем корпусе. Коэффициент неопределенности
триграммной модели языка был равен 553.
4</p>
      <p>Факторная модель русского языка
Морфологический анализ обучающего текстового корпуса производился с помощью
программы “VisualSynan” проекта АОТ [Sokirko 2004]. В работе были использованы
5 лингвистических факторов: словоформа, лемма, основа, часть речи, метка
морфологических признаков. Таким образом, все слова в обучающем текстовом корпусе
были заменены на факторы. Например, словоформа “схеме” была заменена на
следующую последовательность факторов: “W-схеме L-схема S-схем P-сущ M-bc”, где
W – словоформа, L – лемма, S – основа, P – часть речи, M – метка
морфологических признаков, содержащая всю грамматическую информацию о слове (в данном
примере она означает, что словоформа является существительным женского рода в
единственном числе и дательном падеже). По обучающему текстовому корпусу были
созданы двухфакторные модели, включающие словоформу и один из других
перечисленных выше факторов.</p>
      <p>При создании статистических моделей языка для решения проблемы
недостатка обучающих данных используется методика возврата (back-off) [Moore 2001], суть
которой состоит в том, что, когда некоторая n-грамма отсутствует в обучающем
текстовом корпусе или частота ее появления очень низкая, то вместо нее используется
вероятность (n-1)-граммы, умноженная на коэффициент возврата. В n-граммных
моделях возврат осуществляется путем отбрасывания сначала наиболее дальнего
слова, затем второго по дальности слова и т.д. Для факторных моделей языка с двумя
факторами возможны два варианта пути возврата: 1) сначала опускаются дальняя
словоформа и фактор, затем – ближняя словоформа и фактор (см. рис. 2а); 2)
сначала опускаются словоформы в порядке их удаленности от рассматриваемой, а затем
факторы в том же порядке (см. рис. 2б). Подробно процесс создания факторной
модели русского языка описан в работе [Kipyatkova 2015a].
Рис. 2: Фиксированные пути возврата ФМЯ с факторами слово и лемма: а) первый
путь возврата; б) второй путь возврата.</p>
      <p>В таблице 1 показаны коэффициенты неопределенности для созданных ФМЯ. У
моделей, имеющих путь возврата 1, значение коэффициента неопределенности
оказалось меньше независимо от используемых факторов. Наименьшее значение
коэффициента неопределенности имеет модель с факторами “словоформа” и “лемма”,
имеющая путь возврата 1.
5</p>
      <p>Нейросетевая модель русского языка
Обучение РИНС осуществлялось с помощью свободно доступного
программного модуля RNNLM toolkit (Recurrent Neural Network Language Modeling Toolkit)
[Mikolov 2010]. Для сокращения скорости обучения нейронной сети была
выполнена факторизация выходного слоя. Слова были разбиты на классы в соответствии с
их частотой. Вначале вычислялось распределение вероятности для классов, затем –
распределение вероятности для слов, которые относятся к соответствующему
классу. Были созданы модели с числом элементов в скрытом слое, равном 100, 300 и
Таблица 1: Коэффициенты неопределенности ФМЯ
500 и числом классов, равном 100 и 500 [Kipyatkova 2015b]. Значения коэффициента
неопределенности для созданных моделей представлены в таблице 2.
Таблица 2: Коэффициенты неопределенности для нейросетевых моделей русского
языка
Количество классов
Исследование статистических моделей языка для
распознавания слитной русской речи
Акустические модели, в качестве которых использовались лево-правые скрытые
марковские модели с тремя состояниями, создавались с помощью инструментария HTK
(Hidden Markov Model Toolkit) [Young 2009] по речевому корпусу слитной русской
речи, содержащему записи 50 дикторов – носителей русского языка. Общий объем
корпуса составляет 13,5 Гб, длительность записей – более 21 ч. Для тестирования
системы распознавания речи использовался корпус, содержащий 100 слитно
произнесенных фраз, взятых из материалов интернет-газеты “Фонтанка.ru”. Каждая фраза
была произнесена 5 дикторами. Длина каждого предложения составляет от 6 до 20
слов. Сессия записи для каждого диктора длилась от 20 до 40 мин, при этом чистая
речь составила 15-30 мин. Общий объем тестового корпуса – 200 Мб аудиоданных.
Система автоматического распознавания слитной русской речи была построена на
основе декодера Julius 4.2 [Lee 2009]. Оценка работы системы распознавания
проводилась по критерию качества распознавания речи с использованием показателя
процента неправильно распознанных слов в речи (WER Word Error Rate). На
этапе декодирования речи применялась триграммная модель языка, при этом
было получено WER=26,54%, и были созданы списки лучших гипотез распознавания
с числом гипотез, равным 10, 20, 50. Затем была выполнена переоценка гипотез с
использованием созданных факторных и нейросетевых моделей языка.</p>
      <p>В таблице 3 представлены результаты распознавания, полученные после
переоценки списков лучших гипотез распознавания факторной моделью языка, а также
факторной моделью, интерполированной с базовой моделью языка с разными
коэффициентами интерполяции. Под интерполяцией моделей языка понимается линейная
комбинация вероятностей слов, полученных от разных моделей, с учетом весовых
коэффициентов каждой модели. Коэффициент интерполяции, равный 1, означает, что
использовалась только факторная модель языка.
Таблица 3: Количество неправильно распознанных слов (WER, %) после переоценки
списков лучших гипотез распознавания ФМЯ
Наименьший процент неправильно распознанных слов (WER=24,44%) был
получен при переоценке списка из 20 гипотез факторной моделью, в которой в качестве
факторов использовались словоформа и морфологический таг, созданной с путем
возврата 1, интерполированной с триграммной моделью.</p>
      <p>Для экспериментов по применению нейросетевых моделей языка использовались
те же списки лучших гипотез распознавания, что и для экспериментов с
факторными моделями. Также была выполнена интерполяция нейросетевых и триграммных
моделей языка. Полученные результаты представлены в таблице 4.</p>
      <p>Из таблицы видно, что применение нейросетевой модели языка позволило
сократить ошибку распознавания слов за исключением применения РИНС со 100
элементами в скрытом слое без интерполяции с триграммной моделью. Использование РИНС
с числом классов, равным 100, дало лучшие результаты распознавания, чем
применение РИНС с числом классов, равным 500. Наилучший результат (WER=22,87%) был
получен при применении модели языка на основе РИНС с 500 элементами в скрытом
слое и числом классов, равным 100, интерполированной с триграммной моделью с
коэффициентом интерполяции, равным 0,5.
7</p>
      <p>Заключение
Проведено исследование трех типов статистических моделей русского языка
(триграммной, факторной и неросетевой) для систем автоматического распознавания
слитной русской речи. Преимущество ФМЯ по сравнению со статистическими
nграммными моделями состоит в том, что в модель языка включается дополнительная
лингвистическая информация, что позволяет повысить качество распознавания речи
для языков с богатой морфологией, в том числе и русского. Преимуществом моделей
на базе РИНС является то, что они могут хранить языковой контекст
произвольТаблица 4: Количество неправильно распознанных слов (WER, %), полученное после
переоценки различных списков N лучших гипотез
ной длины. Проведенные эксперименты по распознаванию слитной русской речи, в
которых разработанные факторные и нейросетевые модели использовались на этапе
переоценки лучших гипотез распознавания, показали, что применение таких моделей
позволяет снизить процент неправильно распознанных слов. При этом относительное
уменьшение количества неправильно распознанных слов составило 8% при
использовании факторной модели и 14% – при использовании нейросетевой модели языка
по сравнению с результатами, полученными при применении триграммной модели
языка.
8</p>
      <p>
        Благодарности
Работа выполнена при финансовой поддержке фонда РФФИ (проекты № 18-07-01216
и 18-07-01407) и Совета по грантам Президента РФ (проекты № МК-1000.2017.8 и
МД-254.2017.8).
Список литературы
[Kipyatkova 2010] Kipyatkova, I.S., Karpov, A.A. (
        <xref ref-type="bibr" rid="ref11">2010</xref>
        ). Avtomaticheskaja obrabotka
i statisticheskij analiz novostnogo tekstovogo korpusa dlja modeli jazyka sistemy
raspoznavanija russkoj rechi [Automatic Processing and Statistic Analysis of News
Text Corpus for a Language Recognition System Model of Russian Speech].
Informacionno-upravljajushhie sistemy [Information-control Systems], № 4(47). Pp.
2–8 (In Russian) = Кипяткова И.С., Карпов А.А. Автоматическая обработка и
статистический анализ новостного текстового корпуса для модели языка
системы распознавания русской речи // Информационно-управляющие системы, №
4(47), 2010. С. 2–8.
      </p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          [Protasov 2008] Protasov,
          <string-name>
            <surname>S.V.</surname>
          </string-name>
          (
          <year>2008</year>
          ).
          <article-title>Vyvod i ocenka parametrov dal'nodejstvujushhej trigrammnoj modeli jazyka [Inference and Estimation of a Long-Range Trigram Model]</article-title>
          .
          <source>Materialy mezhdunarodnoj konferencii “Dialog</source>
          <year>2008</year>
          ”[Proceedings of International Conference “Dialog 2008”]. S.
          <volume>444</volume>
          -
          <fpage>448</fpage>
          (in Russian) =
          <article-title>Протасов С</article-title>
          .В.
          <article-title>Вывод и оценка параметров дальнодействующей триграммной модели языка</article-title>
          .
          <source>Ма- териалы международной конференции “Диалог</source>
          <year>2008</year>
          ”. Москва,
          <year>2008</year>
          . С.
          <volume>444</volume>
          -
          <fpage>448</fpage>
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          [Sokirko 2004]
          <string-name>
            <surname>Sokirko</surname>
            ,
            <given-names>A.V.</given-names>
          </string-name>
          (
          <year>2004</year>
          ).
          <article-title>Morfologicheskie moduli na sajte www.aot.ru [Morphological modules on the website www</article-title>
          .aot.ru].
          <source>Trudy Mezhdunarodnoj konferencii “Dialog-2004”[Proceedings of International Conference “Dialog</source>
          <year>2004</year>
          ”]., pp.
          <fpage>559</fpage>
          -
          <lpage>564</lpage>
          (in Russin) =
          <article-title>Сокирко А</article-title>
          .В.
          <article-title>Морфологические модули на сайте www</article-title>
          .aot.ru // Труды Международной конференции “Диалог-2004”,
          <year>2004</year>
          . С.
          <volume>559</volume>
          -
          <fpage>564</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          [Bilmes 2003]
          <string-name>
            <surname>Bilmes</surname>
            <given-names>J. A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kirchhoff</surname>
            <given-names>K.</given-names>
          </string-name>
          (
          <year>2003</year>
          )
          <article-title>Factored language models and generalized parallel backoff // Proceedings of Conference of the North American Chapter of the Association for Computational Linguistics on Human Language Technology</article-title>
          , Stroudsburg, PA, USA,
          <year>2003</year>
          , Vol.
          <volume>2</volume>
          . Pp.
          <volume>4</volume>
          <fpage>6</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          [Elman 1990] Elman,
          <string-name>
            <given-names>J.L.</given-names>
            <surname>Finding</surname>
          </string-name>
          (
          <year>1990</year>
          ) Structure in Time // Cognitive Science,
          <year>1990</year>
          , Vol.
          <volume>14</volume>
          . Pp.
          <volume>179</volume>
          <fpage>211</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          [Karpov 2014]
          <article-title>Karpov A</article-title>
          .,
          <string-name>
            <surname>Markov</surname>
            <given-names>K.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kipyatkova</surname>
            ,
            <given-names>I.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Vazhenina</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ronzhin</surname>
            <given-names>A.</given-names>
          </string-name>
          (
          <year>2014</year>
          )
          <article-title>Large vocabulary Russian speech recognition using syntactico-statistical language modeling</article-title>
          // Speech Communication,
          <year>2014</year>
          , Vol.
          <volume>56</volume>
          . Pp.
          <volume>213</volume>
          -
          <fpage>228</fpage>
          :http://dx.doi.org/10.1016/j.specom.
          <year>2013</year>
          .
          <volume>07</volume>
          .004.
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          [Kipyatkova 2013]
          <string-name>
            <surname>Kipyatkova</surname>
            <given-names>I.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Karpov</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          (
          <year>2013</year>
          )
          <article-title>Lexicon Size and Language Model Order Optimization for</article-title>
          Russian LVCSR // Springer International Publishing Switzerland. M.
          <string-name>
            <surname>Zelezny</surname>
          </string-name>
          et al. (Eds.):
          <source>SPECOM</source>
          <year>2013</year>
          , LNAI 8113.
          <year>2013</year>
          . Pp.
          <volume>219</volume>
          -
          <fpage>226</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          [Kipyatkova 2015a]
          <string-name>
            <surname>Kipyatkova</surname>
            <given-names>I. Karpov A</given-names>
          </string-name>
          .
          <article-title>(2015a) Development of Factored Language Models for Automatic Russian Speech Recognition // Компьютерная лингвистика и интеллектуальные технологии: По материалам ежегодной Международной кон- ференции ¾Диалог¿ (Москва, 27 30 мая 2015 г</article-title>
          .)[
          <article-title>Computational linguistics and intelligent technologies:</article-title>
          <source>Proceedings of International Conference “Dialog” (Moscow</source>
          ,
          <fpage>27</fpage>
          -
          <lpage>30</lpage>
          may
          <year>2015</year>
          ].,
          <string-name>
            <surname>Вып</surname>
          </string-name>
          .
          <volume>14</volume>
          ,
          <string-name>
            <surname>Москва</surname>
            , 2015a,
            <given-names>C.</given-names>
          </string-name>
          234-
          <fpage>246</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          [Kipyatkova 2015b]
          <string-name>
            <surname>Kipyatkova</surname>
            <given-names>I. Karpov A</given-names>
          </string-name>
          .
          <article-title>(2015b) Recurrent Neural Network-based Language Modeling for an Automatic Russian Speech Recognition System /</article-title>
          / Proceedings of International Conference
          <string-name>
            <surname>AINL-ISMW</surname>
            <given-names>FRUCT</given-names>
          </string-name>
          ,
          <year>2015b</year>
          . Pp.
          <volume>33</volume>
          -
          <fpage>38</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>[Kurimo 2009] Kurimo</surname>
            <given-names>M.</given-names>
          </string-name>
          , Hirsim¨aki T.,
          <string-name>
            <surname>Turunen</surname>
            <given-names>V.T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Virpioja</surname>
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Raatikainen</surname>
            <given-names>N.</given-names>
          </string-name>
          (
          <year>2009</year>
          )
          <article-title>Unsupervised decomposition of words for speech recognition and retrieval //</article-title>
          <source>Proceedings of 13-th International Conference "Speech and Computer"SPECOM'</source>
          <year>2009</year>
          , St. Petersburg,
          <year>2009</year>
          . Pp.
          <volume>23</volume>
          -
          <fpage>28</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <source>[Lee</source>
          <year>2009</year>
          ]
          <article-title>Lee A</article-title>
          .,
          <string-name>
            <surname>Kawahara</surname>
            <given-names>T.</given-names>
          </string-name>
          (
          <year>2009</year>
          )
          <article-title>Recent Development of Open-Source Speech Recognition Engine Julius //</article-title>
          <source>Proceedings of Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC</source>
          <year>2009</year>
          ).
          <year>2009</year>
          . Pp.
          <volume>131</volume>
          <fpage>137</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          [Mikolov 2010]
          <string-name>
            <surname>Mikolov</surname>
            <given-names>T.</given-names>
          </string-name>
          , Karafia´t
          <string-name>
            <given-names>M.</given-names>
            ,
            <surname>Burget</surname>
          </string-name>
          <string-name>
            <given-names>L.</given-names>
            , Cˇernocky´ J.,
            <surname>Khudanpur</surname>
          </string-name>
          <string-name>
            <surname>S.</surname>
          </string-name>
          (
          <year>2010</year>
          )
          <article-title>Recurrent neural network based language model /</article-title>
          / Proceedings of INTERSPEECH'
          <year>2010</year>
          .
          <year>2010</year>
          . Pp.
          <volume>1045</volume>
          <fpage>1048</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          [Mikolov 2011]
          <string-name>
            <surname>Mikolov</surname>
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kombrink</surname>
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Deoras</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Burget</surname>
            <given-names>L.</given-names>
          </string-name>
          , Cˇernocky´ J. (
          <year>2011</year>
          ) RNNLM - Recurrent
          <source>Neural Network Language Modeling Toolkit // Proceedings of the 2011 ASRU Workshop</source>
          ,
          <year>2011</year>
          . Pp.
          <volume>196</volume>
          -
          <fpage>201</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          [Moore 2001]
          <string-name>
            <surname>Moore</surname>
            <given-names>G.L.</given-names>
          </string-name>
          (
          <year>2001</year>
          )
          <article-title>Adaptive Statistical Class-based Language Modelling</article-title>
          ,
          <source>PhD thesis</source>
          , Cambridge University,
          <year>2001</year>
          , -
          <fpage>193</fpage>
          p.
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          [Stolcke 2011]
          <article-title>Stolcke A</article-title>
          .,
          <string-name>
            <surname>Zheng</surname>
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Wang</surname>
            <given-names>W.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Abrash</surname>
            <given-names>V.</given-names>
          </string-name>
          (
          <year>2011</year>
          ) SRILM at Sixteen:
          <source>Update and Outlook // Proceedings of IEEE Automatic Speech Recognition and Understanding Workshop ASRU</source>
          '
          <year>2011</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          [Vaiˇciu¯nas 2006]
          <article-title>Vaiˇciu¯nas</article-title>
          <string-name>
            <surname>A.</surname>
          </string-name>
          (
          <year>2006</year>
          )
          <article-title>Statistical Language Models of Lithuanian and Their Application to Very Large Vocabulary Speech Recognition</article-title>
          .
          <source>PhD thesis</source>
          . Vytautas Magnus University. Kaunas. -
          <volume>35</volume>
          с.
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          [Young 2009]
          <string-name>
            <surname>Young</surname>
            ,
            <given-names>S.</given-names>
          </string-name>
          et al. (
          <year>2009</year>
          ).
          <article-title>The HTK Book (for HTK Version 3</article-title>
          .4). Cambridge, UK. -
          <volume>375</volume>
          p.
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>