<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Интеграционный подход распознавания зашумленной русскоязычной речи</article-title>
      </title-group>
      <contrib-group>
        <aff id="aff0">
          <label>0</label>
          <institution>Integration approach for automatic speech recognition of noisy Russian language Daniil Gomonyuk, Igor Nikiforov, Dmitry Drobintsev Higher School of Software Engineering Peter the Great St. Petersburg Polytechnic University St. Petersburg</institution>
          ,
          <country country="RU">Russia</country>
        </aff>
      </contrib-group>
      <abstract>
        <p>Аннотация-Исследовательская работа посвящена методам автоматического преобразования аудиозаписей в текстовый формат - распознаванию речи. В частности, особое внимание уделено распознаванию зашумленной русской речи. В работе предоставления обзор существующих методов распознавания, которые включают "интегральные"и "гибридные"методы. Приведен сравнительный обзор существующих реализаций рассмотренных методов и их метрики. На основе сравнительного анализа делается вывод, что технология "Mozilla DeepSpeech"наиболее мощный инструмент распознавания. Отличительной особенностью работы является использование комбинированного метода распознавания, который позволяет улучшить качество распознавания зашумленной речи. Комбинированный метод объединяет в себе "интегральные"и "гибридные"методы. Предлагаемый подход реализован в программном средстве для распознавания зашумленной русской речи с использованием технологии "Mozilla DeepSpeech". Результаты показывают эффективность предложенного подхода. Разработанное программное средство может быть использовано компаниям в целях снижения трудозатрат при осуществлении технической поддержки заказчиков. Ключевые понятия-распознавание речи, зашумленная речь, аудиозапись, Mozilla DeepSpeech, Baidu, Kaldi Инновационные подходы и технологии с каждым днем все больше и больше интегрируются в устоявшихся годами сферах жизнедеятельности человека. Не является исключением и применение методов машинного обучения для распознавания аудиозаписей. Так, например, распознавание речи по аудиозаписям позволяет повысить эффективность служб клиентской поддержки, даёт возможность проводить аналитику звонков [1], избегая проблем с соблюдением закона “О персональных данных”, так как II. Технологии распознавания речи, основанные на зачастую в аудио-звонках упоминается конфиденциальная нейронных сетях информация [2]. Ниже перечислены две основные группы Существует большое количество инструментов и техметодов: основанные на применении скрытых марковских нологий распознавания речи, основанные на нейронных моделей и методы, основанные на нейронных сетях. сетях. К ведущим решениям с открытым исходным кодом Описание методов, основанных на применении скрытых можно отнести Mozilla DeepSpeech и Kaldi. Все методы марковских моделей (далее СММ), можно найти, напри- делятся на две группы: интегральные и гибридные. Гибридмер, в работе [3]. Инструменты на основе этих методов ные решения состоят из множества отдельных компоненочень точны, но требуют составления словаря, соотнося- тов, ошибка в одном компоненте может привести к прощего слово и его фонемы (например слово “ноль” разби- блемам в других и повлиять на общий результат (качество вается на фонемы “n” “oo” “ll”). Такая система не сможет распознавания). Создание гибридных решений сложнее,</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>распознать слово которого нет в словаре, но чем больше
количество слов, входящих в словарь, тем больше
вероятность ошибки, так как выбор слова из словаря становиться
неоднозначнее. Такие инструменты подходят для
распознавания заранее известных фраз, например речевых команд,
но они не эффективны при распознавании спонтанной
речи. Одной из систем, реализующих рассматриваемый
метод, является CMUSphinx.</p>
      <p>
        Методы, основанные на нейронных сетях, можно
разделить на "интегральные"и "гибридные"[
        <xref ref-type="bibr" rid="ref3">4</xref>
        ] методы. Несмотря
на то, что они подходят для распознавания спонтанной
речи, они не избавлены от недостатков:
• качество распознавания во многом зависит от
качества исходной аудиозаписи, что накладывает высокие
требования на качество исходной аудиозаписи;
• отсутствие универсальных методов и реализующих их
библиотек. Зачастую для каждой конкретной задачи
необходимо создавать свое собственное решение;
• для каждого языка (например, русского, английского,
китайского), приходится проводить дополнительную
настройку систем распознавания.
Поэтому актуальной является задача создания такого
метода, который бы позволял снизить влияние
перечисленных недостатков и повысить эффективность и качество
распознавания речи. Важно отметить еще и то, что на
текущий день существует малое количество работ,
специализирующихся на распознавании зашумленной русской
речи.
      </p>
      <p>Целью настоящей работы является разработка
интеграционного метода распознавания русской речи при наличии
шума.</p>
      <p>
        Таблица I
Сравнение различных моделей распознавания речи [
        <xref ref-type="bibr" rid="ref3">4</xref>
        ]
Модель Технология
      </p>
      <p>Гибридные СММ/ИНС модели</p>
      <p>CNN Torch7
Kaldi-dnn5b-pretrain-dbn-dnn-smbr recipe Kaldi</p>
      <p>CTC модели
RNN-CTC + Kaldi + trigram LM Kaldi</p>
      <p>LSTM-CTC + trigram LM Eesen</p>
      <p>Шифратор-дешифратор модели
CNN + RNN + CTC Baidu</p>
      <p>CNN + ASG Torch7,Baidu</p>
      <p>WSJ (Nov’92)
WSJ (Nov’92)
WSJ (Nov’92)
WSJ (Nov’92)
WSJ (Nov’92)</p>
      <p>LibriSpeech
Речевой корпус</p>
      <p>WER %
чем создание решений, основанных на интегральном
подходе: каждый компонент системы необходимо подбирать и
настраивать под конкретную задачу. Интегральный метод
заключается в создании одной нейронной сети, которая не
нуждается в других компонентах, таких как акустическая
или языковая модели К недостаткам такой модели можно
отнести большой размер обучающей выборки.</p>
      <p>Проведём сравнительный анализ различных моделей
для распознавания речи, по трём основным группам:
гибридные СММ/ИНС модели, CTC-модели,
шифраторIII. Сравнительный анализ существующих реализаций дешифратор модели на основе механизма внимания.
Возьсистем автоматизированного распознавания речи мём только две лучше модели в каждой группе по
показателю WER.</p>
      <p>
        A. Метрики оценки систем автоматизированного распо- Гибридные СММ/ИНС модели состоят из блока
скрызнавания речи тых марковских моделей(СММ) определяющего наиболее
Корректная оценка результатов работы систем автома- вероятную последовательность фонем и блока
искусствентизированного распознавания речи (англ. automatic system ной нейронной сети(ИНС), которая вычисляет вероятность
recognision, далее ASR системы), и как следствие воз- последовательности полученную от СММ.
можность корректно сравнить разные ASR системы, имеет CTC (Connectionist Temporal Classification) позволяет
большое значение как для конечных пользователей, так и моделям рекуррентных нейронных сетей обучаться без
надля разработчиков таких систем. В данной работе пред- чального выравнивания звуковой дорожки и транскрипции.
ставленные метрики будут использоваться не только для Шифратор-дешифратор модели используются для
засравнения систем, но и для оценки конечного результата дач, где длины входной и выходной последовательностей
работы предложенного метода. Для ASR систем существу- являются переменными. Шифратор это нейронная сеть,
ет две основные группы метрик оценивания [
        <xref ref-type="bibr" rid="ref4">5</xref>
        ]: которая выделяет признаки из входного сигнала в
промежуточное представление. Дешифратор это рекуррентная
• метрики точности распознавания; нейронная сеть, которая использует промежуточное
пред• метрики скорости распознавания. ставление для генерации выходных последовательностей.
Основным способом оценки точности распознавания яв- Для сравнения моделей были использованы два
ляются метрики, основанные на расстоянии Левенштейна набора англоязычных аудиозаписей WSJ(Nov’92)[
        <xref ref-type="bibr" rid="ref6">7</xref>
        ] и
[
        <xref ref-type="bibr" rid="ref5">6</xref>
        ]. Расстояние Левенштейна — это метрика, опреде- LibriSpeech[
        <xref ref-type="bibr" rid="ref7">8</xref>
        ]. Оба этих набора являются стандартами
ляющая разницу между двумя символьными последова- для тестирования англоязычных ASR.
тельностями. Она рассчитывается как количество опера- Как можно увидеть из Таблицы I. однозначными
лидеций удаления, вставки и замены преобразовывающих одну рами по показателю WER являются технологии Kaldi и
последовательность символов в другую. Наиболее распро- Baidu. Далее мы будем использовать их реализации: vosk
страненными метриками, основанными на расстоянии Ле- - реализацию Kaldi для русского языка и DeepSpeech
венштейна, являются WER - количество ошибочных слов в открытый проект компании Mozilla реализующий
технопредложении и SER количество ошибочных предложений. логию Baidu.
      </p>
      <p>Важным параметром любой системы является скорость Даже на этой небольшой выборке видно насколько
обее работы. Для ASR метрикой, на основе которой вычис- ширно количество способов настройки моделей
машинноляется скорость работы, является метрика SF(RT). Она го обучения, и на сколько сильно отличаются показатели
считается как отношение скорости обработки аудиофайла качества даже в рамках одной технологии. Кроме того, ни
к длительности этого аудиофайла. К примеру, если файл одна из этих систем не проводит анализ распознанного
длительность в одну минуту обрабатывается тридцать се- текста, так как единицей их работы являются морфемы
кунд, то SF = 0.5. т.е. звуки. Предложенный интеграционный метод
предполагает получение результатов от нескольких разных
ASRсистем, и проводит коррекцию ошибок основываясь на
результатах других ASR, подбирает наиболее вероятные
слова там, где распознание не удалось. Выбор из
полученных вариантов может произвести оператор-человек или
система контекстного анализа.</p>
      <p>Другими словами, предлагается сделать ансамбль ASR
систем с коррекцией ошибок.</p>
      <p>IV. Интеграционный подход распознавания зашумленной</p>
      <p>речи
A. Описание метода</p>
      <p>
        Основные этапы предложенного подхода: проводится
очистка аудиозаписи от шумов, после этого выполняется
ее распознавание с помощью нескольких разных систем
автоматического распознавания речи. Полученные
результаты составят список наиболее вероятных гипотез
(NBest-List)[
        <xref ref-type="bibr" rid="ref11">12</xref>
        ], выбор из которых может произвести либо
оператор-человек, либо система контекстного анализа.
      </p>
      <p>Рис. 1. Cтруктурная схема предлагаемого подхода
На вход программной системы передается аудиозапись,
после прохождения нескольких этапов на выходе
пользователь системы получает наиболее вероятное предложение.</p>
      <p>Первый этап, предобработка аудио. Аудиозапись
приводится к заданному формату с конкретной частотой
дискретизации. Затем производится очистка от шумов, например
с помощью быстрого преобразования Фурье (далее БПФ).
Очищенная от шумов аудиозапись разбивается на более
мелкие по паузам, тем самым решается несколько
проблем: во-первых, мы заранее знаем где были паузы - т.е.
законченные мысли и можем это использовать при выдаче
конечного результата, во-вторых, мы частично избежим
проблемы смешения дикторов.</p>
      <p>Второй этап, распознавание аудио. Полученные
аудиозаписи помещаются в базу данных и маркируются как
относящиеся к одному тексту. Каждая аудиозапись
отправляется параллельно во все системы ASR, на
выходе которых мы получаем варианты распознанной фразы.
После обработки всех аудиозаписей и получения наборов
распознанных фраз можно приступать к анализу текстов.</p>
      <p>Третий этап, коррекция ошибок. Сначала мы
исправляем ошибки в каждой фразе - сравнивая её с вариантами от
других ASR, и составляем наиболее полное предложение.
Затем в этом предложении проводится обработка
последовательностей, разделенных пробелами - мы определяем
является ли последовательность словом, если нет, то какие
варианты слов из алфавита могут ей соответствовать. Если
последовательность невозможно распознать она
маркируется спецсимволом MASK.</p>
      <p>Четвертый этап, коррекция ошибок на основе контекста.
На данном этапе с помощью ручного или автоматического
анализа контекста выявляется, составляют ли полученные
фразы осмысленный текст. Автоматический анализ
контекста предлагается производить с помощью BERT.</p>
      <p>B. Алгоритм</p>
      <p>Предложенный метод призван уменьшить количество
ошибок и как следствие повысить качество
распознавания речи. Сделать это предлагается за счет уменьшения
пространства всех возможных фраз, путем использования
нескольких распознающих систем и получения нескольких
возможных вариантов фраз, из которых и будет
производится дальнейший выбор.</p>
      <p>Полученные фразы должны быть сопоставлены,
выявление наиболее вероятных вариантов фраз происходит по
следующему алгоритму (описан для трех систем).</p>
      <p>• проверяем не состоит ли фраза из одного слова;
• удаляем все пробельные символы и определяем
является ли получившийся результат словом с заданным
редакционным расстоянием;
• если предыдущий пункт верен, обработку можно
счи</p>
      <p>тать завершенной.</p>
      <p>Все три варианта фразы сортируются по следующим
параметрам:
• совпадения количества пробельных символов у
нескольких фраз, это свидетельствует о правильном
определении границ слов;
• совпадения длины строки;
• по количеству точно распознанных слов (сколько слов</p>
      <p>из фразы есть в словаре);
• по приоритету ASR, если по какой-то причине мы</p>
      <p>доверяем одной из ASR больше.</p>
      <p>После сортировки принимаем первую фразу за
истинную. Выравниваем фразы, по совпадающим словам,
заменяя пробелы вокруг совпавших слов на спецсимволы.
Таким образом мы получаем границы, правильно
распознанных участков.</p>
      <p>Промежутки, находящиеся внутри спецсимволов,
сравниваем по описанному выше алгоритму, не совпавшие
промежутки обозначаем как не распознанные. Если ни в одном
промежутке из группы нет хотя бы одного корректного
слова, помечаем этот диапазон как не распознанный.</p>
      <p>Таким образом, получаем лучшую из возможных
комбинацию результатов, в которой не распознанные
участки помечены спецсимволом MASK. Если предложение не
удалось распознать полностью, то фраза анализируется
с помощью BERT - анализатора контекста от компании
Google.</p>
      <p>C. Особенности очистки от шума</p>
      <p>Одной из задач, которую необходимо было решить в
рамках данной работы, является задача предобработки
звука и удаления шумов. Нам необходимо это сделать не
только для уменьшения вероятности ошибки, но и для
большей однородности записей.</p>
      <p>Есть два основных способа решения этой проблемы:
модели на основе рекуррентных нейронных сетей, и
различные алгоритмы спектрального анализа. В работе был
произведен сравнительный анализ двух инструментов,
реализующих эти подходы: RNNoise и ffmpeg.</p>
      <p>В рамка проекта ffmpeg разработан фильтр afftdn,
предназначенный для очистки аудио от шума. В основе этого
фильтра лежит алгоритм БПФ.</p>
      <p>RNNoise — это свободный инструмент, основанный на
рекуррентной нейронной сети с типом ячеек GRU. Модель
RNNoise обученная на различных видах шумов, пытается
анализировать аудиозапись и вычленять различные виды
шума.</p>
      <p>При практическом использовании оказалось, что фильтр
afftdn справляется с задачей лучше RNNoise, и работает
быстрее, поэтому для очистки шумов был выбран именно
он.</p>
      <p>D. Реализация подхода</p>
      <p>Для реализации предложенного подхода разработана
программная система, отвечающая следующим
требованиям:
1) возможность встраивания новых процедур для
обра</p>
      <p>ботки аудиозаписи;
2) возможность параллельного распознавания
аудиозаписей с помощью ASR, следовательно необходима
возможность одновременного использования одного
аудио файла;
3) удобство использования и замены разных ASR
ис</p>
      <p>пользующих разные библиотеки;
4) предоставление кроссплатформенного интерфейса</p>
      <p>для работы с системой.</p>
      <p>Для обеспечения перечисленных требований
используется ансамбль докер контейнеров, задачи которым
устанавливаются через REST-API сервис, который выступает
интерфейсом для внешних пользователей и выполняет
функцию брокера задач используя очередь задач.</p>
      <p>REST-API сервис реализует архитектуру приложения
“Клиент-Сервер“, тем самым обеспечивает
кроссплатформенность системы. Использование REST-сервиса
предоставляет широкие возможности для клиентских
приложений. Клиентское приложение может быть написано под
практически любую операционную систему, под
практически любую платформу (включая мобильную), и
практически на любом языке программирования. Вместо
аутентификации пользователя REST-API сервис реализует простой
способ защиты данных пользователей. При загрузке файла
клиент получает уникальный ключ, полученный на основе
переданной аудиозаписи, вычисленный с использованием
хеш-функции. Результат распознавания предоставляется
в ответ на получение этого ключа. Для предотвращения
перехвата ключа, связь между клиентом и сервером
реализована через протокол HTTPS.</p>
      <p>Для того чтобы повысить отклик программной системы
каждый из перечисленных сервисов должен иметь
возможность обрабатывать аудиозаписи независимо. Это сложно
реализовать при обработке всей аудиозаписи целиком,
поэтому решено разбивать аудиозапись на меньшие отрезки
ориентируясь на паузы в речи. По умолчанию, разбиение
осуществляется на группы, в которых встречается 100 пауз
по 2 секунды. Эти два параметра (длина интервала паузы
и количество пауз) настраивается в системе для гибкого
конфигурирования и получения наилучшего качества
распознавания. Чтобы сервисы имели возможность
одновременно работать с одним и тем же участком аудиофайла
каждый участок загружается в сервис хранения файлов
откуда любой другой сервис может его получить.
Разбиение позволило не только использовать независимость
сервисов, но и снизило время ожидания пользователем
первого предложения. Независимость работы всех компонентов
позволила использовать все ASR-системы одновременно,
тем самым обеспечив параллельность системы на этапе
распознавания аудиозаписи.</p>
      <p>В качестве конкретных инструментов для реализации
были выбраны:
1) язык разработки - Python3.6;
2) очередь задач - Redis;
3) сервис конвертации и очистки от шума - ffmpeg;
4) сервис диаризации - pyAudioAnalysis;
5) сервис хранения файлов - Scality S3;
6) сервисы ASR - Kaldi, DeepSpeech, CMUSphinx.</p>
      <p>Результаты работы программной системы были оценены
по показателям WER и SF, описанных в пункте III-A.
Тестовые записи, взятые из набора русскоязычных аудио
open_stt, обладают следующими характеристиками:
• 17Мб;
• 128 Kbit/sec;
• 3% шума.
Замеренные показатели сравнивались со средним
значением трех ASR систем, лежащих в основе программной
системы. На проверочном наборе данных предложенная
система показала ухудшение по показателю SF в среднем
на 27%. Другими словами, программная система работает
медленнее, что объясняется большим количеством
компонентов. По показателю WER программная система
показала результаты лучше на 7%, снизив количество ошибок
за счет контекстного анализа.</p>
      <p>V. Заключение
В работе приведен обзор методов преобразования
аудиозаписей в текст. Проведен сравнительный анализ
существующих реализаций для рассмотренных методов, на
основе которого сделан вывод что интегральные системы
пока что немного уступают в точности распознавания
гибридным СММ/ИНС моделям.</p>
      <p>Представлен интеграционный подход, который
комбинирует различные ASR с системами улучшения аудио и
обработкой текста.</p>
      <p>Приведены детали реализации и проведен анализ
результатов по двум метрикам качества, который показывает
выигрыш используемого метода над существующими
подходами.</p>
      <p>Список литературы</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <article-title>[1] Using the Doc2Vec Algorithm to Detect Semantically Similar Jira Issues in the Process of Resolving Customer Requests Kovalev</article-title>
          ,
          <string-name>
            <given-names>A.</given-names>
            ,
            <surname>Voinov</surname>
          </string-name>
          ,
          <string-name>
            <given-names>N.</given-names>
            ,
            <surname>Nikiforov</surname>
          </string-name>
          ,
          <string-name>
            <surname>I.</surname>
          </string-name>
          <year>2020</year>
          Studies in Computational Intelligence
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <source>[2] Федеральный закон от 27.07</source>
          .
          <year>2006</year>
          n 152
          <article-title>-фз (ред</article-title>
          .
          <source>от 31.12</source>
          .
          <year>2017</year>
          )
          <article-title>"О персональных данных"</article-title>
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          [4]
          <string-name>
            <surname>Марковников</surname>
          </string-name>
          , Н. М.,
          <source>и И. С. Кипяткова</source>
          .
          <article-title>Аналитический обзор интегральных систем распознавания речи</article-title>
          .
          <source>Труды СПИИРАН, т. 3</source>
          , вып. 58,
          <year>June 2018</year>
          , сс.
          <fpage>77</fpage>
          -
          <lpage>10</lpage>
          , doi:10.15622/sp.58.4.
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          [5]
          <string-name>
            <given-names>Карпов</given-names>
            <surname>Алексей</surname>
          </string-name>
          <string-name>
            <surname>Анатольевич</surname>
          </string-name>
          , Кипяткова Ирина Сергеевна.
          <article-title>"Мето- дология оценивания работы систем автоматического распознавания речи"Известия высших учебных заведений</article-title>
          .
          <source>Приборостроение</source>
          , vol.
          <volume>55</volume>
          , no.
          <issue>11</issue>
          ,
          <year>2012</year>
          , pp.
          <fpage>38</fpage>
          -
          <lpage>43</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          [6]
          <string-name>
            <given-names>Прытков</given-names>
            <surname>В.А</surname>
          </string-name>
          .
          <article-title>"Функция расстояния между строками на основе кусочно-постоянной модели"Доклады Белорусского государствен- ного университета информатики и радиоэлектроники</article-title>
          , no.
          <volume>4</volume>
          (
          <issue>74</issue>
          ),
          <year>2013</year>
          , pp.
          <fpage>22</fpage>
          -
          <lpage>28</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          [7]
          <string-name>
            <surname>Paul</surname>
          </string-name>
          , Douglas B. and
          <string-name>
            <surname>Janet</surname>
            <given-names>M.</given-names>
          </string-name>
          <string-name>
            <surname>Baker</surname>
          </string-name>
          . “
          <article-title>The design for the wall street journal-based CSR corpus</article-title>
          .”
          <source>ICSLP</source>
          (
          <year>1992</year>
          ).
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          [8]
          <string-name>
            <given-names>V.</given-names>
            <surname>Panayotov</surname>
          </string-name>
          ,
          <string-name>
            <given-names>G.</given-names>
            <surname>Chen</surname>
          </string-name>
          ,
          <string-name>
            <given-names>D.</given-names>
            <surname>Povey</surname>
          </string-name>
          and
          <string-name>
            <given-names>S.</given-names>
            <surname>Khudanpur</surname>
          </string-name>
          ,
          <article-title>"Librispeech: An ASR corpus based on public domain audio books,"</article-title>
          <source>2015 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)</source>
          , Brisbane,
          <string-name>
            <surname>QLD</surname>
          </string-name>
          ,
          <year>2015</year>
          , pp.
          <fpage>5206</fpage>
          -
          <lpage>5210</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          [9]
          <string-name>
            <surname>Makovkin</surname>
            <given-names>K.A.</given-names>
          </string-name>
          [
          <article-title>Hybrid models - Hidden Markov Models/Multilayer perceptron and their application in speech recognition systems</article-title>
          . Servey].
          <string-name>
            <surname>Rechevye</surname>
          </string-name>
          tehnologii - Speech
          <string-name>
            <surname>Technology</surname>
          </string-name>
          .
          <year>2012</year>
          . vol.
          <volume>3</volume>
          . pp.
          <fpage>58</fpage>
          -
          <lpage>83</lpage>
          . (In Russ.).
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          [10]
          <string-name>
            <surname>Markovnikov</surname>
            <given-names>N.M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kipyatkova</surname>
            <given-names>I.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Karpov</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Filchenkov</surname>
            <given-names>A</given-names>
          </string-name>
          .
          <article-title>Deep neural networks in Russian speech recognition</article-title>
          .
          <source>Proceedings of 2017 Artificial Intelligence and Natural Language Conference</source>
          .
          <year>2017</year>
          . pp.
          <fpage>54</fpage>
          -
          <lpage>67</lpage>
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          [11]
          <string-name>
            <surname>Levenshtein</surname>
            <given-names>V.I.</given-names>
          </string-name>
          <article-title>Binary codes capable of correcting deletions, insertions, and reversals</article-title>
          .
          <source>Soviet physics. Doklady</source>
          .
          <year>1996</year>
          . vol.
          <volume>10</volume>
          . pp.
          <fpage>707</fpage>
          -
          <lpage>710</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          [12]
          <string-name>
            <surname>Yen-Lu Chow</surname>
            and
            <given-names>Richard</given-names>
          </string-name>
          <string-name>
            <surname>Schwartz</surname>
          </string-name>
          .
          <year>1989</year>
          .
          <article-title>The N-Best algorithm: an efficient procedure for finding top N sentence hypotheses</article-title>
          .
          <source>In Proceedings of the workshop on Speech and Natural Language (HLT '89)</source>
          .
          <article-title>Association for Computational Linguistics</article-title>
          , USA,
          <fpage>199</fpage>
          -
          <lpage>202</lpage>
          . DOI:https://doi.org/10.3115/1075434.1075467
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          [13]
          <string-name>
            <surname>Ronzhin</surname>
            <given-names>A.L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Karpov</surname>
            <given-names>A.A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Li</surname>
            <given-names>I.V.</given-names>
          </string-name>
          <article-title>Rechevoj i mnogomodal'nyj interfejsy [Speech and multimodal interfaces]</article-title>
          .
          <source>М.: Nauka</source>
          .
          <year>2006</year>
          . 173 p.
          <article-title>(In Russ</article-title>
          .).
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          [14]
          <string-name>
            <surname>Kipyatkova</surname>
            <given-names>I.</given-names>
          </string-name>
          ,
          <article-title>Karpov A. DNN-Based Acoustic Modeling for Russian Speech Recognition Using Kaldi</article-title>
          .
          <source>International Conference on Speech and Computer</source>
          .
          <year>2016</year>
          . pp.
          <fpage>246</fpage>
          -
          <lpage>253</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          [15]
          <string-name>
            <surname>LeCun</surname>
            <given-names>Y.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Bengio</surname>
            <given-names>Y.</given-names>
          </string-name>
          <article-title>Convolutional networks for images, speech, and time series. The handbook of brain theory and neural networks</article-title>
          .
          <source>1995</source>
          . vol.
          <volume>3361</volume>
          . no.
          <issue>10</issue>
          . pp.
          <year>1995</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          [16]
          <string-name>
            <surname>Романенко</surname>
            <given-names>А.Н.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Матвеев</surname>
            <given-names>Ю</given-names>
          </string-name>
          .Н., and Минкер В..
          <article-title>"Перенос знаний в задаче автоматического распознавания русской речи в телефонных переговорах"Научно-технический вестник информационных техно- логий, механики и оптики</article-title>
          , vol.
          <volume>18</volume>
          , no.
          <issue>2</issue>
          ,
          <issue>2018</issue>
          , pp.
          <fpage>236</fpage>
          -
          <lpage>242</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          [17]
          <string-name>
            <surname>Povey</surname>
            <given-names>D.</given-names>
          </string-name>
          et al.
          <article-title>The Kaldi speech recognition toolkit»</article-title>
          . IEEE 2011 workshop
          <article-title>on automatic speech recognition and understanding</article-title>
          .
          <source>IEEE Signal Processing Society</source>
          .
          <year>2011</year>
          . 4 p.
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          [18]
          <string-name>
            <given-names>Comparing</given-names>
            <surname>Speech Recognition Systems (Microsoft</surname>
          </string-name>
          <string-name>
            <given-names>API</given-names>
            ,
            <surname>Google</surname>
          </string-name>
          <string-name>
            <surname>API</surname>
          </string-name>
          And CMU Sphinx) Ke¨puska V, Bohouta G
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          [19]
          <string-name>
            <surname>Zaity</surname>
            <given-names>B.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Wannous</surname>
            <given-names>H.</given-names>
          </string-name>
          , Shaheen
          <string-name>
            <given-names>Z.</given-names>
            ,
            <surname>Chernoruckiy</surname>
          </string-name>
          <string-name>
            <given-names>I.</given-names>
            ,
            <surname>Drobintsev</surname>
          </string-name>
          <string-name>
            <given-names>P.</given-names>
            ,
            <surname>Pak</surname>
          </string-name>
          <string-name>
            <surname>V</surname>
          </string-name>
          .
          <article-title>"A hybrid convolutional and recurrent network approach for conversational AI in spoken language understanding</article-title>
          .
          <source>"</source>
          (
          <year>2019</year>
          ).
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>