<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Document classification using word embeddings</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>alex.shundeev@gmail.com</string-name>
          <email>alex.shundeev@gmail.com</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Alexandr S. Shundeev Candidate of Physical and Mathematical Sciences Lomonosov Moscow State University Moscow</institution>
          ,
          <addr-line>ul. Michurinskiy prospekt, d. 1, Russia 119192</addr-line>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>Sergey A. Balakhnichev Student Lomonosov Moscow State University</institution>
        </aff>
      </contrib-group>
      <pub-date>
        <year>2019</year>
      </pub-date>
      <fpage>377</fpage>
      <lpage>388</lpage>
      <abstract>
        <p>Аннотация: Статья содержит обзор современных моделей векторных представлений слов. Подобные модели рассматриваются в контексте решения задачи классификации документов. Исследуются свойства, как исходных векторных представлений слов, так и векторных представлений слов, подвергшихся пост-обработке. Ключевые слова: векторное представление слов, векторное представление документов, классификация текстов, Word2Vec, GloVe, fastText, сингулярное разложение, латентный семантический анализ, дистрибутивная гипотеза.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>David D. Zaslavskii Student Lomonosov Moscow State University zabaf@ya.ru</title>
    </sec>
    <sec id="sec-2">
      <title>Stanislav I. Pekhterev Student Lomonosov Moscow State University stas-19000@mail.ru</title>
      <p>Введение
В настоящее время сложилась ситуация, при которой методы интеллектуального анализа данных все чаще
становятся основой для построения прикладных информационных систем. Можно с большой долей уверенности
спрогнозировать, что в будущем подобная тенденция не только сохранится, но и усилится. В результате корректность
постановок задач в области анализа данных, а также правильный выбор и реализация методов для их решения,
будут критическим образом влиять на успешность разработки, сопровождения и эксплуатации прикладных
информационных систем.</p>
      <p>Современным и бурно развивающимся подходом в области анализа текстовых данных является использование
так называемых векторных представлений слов (word embeddings), которые выступают основным объектом
исследования в рамках данной работы. Векторное представление слов представляет собой соответствие между словами и
вещественными векторами фиксированной размерности. При построении векторного представления слов пытаются
достигнуть следующей цели. Близким по смыслу словам должны соответствовать близкие вектора. Подобное
построение осуществляется в рамках некоторой модели, имеющей ряд настраиваемых параметров, и основывается на
обработке входного корпуса текстов. О процессе построения векторного представления слов говорят также как о
процессе обучения.</p>
      <p>
        Проиллюстрируем введенные понятия на примере. В открытом доступе имеется целый ряд построенных
наборов векторных представлений слов, которые можно использовать в образовательных и исследовательских целях.
Как правило, подобные наборы предоставляются авторами соответствующих моделей векторных представлений
слов и призваны продемонстрировать их преимущества. В частности, создатели модели GloVe (Global Vectors for
Word Representation) [
        <xref ref-type="bibr" rid="ref1">1</xref>
        ] подготовили наборы1 векторных представлений слов размерностей 50, 100, 200 и 300,
которые были получены в результате обработки текстов статей англоязычной Википедии 2014 года. На рис. 1
изображены проекции нескольких 50-мерных векторов из этих наборов на двухмерную плоскость. Каждая проекция
(точка) подписана соответствующим вектору словом. Невооруженным глазом видно, что близкие по смыслу слова
сгруппированы рядом друг с другом.
      </p>
      <p>Следует более формально определить, как при работе с векторными представлениями слов определяется
близость между вещественными векторами, и что понимается под смысловой близостью слов.</p>
      <p>
        На практике используются разные подходы для определения близости между векторами, в том числе косинусная
близость, евклидово расстояние, метрика Манхэттена, расстояние Бхаттачарья, расстояние Хеллингера,
дивергенция КульбакаЛейблера. В работе [
        <xref ref-type="bibr" rid="ref2">2</xref>
        ] на примере решения ряда задач показывается, что наилучшие результаты
достигаются с использованием косинусной близости (косинус угла между векторами). Значение косинусной близости
равное единицы трактуется как максимальное сходство между векторами и соответствующими им словами, а
нулевое значение трактуется как максимальное различие. Так, например, для слова red наиболее близкими оказываются
слова yellow (0.899), blue (0.890), green (0.856), black (0.840), purple (0.832). В скобках указано значение косинусной
близости. Для слова cat наиболее близкими оказываются слова dog (0.921), rabbit (0.848), monkey (0.804), rat
(0.789), cats (0.786).
      </p>
      <p>
        В компьютерной лингвистике считается, что два слова являются семантически близкими (semantically similar)
[
        <xref ref-type="bibr" rid="ref3">3</xref>
        ], если они имеют общую родительскую категорию (гипероним, «сверх-имя»). Так собака и кролик оба являются
животным. Москва, Берлин, Вена являются столицами. Более общим понятием является семантическая связность
(semantic relatedness) слов [
        <xref ref-type="bibr" rid="ref4">4</xref>
        ]. Семантическая связность включает в себя такие отношения между словами, как
синонимия (например, слова смелый и храбрый), антонимия (например, слова выигрыш и проигрыш), меронимия
(отношение части и целого), гипонимия (родо-видовое отношение). К семантически связанным словам также относят
слова, которые совместно встречаются в рассматриваемом корпусе текстов.
      </p>
      <p>Рисунок 1 – Разбиение набора слов на смысловые группы.</p>
      <p>
        Как было продемонстрировано выше, векторные представления слов могут успешно использоваться для
решения задачи определения смысловой близости между словами. При этом дается числовая оценка смысловой
близости двух слов. Кроме того, векторные представления слов могут успешно использоваться для изучения смысловых
отношений между словами. Например, пары слов (Москва, Россия), (Берлин, Германия) и (Минск, Белоруссия)
являются примерами отношения «столица - страна». Подобные пары слов называются аналогиями [
        <xref ref-type="bibr" rid="ref5">5</xref>
        ]. В работах [
        <xref ref-type="bibr" rid="ref6">6</xref>
        ],
[
        <xref ref-type="bibr" rid="ref7">7</xref>
        ] была поставлена задача поиска аналогий, имеющая следующую формулировку. Для заданных слов A, B, C
необходимо подобрать слово D таким образом, чтобы пары слов A, B и C, D являлись аналогиями по отношению
друг к другу. Например, для слов Москва, Россия, Берлин оптимальным решением будет слово Германия.
      </p>
      <p>Рисунок 2 – Примеры отношений слов в задаче поиска аналогий.</p>
      <p>
        В ходе поиска подходов для решения этой задачи были разработаны две модели векторных представлений слов
под общим названием Word2Vec [
        <xref ref-type="bibr" rid="ref6">6</xref>
        ], [
        <xref ref-type="bibr" rid="ref8">8</xref>
        ]. Идея найденного решения состоит в следующем. Предположим, что
словам A, B, C, D сопоставлены соответственно вектора , , , . Оказалось, что если пары слов A, B и C, D
являются аналогиями, то имеет место приближенное равенство векторов (рис. 2). Поэтому в
качестве неизвестного слова D нужно подобрать слово, вектор которого наиболее близок вектору . В
рассматриваемом примере задача поиска аналогий для отношения «столица - страна» правильно решается с
вероятностью 0.67. При этом вероятность случайного угадывания составляет 0.25 ∙ 10 , что может быть признано
хорошим результатом.
      </p>
      <p>В настоящее время точность решения задачи определения смысловой близости слов и задачи поиска аналогий
является основным критерием качества векторного представления слов. Подобное свойство векторных
представлений слов можно использовать и для решения других задач в области обработки текстов на естественном языке.</p>
      <p>В данной работе векторные представления слов рассматриваются с позиций решения задачи классификации
документов. Они рассматриваются как основа для построения математических моделей документов, к которым
применимы методы машинного обучения. Исследуются свойства как исходных векторных представлений слов,
полученных в рамках стандартных моделей, так и векторные представления слов, подвергшиеся операции
постобработки.</p>
      <p>
        Дальнейшее изложение структурировано следующим образом. В разделе 1 приводится обзор популярных
моделей векторных представлений слов и описываются подходы по их построению. В разделе 2 описываются
используемые в дальнейшем математические модели документов, и дается формальная постановка задачи классификации
документов. В разделе 3 приводятся результаты проведенных экспериментов, на основе которых делаются выводы
о целесообразности использования векторных представлений слов в решении задачи классификации документов.
1 Модели векторных представлений слов
Модели векторных представлений слов активно изучаются уже несколько десятилетий. В качестве одной из
первых работ на этом направлении можно отметить работу 1975 года [
        <xref ref-type="bibr" rid="ref9">9</xref>
        ]. На начальном этапе подобные модели
базировались на построении и преобразовании частотных матриц типа «слово - документ» или «слово - контекст». К
этому периоду в частности относится создание метода латентного семантического анализа LSA (Latent Semantic
Analysis) [
        <xref ref-type="bibr" rid="ref10">10</xref>
        ], в рамках которого впервые было обосновано применение сингулярного разложения (Singular Value
Decomposition) частотной матрицы для получения векторного представления слов. Частотные (count based) модели
подробно описаны в обзорной работе [
        <xref ref-type="bibr" rid="ref11">11</xref>
        ].
      </p>
      <p>
        В последнее время наибольшее внимание уделяется так называемым предсказательным (predictive) моделям, в
рамках которых векторное представление слов получается как результат решения некоторой оптимизационной
задачи. Интерес к предсказательным моделям можно связать с общим ростом популярности нейросетевых методов и
подходов. Так в 2003 году была разработана вероятностная нейросетевая модель NPLM (Neural Probabilistic
Language Model) [
        <xref ref-type="bibr" rid="ref12">12</xref>
        ]. На протяжении следующих десяти лет эта модель постепенно упрощалась. Результатом таких
упрощений стало появление семейства моделей Word2Vec [
        <xref ref-type="bibr" rid="ref6">6</xref>
        ], [
        <xref ref-type="bibr" rid="ref8">8</xref>
        ], которые представляют собой нейронные сети с
одним скрытым слоем, не содержащие нелинейных преобразований.
      </p>
      <p>
        Преимуществом предсказательных моделей является возможность обучаться на большом объеме исходных
текстовых данных. Ответить однозначно в рамках, каких (частотных или предсказательных) моделей можно получить
более качественные векторные представления слов, не представляется возможным. На этот вопрос существуют
диаметрально противоположные ответы [
        <xref ref-type="bibr" rid="ref13">13</xref>
        ], [
        <xref ref-type="bibr" rid="ref14">14</xref>
        ].
      </p>
      <p>
        Прежде, чем перейти к рассмотрению конкретных моделей векторных представлений слов сформулируем
гипотезы из области компьютерной лингвистики, которые положены в основу их построения. Первая гипотеза,
получившая название дистрибутивной (distributional hypothesis) [
        <xref ref-type="bibr" rid="ref15">15</xref>
        ], [
        <xref ref-type="bibr" rid="ref16">16</xref>
        ], [
        <xref ref-type="bibr" rid="ref17">17</xref>
        ], утверждает, что слова, появляющиеся в
похожих контекстах внутри корпуса текстов, скорее всего, будут иметь похожий смысл.
      </p>
      <p>В качестве контекста может выступать весь документ или его отдельные фрагменты (предложение, абзац, глава
в книге). Часто, контекст задается окном некоторого фиксированного размера. Окном является последовательность
слов в документе, отстоящих не далее, чем на позиций от заданного слова . Само слово в окно не входит.
Контекстом может быть любое слово в окне, множество или мультимножество всех слов окна.</p>
      <p>
        Частотные модели также базируются на гипотезе мешка слов (bag of words hypothesis) [
        <xref ref-type="bibr" rid="ref9">9</xref>
        ], что смысл документа
не зависит от порядка слов, которые в нем встречаются.
1.1 Частотные матрицы
В основе частотных моделей лежит понятие частотной матрицы. Выделяют три типа таких матриц [
        <xref ref-type="bibr" rid="ref11">11</xref>
        ].
Предположим, что задан корпус документов, и зафиксирован словарь, состоящий из всех слов, встречающихся в этих
документах. В матрице типа «слово - документ» (word – document) строки соответствуют словам, а столбцы
соответствуют документам. Элемент матрицы равен числу вхождений слова в документ .
,
которая называется поточечной взаимной информацией (Pointwise Mutual Information) [
        <xref ref-type="bibr" rid="ref19">19</xref>
        ]. Величина ,
является эмпирической вероятностью появления слова в контексте . Величины и являются
соответственно эмпирическими вероятностями появления слов и в рассматриваемом корпусе документов. В работе [
        <xref ref-type="bibr" rid="ref20">20</xref>
        ]
предлагается использовать положительную поточечную взаимную информацию (Positive Pointwise Mutual
Information)
      </p>
      <p>, max0, , .</p>
      <p>В ней обосновывается, что среди всех подходов к взвешиванию частотных матриц применение этой функции
дает наилучшие результаты при решении задачи определения смысловой близости.
1.2 Частотные модели на основе сингулярного разложения
Частотная матрица (исходная или взвешенная) задает векторное представление слов. Действительно, каждому
слову по определению соответствует вектор-строка в такой матрице. Однако подобное векторное представление слов
обладает двумя недостатками. Первым недостатком является большая размерность таких векторов, совпадающая с
числом всех документов в рассматриваемом корпусе или с размером словаря. Большая размерность фактически
исключает возможность практического использования такого векторного представления слов ввиду неприемлемого
объема сопутствующих вычислительных затрат и высокой вычислительной погрешности. Второй недостаток
состоит в том, что вычисленное расстояние между такими векторами плохо отражает меру смысловой близости
между соответствующими этим векторам словами.</p>
      <p>
        Тем не менее, существует подход, позволяющий на основе частотной матрицы построить малоразмерное
векторное представление слов, адекватно описывающее смысловую близость между словами. Этот подход базируется
на использовании метода сингулярного разложения матриц [
        <xref ref-type="bibr" rid="ref21">21</xref>
        ]. Произвольная вещественная матрица может
быть представлена в виде
.
В этом разложении матрицы и имеют ортонормированные столбцы ( , , – единичная
матрица). Матрица представляет собой диагональную матрицу сингулярных значений и имеет одинаковый с матрицей
ранг .
      </p>
      <p>
        Пусть выбрано число k . Через Σ обозначим диагональную матрицу, составленную из k верхних
сингулярных значений. Соответственно, через U и V обозначим матрицы, составленные из столбцов матриц U и V,
соответствующих k верхним сингулярным значениям. Имеет место следующее приближение исходной матрицы
Дальнейшее, развитие моделей Word2Vec пошло по двум направлениям. В рамках первого направления были
разработаны модели векторных представлений документов Doc2Vec [
        <xref ref-type="bibr" rid="ref22">22</xref>
        ]. На основе модели CBOW была построена
модель DM (distributed memory), а на основе модели SG была построена модель DBOW (distributed bag-of-words).
Основная идея моделей Doc2Vec состоит в расширении словаря. Каждому документу ставится в соответствие
уникальный ключ. Эти ключи рассматриваются как псевдослова и добавляются в словарь. Считается, что ключ
документа встречается в любом контексте этого документа. Соответственно, в рамках модели DM по контексту
предсказывается ключ документа, а в рамках модели DBOW по ключу документа предсказывается контекст. Векторное
представление документов составлено из векторов, вычисленных для их ключей.
      </p>
      <p>
        В рамках второго направления была обобщена модель SG, на основе которой была разработана модель
векторного представления слов fastText [
        <xref ref-type="bibr" rid="ref23">23</xref>
        ], ориентированная на работу с морфологически сложными языками.
Предполагается, что слова в рассматриваемом корпусе документов записаны в алфавите, не содержащем символы &lt; и &gt;.
Далее, каждому слову в исходном словаре слева приписывается символ &lt;, а справа приписывается символ &gt;.
Например, слово where будет преобразовано в слово &lt;where&gt;.
      </p>
      <p>
        Модель fastText имеет дополнительный натуральный параметр N. Для заданного слова N-граммой называется
любая последовательность символов длины N, встречающаяся в этом слове. Например, 3-граммами слова &lt;where&gt;
будут последовательности символов &lt;wh, whe, her, ere и re&gt;. Для всевозможных N-грамм, встречающихся в словах
модифицированного словаря, строится векторное представление. Для этого решается задача предсказания
контекста по N-грамме слова, встречающегося в этом контексте. В итоговом векторном представлении каждому слову
ставится в соответствие сумма векторов всех N-грамм, соответствующих этому слову.
1.4 Модель GloVe
Настраиваемыми параметрами модели GloVe [
        <xref ref-type="bibr" rid="ref1">1</xref>
        ] являются размерность векторного представления слов и размер
контекста . По входному корпусу документов строится частотная матрица типа «слово - слово» . На
основе частотной матрицы можно вычислить условную вероятность появления слова ∈ в контексте слова
∈ вида
∑
Авторы делают следующее эвристическое предположение. Пусть заданы три слова ,
шение условных вероятностей
,
      </p>
      <p>∈ . Исследуя
отно|
,∈
где Θ , ́ , , ∈ ( , ́ ∈ , , ∈ ). В качестве векторных представлений слов может
использоваться каждый из следующих трех наборов векторов , ́ или ́ . В то же время авторы модели
рекомендуют использовать третий набор, использование которого в ходе проведенных экспериментов показывает
наилучшие результаты при решении задачи определения смысловой близости слов и задачи поиска аналогий.</p>
      <p>В определении функционала фигурирует весовая функция . Эта функция является непрерывной и монотонно
неубывающей. В нуле она принимает нулевое значение. С помощью этой функции штрафуются слишком большие
значения счетчиков . В качестве весовой функции авторы модели рекомендуют использовать функцию вида
Статистика \</p>
      <p>|
|
|
|
/
/ ,
и
precision ,
|
, |
2 Задача классификации документов
В теории машинного обучения дается формальная постановка задачи классификации. В то же время следует
отметить, что методы машинного обучения применимы только к математическим объектам, которыми тексты на
естественном языке не являются. Поэтому, чтобы иметь возможность использовать понятия и методы машинного
обучения применительно к задаче классификации документов, необходимо вначале заменить документы на их
представления в рамках некоторой математической модели.
2.1 Математические модели текстов
В частотной матрице типа «слово – документ» каждому документу из рассматриваемого корпуса соответствует
свой столбец. Такой столбец можно рассматривать как векторное представление документа. К подобным
векторным представлениям можно применять методы машинного обучения для решения задачи классификации
документов. Такое векторное представление можно интерпретировать как математическую модель документов.</p>
      <p>
        Исходная частотная матрица, к которой не применялась процедура взвешивания элементов, порождает модель
документов под названием «мешок слов» BoW (Bag of Words). Частотная матрица, к элементам которой была
применена функция взвешивания из семейства TF-IDF [
        <xref ref-type="bibr" rid="ref18">18</xref>
        ], порождает TF-IDF модель документов.
      </p>
      <p>Если задано некоторое векторное представление слов, то на его основе можно построить векторное
представление документов. Наиболее распространенный подход заключается в суммировании векторов всех слов,
встречающихся в документе. После этого полученная сумма усредняется (делится на количество слов в документе). Если
некоторое слово встречается в документе несколько раз, то при суммировании и усреднении учитывается каждое
его появление в документе.
2.2 Машинное обучение
В общем виде задача классификации имеет следующую постановку. Должны быть заданы множество объектов ,
и конечное множество классов . В дальнейшем, в качестве объектов будут выступать документы, точнее их
представления в соответствующей математической модели. Предполагается, что существует неизвестная
функциональная зависимость между объектами и классами, о которой можно судить только по конечному множеству
обучающих примеров , | 1, … , ⊂ .</p>
      <p>Решение задачи классификации осуществляется в рамках некоторой модели обучения , . Подобная
модель включает в себя множество гипотез (функций вида : ⟶ ), среди которых ищется приближение к
неизвестной функциональной зависимости, а также алгоритм . Этот алгоритм для множества обучающих примеров
выбирает гипотезу ∈ , которая трактуется как решение задачи классификации. Выбранную гипотезу
называют классификатором, а выбор гипотезы интерпретируют как процесс обучения, в рамках которого строится
классификатор.</p>
      <p>Для оценки качества построенного классификатора используются различные числовые метрики. В общем случае
подобная метрика имеет вид est , и отражает соответствие гипотезы ∈ множеству обучающих примеров .
Наиболее распространенной метрикой является точность (accuracy)
acc ,
1
1
Выделим три группы обучающих примеров. Первая группа
, , 0 ∈ | 1 . Третья группа , , 1
1 . Вторая группа
,
∈ |
, |
|
, |</p>
      <p>, 1 ∈ |
1 . Тогда
|</p>
      <p>|
, |
|
, |</p>
      <p>Метрика может быть обобщена на случай | | 2 . С помощью анализируемой гипотезы для каждого класса
можно рассматривать отдельную бинарную задачу классификации (объект принадлежит этому классу или
принадлежит любому другому классу). Следовательно, для каждого класса может быть получена своя оценка.
Полученные оценки можно усреднить, или можно взять их взвешенную сумму.</p>
      <p>Важным этапом решения задачи классификации является выбор подходящей модели обучения из ряда
альтернатив, либо если модель обучения имеет настраиваемые параметры, требуется для таких параметров подобрать
оптимальные значения. Возможны комбинации обозначенных вариантов. Проблема выбора модели тесно связана с
необходимостью борьбы с двумя негативными явлениями, возникающими в процессе обучения, которые тесно
связаны между собой. Первое явление носит название недообучения (underfitting). Оно возникает в ситуации, когда
оценка est, признается неудовлетворительной. Второе явление носит название переобучения (overfitting).
Оно диагностируется в ситуации, когда построенный классификатор показывает хорошие результаты только на
объектах из обучающих примеров. Наличие явления переобучения говорит о том, что одной оценки est,
недостаточно, чтобы судить о качестве классификатора.</p>
      <p>Множество обучающих примеров можно разбить на два непересекающихся множества ∪ ,
называемых соответственно тренировочной и тестовой выборками. Тренировочная выборка, как правило, содержит 70%
обучающих примеров. Только примеры из обучающей выборки используются для построения классификатора.
Оценка est , показывает, имело ли место недообучение. Сравнивая между собой две оценки
est , и est , , можно сделать вывод о наличии переобучения.
3 Эксперименты
Настоящий раздел посвящен обсуждению результатов проведенных экспериментов над тестовыми наборами
данных. На основе этих результатов делаются выводы о возможности использования векторных представлений слов в
решении задачи классификации документов.
3.1 Тестовые наборы данных
В ходе проведения экспериментов было использовано три набора документов: movies (рецензии к кинофильмам),
R8 (финансовые документы), twitter (сообщения из одноименной социальной сети). Опишем характеристики
каждого из этих наборов.</p>
      <p>Набор movies состоит из 44012 документов, разбитых на 6 классов. Вектор (0.477, 0.28, 0.084, 0.079, 0.0451,
0.0266) описывает распределение документов по классам. Словарь состоит из 72295 слов. Максимальный,
минимальный и средний размер документа соответственно 698, 5 и 56 слов.</p>
      <p>Набор R8 состоит из 7674 документов, разбитых 8 классов. Вектор (0.51, 0.29, 0.048, 0.042, 0.038, 0.035, 0.018,
0.006) описывает распределение документов по классам. Словарь состоит из 17387 слов. Максимальный,
минимальный и средний размер документа соответственно 533, 4 и 64.5 слова.</p>
      <p>Набор twitter состоит из 1594557 документов, разбитых на 2 класса. Вектор (0.5, 0.5) описывает распределение
документов по классам. Словарь состоит из 35738 слов. Максимальный, минимальный и средний размер документа
соответственно 50, 1 и 12.75 слова.</p>
      <p>Как можно видеть из всех наборов тестовых данных сбалансированным является только набор twitter.
3.2 Построение векторных представлений
В ходе проведения экспериментов была использована модель векторных представлений слов GloVe. В рамках этой
модели на основе тестовых наборов документов были построены векторные представления слов, имеющие
размерность 50, 100, 300. Назовем эти векторные представления слов исходными. После этого исходные векторные
представления слов были подвергнуты дополнительной обработке (пост-обработка).</p>
      <p>
        В области анализа данных существует ряд методов понижения размерности данных [
        <xref ref-type="bibr" rid="ref24">24</xref>
        ], представленных в виде
вещественных векторов фиксированной размерности. Одним из них является метод главных компонент PCA
(Principal Component Analysis). Для большинства наборов данных можно построить прямую (ось, направление),
обладающую следующим свойством. Проекции векторов из рассматриваемого набора данных на эту прямую будут
порождать максимальное рассеивание. Полученную прямую называют первой главной компонентой. Далее,
описанную процедуру можно применить к подпространству, ортогональному первой главной компоненте. В результате
будет получена вторая главная компонента и так далее. Обычно считается, что проекции на последние главные
компоненты можно безболезненно удалить из данных. При этом информационное наполнение в этих данных не
ухудшится, зато серьезно понизятся накладные расходы по их хранению. В ряде работ, в том числе [
        <xref ref-type="bibr" rid="ref25">25</xref>
        ],
пропагандируется подход, в рамках которого применительно к векторным представлениям слов необходимо удалять
проекции не на последние, а на первые главные компоненты.
Для каждого исходного векторного представления слов были вычислены главные компоненты. Переход к
новому базису, образованному главными компонентами, порождает новое векторное представление слов. Будем
говорить, что новое векторное представление слов имеет тип PCA. Будем говорить, что удаление из нового векторного
представления слов первой (последней) координаты порождает векторное представление слов типа PCA-1 (PCA-n).
Обратим внимание на то, что удаление первой (последней) координаты соответствует удалению проекции на
первое (последнее) главное направление.
      </p>
      <p>
        На основе исходных векторных представлений слов, а также векторных представлений слов типа PCA, PCA-1,
PCA-n были построены векторные представления документов для тестовых наборов. Дополнительно для всех
документов из тестовых наборов были построены представления в модели BoW.
3.3 Результаты
В ходе проведения экспериментов были использованы две модели классификации: логистическая регрессия
(простая модель) и случайный лес (сложная ансамблевая модель) [
        <xref ref-type="bibr" rid="ref24">24</xref>
        ]. Для этих целей были взяты реализации этих
моделей из библиотеки Scikit-Learn2: класс LogisticRegression, реализующий модель логистической регрессии, и класс
ExtraTreesClassifier, реализующий модель случайного леса. Каждая из этих классов имеет набор настраиваемых
параметров.
      </p>
      <p>В случае класса LogisticRegression задавался алгоритм решения соответствующей оптимизационной задачи
(значения newton-cg, lbfgs, liblinear, sag, saga), параметр регуляризации (значения 1000, 100, 10, 1, 0.1) и начальное
значение датчика псевдослучайных чисел (два значения). В случае класса ExtraTreesClassifier задавалось количество
деревьев (значения 50, 100, 200), максимальная глубина деревьев (значения 10, 20, 50, 100), минимальный размер
выборки, которая может быть подвергнута разбиению, (значения 2, 5. 10) и начальное значение датчика
псевдослучайных чисел (два значения). Для каждой комбинации значений настраиваемых параметров и набора входных
данных обучался и оценивался отдельный классификатор.</p>
      <p>Таблица 4. Результаты классификации, соответствующие модели документов BoW.</p>
      <p>Набор
movies</p>
      <p>R8
twitter
В таблице 4 приведены результаты экспериментов над классификаторами, построенными на основе
элементарной модели документов BoW. По каждому набору тестовых данных и каждой модели классификации был
построен, обучен и оценен целый набор классификаторов. Каждой допустимой комбинации значений настраиваемых
параметров модели обучения соответствует свой построенный классификатор. Для каждого классификатора были
вычислены значения метрик accuracy и . Максимальные значения этих метрик, достигнутые на тестовой выборке,
представлены в таблице 4.</p>
      <p>Аналогично устроены таблицы 5 и 6, в которых приводятся результаты экспериментов над классификаторами,
построенных на основе векторных представлений слов. Отличие состоит только в том, что в каждой ячейке указано
три числовых значения, соответствующих размерностям 50, 100 и 300 использованных векторных представлений
слов.</p>
      <p>
        Сравнивая между собой результаты из таблиц 4 и 5, можно сделать следующий вывод. Никаких
принципиальных улучшений за счет использования векторных представлений слов в характеристиках построенных
классификаторов достигнуто не было. Возможно, причина кроется в том, что была выбрана простейшая модель представления
документа, использующая векторные представления входящих в него слов. Возможно, переход к более сложной
модели (например, [
        <xref ref-type="bibr" rid="ref26">26</xref>
        ]) покажет принципиально другие результаты.
      </p>
      <p>Следует также обратить внимание на то, что использование простейшей модели линейного классификатора дало
лучшие результаты, по сравнению со сложной моделью случайного леса. Скорее всего, это следствие
переобученности классификаторов, построенных на основе модели случайного леса. Проиллюстрируем это на примере набора
movies. На обучающей выборке максимальными значениями метрики accuracy для логистической регрессии будут
числа 0.754849, 0.768380, 0.792187. Для случайного леса это будут числа 0.999898, 0.999898, 0.999898. На
обучающей выборке максимальными значениями метрики для логистической регрессии будут числа 0.607060, 0.641528,
0.689451. Для случайного леса это будут числа 0.999953, 0.999953, 0.999953.</p>
      <p>В случае логистической регрессии результаты для исходных векторных представлений слов и векторных
представлений слов типа PCA оказались практически одинаковыми, что выглядит вполне естественно. Переход от
од2 https://scikit-learn.org
ного базиса к другому и соответствующее этому переходу преобразование координат векторов не должно было
повлиять на построение и работу линейного классификатора.</p>
      <p>В таблице 6 приведены результаты экспериментов для векторных представлений слов типа PCA-1. Они
практически совпадают с результатами для векторных представлений слов типа PCA-n, а также исходных векторных
представлений слов (таблица 5).</p>
      <p>Таблица 5. Результаты классификации, соответствующие исходному векторному представлению слов.
Исходя из этого результата, можно сделать вывод об оправданности применения постобработки векторных
представлений в случае решения задачи классификации документов. Качество результатов классификации заметно
не ухудшается. В то же время накладные расходы на хранение векторных представлений слов могут быть
существенно уменьшены. Остается правда открытым вопрос, какие из главных направлений следует выбирать для
удаления.</p>
      <p>Таблица 6. Результаты классификации, соответствующие векторному представлению слов типа PCA-1.
Набор
movies</p>
      <p>R8
twitter
Набор
movies</p>
      <p>R8
twitter</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          [1]
          <string-name>
            <surname>Pennington</surname>
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Socher</surname>
            <given-names>R.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Manning</surname>
            <given-names>C.D.</given-names>
          </string-name>
          <article-title>GloVe: Global Vectors for Word Representation</article-title>
          ,
          <source>Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP)</source>
          ,
          <year>2014</year>
          , pp.
          <fpage>1532</fpage>
          -
          <lpage>1544</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          [2]
          <string-name>
            <surname>Bullinaria</surname>
            <given-names>J.A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Levy</surname>
            <given-names>J.P.</given-names>
          </string-name>
          <string-name>
            <surname>Extracting Semantic Representations from Word</surname>
          </string-name>
          Co-occurrence
          <source>Statistics: A Computational Study</source>
          ,
          <source>2007 Behavior Research Methods</source>
          , vol.
          <volume>39</volume>
          , pp.
          <fpage>510</fpage>
          -
          <lpage>526</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          [3]
          <string-name>
            <surname>Resnik</surname>
            <given-names>P.</given-names>
          </string-name>
          <string-name>
            <surname>Using Information</surname>
          </string-name>
          <article-title>Content to Evaluate Semantic Similarity in a Taxonomy</article-title>
          ,
          <source>Proceedings of the International Joint Conference for Artificial Intelligence (IJCAI-95)</source>
          .
          <year>1995</year>
          , pp.
          <fpage>448</fpage>
          -
          <lpage>453</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          [4]
          <string-name>
            <surname>Budanitsky</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Hirst</surname>
            <given-names>G</given-names>
          </string-name>
          .
          <article-title>Semantic distance in WordNet: An experimental, application-oriented evaluation of five measures</article-title>
          , Workshop on WordNet and
          <article-title>other lexical resources</article-title>
          ,
          <source>NAACL</source>
          ,
          <year>2001</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          [5]
          <string-name>
            <surname>Gentner</surname>
            <given-names>D.</given-names>
          </string-name>
          <article-title>Structure-mapping: A theoretical framework for analogy</article-title>
          ,
          <source>Cognitive Science</source>
          ,
          <year>1983</year>
          , vol.
          <volume>7</volume>
          , no.
          <issue>2</issue>
          . pp.
          <fpage>155</fpage>
          -
          <lpage>170</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          [6]
          <string-name>
            <surname>Mikolov</surname>
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Sutskever</surname>
            <given-names>I.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Chen</surname>
            <given-names>K.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Corrado</surname>
            <given-names>G.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Dean</surname>
            <given-names>J</given-names>
          </string-name>
          .
          <article-title>Distributed representations of words and phrases and their compositionality</article-title>
          ,
          <source>Proceedings of the 26th International Conference on Neural Information Processing Systems</source>
          ,
          <year>2013</year>
          , vol.
          <volume>2</volume>
          , pp.
          <fpage>3111</fpage>
          -
          <lpage>3119</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          [7]
          <string-name>
            <surname>Mikolov</surname>
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Yih</surname>
            <given-names>W.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Zweig</surname>
            <given-names>G</given-names>
          </string-name>
          .
          <article-title>Linguistic Regularities in Continuous SpaceWord Representations, HLT-</article-title>
          <string-name>
            <surname>NAACL</surname>
          </string-name>
          ,
          <year>2013</year>
          , pp.
          <fpage>746</fpage>
          -
          <lpage>751</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          [8]
          <string-name>
            <surname>Mikolov</surname>
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Chen</surname>
            <given-names>K.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Corrado</surname>
            <given-names>G.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Dean</surname>
            <given-names>J</given-names>
          </string-name>
          .
          <source>Efficient Estimation of Word Representations in Vector, Computing Research Repository (CoRR)</source>
          ,
          <year>2013</year>
          , pp.
          <fpage>1</fpage>
          -
          <lpage>12</lpage>
          , available at: https://arxiv.org/abs/1301.3781.
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          [9]
          <string-name>
            <surname>Salton</surname>
            <given-names>G.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Wong</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Yang</surname>
            <given-names>C.S.</given-names>
          </string-name>
          <article-title>A Vector Space Model for Automatic Indexing, Commun</article-title>
          . ACM,
          <year>1975</year>
          , vol.
          <volume>18</volume>
          , no.
          <issue>11</issue>
          , pp.
          <fpage>613</fpage>
          -
          <lpage>620</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          [10]
          <string-name>
            <surname>Deerwester</surname>
            <given-names>S.C.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Dumais</surname>
            <given-names>S.T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Landauer</surname>
            <given-names>T.K.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Furnas</surname>
            <given-names>G.W.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Harshman</surname>
            <given-names>R.A.</given-names>
          </string-name>
          <article-title>Indexing by latent semantic analysis</article-title>
          .
          <source>Journal of the American Society for Information Science (JASIS)</source>
          ,
          <year>1990</year>
          , vol.
          <volume>41</volume>
          , no.
          <issue>6</issue>
          , pp.
          <fpage>391</fpage>
          -
          <lpage>407</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          [11]
          <string-name>
            <surname>Turney P.D.</surname>
          </string-name>
          ,
          <string-name>
            <surname>Pantel</surname>
            <given-names>P.</given-names>
          </string-name>
          <string-name>
            <surname>From</surname>
          </string-name>
          <article-title>Frequency to Meaning: Vector Space Models of Semantics</article-title>
          ,
          <source>Journal of Artificial Intelligence Research</source>
          ,
          <year>2010</year>
          , vol.
          <volume>37</volume>
          , pp.
          <fpage>141</fpage>
          -
          <lpage>188</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          [12]
          <string-name>
            <surname>Bengio</surname>
            <given-names>Y.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ducharme</surname>
            <given-names>R.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Vincent</surname>
            <given-names>P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Janvin</surname>
            <given-names>C. A Neural</given-names>
          </string-name>
          <string-name>
            <surname>Probabilistic Language Model</surname>
          </string-name>
          ,
          <source>Journal of Machine Learning Research</source>
          ,
          <year>2003</year>
          , Vol.
          <volume>3</volume>
          , pp.
          <fpage>1137</fpage>
          -
          <lpage>1155</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          [13]
          <string-name>
            <surname>Baroni</surname>
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kruszewski</surname>
            <given-names>G</given-names>
          </string-name>
          .
          <article-title>Don't count, predict! A systematic comparison of context-counting vs. context-predicting semantic vectors, Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics</article-title>
          ,
          <string-name>
            <surname>ACL</surname>
          </string-name>
          <year>2014</year>
          , vol.
          <volume>1</volume>
          , pp.
          <fpage>238</fpage>
          -
          <lpage>247</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          [14]
          <string-name>
            <surname>Levy</surname>
            <given-names>O.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Goldberg</surname>
            <given-names>Y.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Dagan</surname>
            <given-names>I</given-names>
          </string-name>
          .
          <article-title>Improving Distributional Similarity with Lessons Learned from Word Embeddings</article-title>
          ,
          <string-name>
            <surname>TACL</surname>
          </string-name>
          ,
          <year>2015</year>
          , vol.
          <volume>3</volume>
          , pp.
          <fpage>211</fpage>
          -
          <lpage>225</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          [15]
          <string-name>
            <surname>Wittgenstein</surname>
            <given-names>L. Philosophical</given-names>
          </string-name>
          <string-name>
            <surname>Investigations</surname>
          </string-name>
          . Blackwell.
          <string-name>
            <surname>Translated by G.E.M. Anscombe</surname>
          </string-name>
          ,
          <year>1953</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          [16]
          <string-name>
            <surname>Harris Z. Distributional</surname>
            <given-names>structure</given-names>
          </string-name>
          ,
          <source>Word</source>
          ,
          <year>1954</year>
          , vol.
          <volume>10</volume>
          , no.
          <issue>23</issue>
          , pp.
          <fpage>146</fpage>
          -
          <lpage>162</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          [17]
          <string-name>
            <surname>Firth</surname>
            ,
            <given-names>J. R. ().</given-names>
          </string-name>
          <article-title>A synopsis of linguistic theory 1930-1955</article-title>
          . In Studies in Linguistic Analysis,
          <source>Blackwell</source>
          , Oxford,
          <year>1957</year>
          , pp.
          <fpage>1</fpage>
          -
          <lpage>32</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          [18]
          <string-name>
            <surname>Sparck</surname>
            <given-names>J.K.</given-names>
          </string-name>
          <article-title>A statistical interpretation of term specificity and its application in retrieval</article-title>
          .
          <source>Journal of Documentation</source>
          ,
          <year>1972</year>
          , vol.
          <volume>28</volume>
          , no.
          <issue>1</issue>
          , pp.
          <fpage>11</fpage>
          -
          <lpage>21</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref19">
        <mixed-citation>
          [19]
          <string-name>
            <surname>Church</surname>
            <given-names>K.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Hanks</surname>
            <given-names>P.</given-names>
          </string-name>
          (
          <year>1989</year>
          ).
          <article-title>Word association norms, mutual information, and lexicography</article-title>
          .
          <source>In Proceedings of the 27th Annual Conference of the Association of Computational Linguistics</source>
          ,
          <year>1989</year>
          , pp.
          <fpage>76</fpage>
          -
          <lpage>83</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref20">
        <mixed-citation>
          [20]
          <string-name>
            <surname>Niwa</surname>
            ,
            <given-names>Y.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Nitta</surname>
            ,
            <given-names>Y.</given-names>
          </string-name>
          <article-title>Co-occurrence vectors from corpora vs. distance vectors from dictionaries</article-title>
          .
          <source>In Proceedings of the 15th International Conference On Computational Linguistics</source>
          ,
          <year>1994</year>
          , pp.
          <fpage>304</fpage>
          -
          <lpage>309</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref21">
        <mixed-citation>
          [21]
          <string-name>
            <surname>Golub</surname>
            <given-names>G.H.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Van Loan</surname>
            ,
            <given-names>C.F.</given-names>
          </string-name>
          <string-name>
            <surname>Matrix</surname>
          </string-name>
          <article-title>Computations (Third edition)</article-title>
          . Johns Hopkins University Press, Baltimore,
          <string-name>
            <surname>MD</surname>
          </string-name>
          ,
          <year>1996</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref22">
        <mixed-citation>
          [22]
          <string-name>
            <surname>Le</surname>
            <given-names>Q.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Mikolov</surname>
            <given-names>T</given-names>
          </string-name>
          .
          <article-title>Distributed Representations of Sentences and Documents</article-title>
          ,
          <source>Proceedings of the 31st International Conference on Machine Learning</source>
          ,
          <year>2014</year>
          , vol.
          <volume>32</volume>
          , no.
          <issue>2</issue>
          , pp.
          <fpage>1188</fpage>
          -
          <lpage>1196</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref23">
        <mixed-citation>
          [23]
          <string-name>
            <surname>Bojanowski</surname>
            <given-names>P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Grave</surname>
            <given-names>E.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Joulin</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Mikolov</surname>
            <given-names>T</given-names>
          </string-name>
          .
          <source>Enriching Word Vectors with Subword Information, Computing Research Repository (CoRR)</source>
          ,
          <year>2017</year>
          , pp.
          <fpage>1</fpage>
          -
          <lpage>12</lpage>
          , available at: https://arxiv.org/abs/1607.04606.
        </mixed-citation>
      </ref>
      <ref id="ref24">
        <mixed-citation>
          [24]
          <string-name>
            <surname>Bishop C.M. Pattern Recognition</surname>
          </string-name>
          and
          <source>Machine Learning</source>
          , Springer, Science+Business
          <string-name>
            <surname>Media</surname>
            <given-names>LLC</given-names>
          </string-name>
          ,
          <year>2006</year>
          , 738 p.
        </mixed-citation>
      </ref>
      <ref id="ref25">
        <mixed-citation>
          [25]
          <string-name>
            <surname>Mu</surname>
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Bhat</surname>
            <given-names>S.</given-names>
          </string-name>
          , Viswanath P.
          <article-title>All-but-the-Top: Simple and Effective Post-processing for Word Representations</article-title>
          ,
          <source>Computing Research Repository (CoRR)</source>
          ,
          <year>2018</year>
          , pp.
          <fpage>1</fpage>
          -
          <lpage>25</lpage>
          , available at: https://arxiv.org/abs/1702.01417.
        </mixed-citation>
      </ref>
      <ref id="ref26">
        <mixed-citation>
          [26]
          <string-name>
            <surname>Wu</surname>
            <given-names>L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Yen</surname>
            <given-names>I.E.H.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Xu</surname>
            <given-names>K.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Xu</surname>
            <given-names>F.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Balakrishnan</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Chen</surname>
            <given-names>P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ravikumar</surname>
            <given-names>P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Witbrock M.J. Word</surname>
          </string-name>
          <article-title>Mover's Embedding: From Word2Vec to Document Embedding</article-title>
          .
          <source>Computing Research Repository (CoRR)</source>
          ,
          <year>2018</year>
          , pp.
          <fpage>1</fpage>
          -
          <lpage>15</lpage>
          , available at: https://arxiv.org/abs/
          <year>1811</year>
          .01713.
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>