<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Тематическое представление новостного кластера как основа для автоматического аннотирования</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>г. Москва a.a.alekseevv@gmail.com</string-name>
        </contrib>
      </contrib-group>
      <fpage>173</fpage>
      <lpage>182</lpage>
      <abstract>
        <p>В работе предложен метод извлечения цепочек семантически близких слов и выражений, описывающих различных участников сюжета - тематических узлов. Метод основан на объединении различных факторов схожести, включающих структурную организацию новостных кластеров, анализ контекстов вхождения языковых выражений, а также информацию из предопределенных ресурсов. Контексты слов используются в качестве базиса для извлечения многословных выражений и построения тематических узлов. Оценка предложенного алгоритма произведена в задаче построения обзорных рефератов новостных кластеров.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>
        Современные технологии автоматической
обработки новостных потоков основаны на тематической
кластеризации новостных сообщений, т. е.
выделении совокупностей новостей, посвященных одному
и тому же событию – новостных кластеров [
        <xref ref-type="bibr" rid="ref17">17</xref>
        ].
      </p>
      <p>
        Кластер документов должен соответствовать
ситуации или совокупности связанных ситуаций
(основная тема кластера) [
        <xref ref-type="bibr" rid="ref17 ref2">2, 17</xref>
        ]. В описываемой
ситуации есть набор участников, которые в
исходном кластере:
 могут быть выражены не только словами, но
и словосочетаниями,
 могут выражаться не одним, а совокупностью
различных выражений; так, акции некоторой
компании могут выражаться в текстах одного
новостного кластера как собственно акции
компании, контрольный пакет акций,
контрольный пакет, акционер компании,
владелец компании, состав владельцев и др.
      </p>
      <p>Можно предположить, что качественное
выделение участников ситуации, включая различные
варианты их наименования в различных документах
кластера, может помочь лучше определять основную
Труды 15-й Всероссийской научной конференции
«Электронные библиотеки: перспективные методы и
технологии, электронные коллекции» — RCDL-2013,
Ярославль, Россия, 14-17 октября 2013 г.
2 Обзор существующих методов</p>
      <p>Проблема определения вариативности
именования в текстах является актуальной для различных
задач автоматической обработки естественного
языка. С формальной точки зрения данная проблема
является задачей группирования набора языковых
выражений входной текстовой коллекции на
тематические группы, относящиеся к одинаковым
сущностям. Существует ряд различных подходов со
схожими постановками задач, наиболее близкими из
которых являются:
 построение лексических цепочек;
 построение референциальных цепочек;
 вероятностные тематические модели (в
частности, LDA).</p>
      <p>
        Лексическая цепочка представляет собой
последовательность семантически связанных слов
(повторы, синонимы, гипонимы, гиперонимы и др.) и
является известным подходом к моделированию
связности текста на естественном языке [
        <xref ref-type="bibr" rid="ref10 ref14 ref19">10, 14, 21</xref>
        ].
Алгоритмы построения лексических цепочек основаны
на использовании информации о связях между
словами и выражениями, описанных в некотором
заранее определенном ресурсе, например, тезаурусе
английского языка WordNet и тезаурусе русского
языка РуТез.
      </p>
      <p>С целью выделения наиболее значимых для
содержания текста лексических цепочек
рассматриваются различные параметры лексических цепочек,
такие, как частотность ее элементов, текстовое
покрытие и другие. В лексических цепочках
выделяются наиболее частотные элементы цепочки в
качестве наиболее важных тематических элементов
текста.</p>
      <p>Использование лексических цепочек является из
существующих подходов идейно наиболее близким
к предлагаемому в данной статье. Основные
отличия предлагаемого подхода заключаются в
расширении рассмотрения с одного документа на
коллекцию документов, а также в использовании
совокупности различных факторов для группирования
семантически близких слов и выражений (а не только
информации, описанной в предопределенном
ресурсе).</p>
      <p>Частично проблему разного именования
именованных сущностей снимают посредством
установления кореференции имен (референциальных
цепочек), прежде всего, для людей и организаций
(Президент Российской Федерации Дмитрий
Медведев, Президент Медведев, Дмитрий Медведев)
[19].</p>
      <p>
        На конференциях TDT и ACE рассматривалась
задача по извлечению и прослеживанию
упоминаний сущностей по цепочкам кореференции (Entity
Detection and Tracking) [
        <xref ref-type="bibr" rid="ref6">6</xref>
        ]. Специфика данной
задачи заключается в обнаружении ограниченного
набора типов сущностей, существующих в реальном
мире.
      </p>
      <p>
        Вероятностные тематические модели, такие,
как Latent Dirichlet Allocation [
        <xref ref-type="bibr" rid="ref2 ref3 ref7">2, 3, 7</xref>
        ], основаны на
предположении, что документы на естественном
языке являются комбинацией различных тем
(топиков), в то время как каждая тема (топик) является
вероятностным распределением над словами. В
подобных моделях обычно рассматриваются два
вероятностных распределения:
      </p>
      <p> Темы (Топики) vs Документы (распределение
тем (топиков) по документам коллекции);</p>
      <p> Слова vs Темы (Топики) (распределение слов
по темам (топикам)).</p>
      <p>
        Восстановление информации об исходном
распределении тем (топиков) основано на итеративном
применении статистических методов (например,
Семплинга Гиббса [
        <xref ref-type="bibr" rid="ref7">7</xref>
        ]), использующих информацию
о совместном появлении слов в документах
исследуемой коллекции. При этом подобный
статистический вывод обычно не учитывает информацию о
существующих лексических отношениях между
словами и внутреннем устройстве текстов на
естественном языке. Результаты работы алгоритмов,
основанных на подобных моделях, имеют
вероятностный результат и трудно интерпретируемы.
3 Тематическое представление
      </p>
      <p>
        Как известно, текст обладает такими свойствами,
как глобальная и локальная связности. Глобальная
связность текста проявляется в том, что его
содержание может быть представлено в виде
иерархической структуры пропозиций [
        <xref ref-type="bibr" rid="ref5">5</xref>
        ]. Самая верхняя
пропозиция представляет собой основную тему
документа, а пропозиции нижних уровней представляют
собой локальные или побочные темы документа.
      </p>
      <p>Локальная связность, т. е. связность между
соседними предложениями текста, часто
осуществляется такими средствами, как анафорические
отсылки, например, с помощью местоимений, или
посредством повторения одних и тех же или близких по
смыслу слов (лексическая связность).</p>
      <p>Пропозиция основной темы документа, т. е.
взаимоотношения участников основной темы, должна
находить свое отражение в конкретных
предложениях текста, которые должны раскрывать и уточнять
взаимоотношения между тематическими
элементами. Если текст посвящен обсуждению
взаимоотношений между тематическими элементами C1, , Cn,
то в предложениях текста должны обсуждаться
детали этих отношений. Это проявляется в том, что
сами тематические элементы C1, , Cn или их
лексические представители должны встречаться как
разные актанты одних и тех же предикатов в
конкретных предложениях текста.</p>
      <p>Исходя из данных идей, для выявления
участников ситуации, описываемой в исходном новостном
кластере, мы сделали ряд следующих
предположений:</p>
      <p>1) взаимодействие участников описывается в
предложениях текста, поэтому чем чаще слова (или
выражения) встречаются в одних и тех же
предложениях текста, тем больше вероятность того, что эти
слова (или выражения) относятся к разным
участникам ситуации;</p>
      <p>2) каждому участнику в тексте соответствует
группа слов и выражений; предполагается, что в
тексте имеются наиболее частотное (главное
название участника) и разные варианты, поэтому группа
слов и выражений, относящихся к одному
участнику, строится в форме узла, т. е. главное выражение и
относящиеся к нему выражения – тематический
узел;</p>
      <p>
        3) тематическое представление в предлагаемом
подходе представляет собой совокупность
выявленных тематических узлов и отношений между ними
[
        <xref ref-type="bibr" rid="ref14 ref9">9, 14</xref>
        ].
      </p>
      <p>
        Данные предположения основаны на внутреннем
устройстве и тематической структуре текстов на
естественном языке [
        <xref ref-type="bibr" rid="ref10 ref5">5, 10</xref>
        ]. Более подробная
информация о сделанных предположениях, а также
описание проведенных экспериментов по проверке
сделанных гипотез, представлены в работе [
        <xref ref-type="bibr" rid="ref1">1</xref>
        ].
Новостной кластер не является связным текстом, но
посвящен одной ситуации (или совокупности
связанных ситуаций) и содержит большое количество
документов, что влечет за собой усиление всех
статистических особенностей.
4 Алгоритм построения тематического
представления
4.1 Контексты употребления слов
      </p>
      <p>Важным фактором для построения
тематического представления являются контексты, в которых
употребляются слова и выражения. Для получения
контекстов слов предложения разбиваются на
фрагменты между знаками препинания. Выделяются
следующие типы контекстов в рамках таких
фрагментов:</p>
      <p> соседнее прилагательное или существительное
вправо или влево от исходного слова (Near);
 во фрагментах, в которых есть глаголы,
фиксируются прилагательные и существительные, между
которыми и исходным словом встречается глагол
(AcrossVerb);</p>
      <p> прилагательные и существительные,
встречающиеся во фрагментах предложений с данным
словом, не разделенные глаголом и не являющиеся
соседними к исходному слову (NotN).</p>
      <p>Кроме того, для всех прилагательных и
существительных запоминаются слова, встречающиеся в
соседних предложениях (NS). Предложения для
вычисления этого показателя берутся не полностью,
учитываются фрагменты предложений с начала и до
фрагмента, содержащего глагол (включительно), что
позволяет извлекать из соседних предложений
наиболее значимые слова.
4.2 Сборка многословных выражений</p>
      <p>Важной основой извлечения многословного
выражения из текста документа является частотность
его встречаемости в тексте. Однако кластер
представляет собой структуру, в которой многие
цепочки слов повторяются многократно. Поэтому
основным критерием для выделения многословных
выражений является значительное превышение
встречаемости слов непосредственно рядом друг с другом
по сравнению с раздельной встречаемостью во
фрагментах предложений [18]:</p>
      <p>Near &gt; 2 * (AcrossVerb + NotN).
(1)
Кроме того, используются ограничения по
частотности встречаемости слов рядом друг с другом.</p>
      <p>Просмотр подходящих пар слов (выражений) для
склейки производится в порядке снижения
коэффициента Near / (AcrossVerb + NotN). При нахождении
подходящей пары слов они склеиваются в единый
объект, и все контекстные отношения
пересчитываются. Процедура просмотра начинается заново и
повторяется до тех пор, пока произведена хотя бы
одна склейка.</p>
      <p>В результате данной процедуры собираются
такие выражения, как президент компании,
международные экономические отношения, председатель
совета директоров, контрольный пакет акций и
т. д.
4.3 Характеристики для определения
семантических связей</p>
      <p>
        Для определения семантически связанных
выражений и последующего построения тематических
узлов используется набор из шести основных
характеристик схожести. Некоторые из данных
характеристик являются контекстно-зависимыми и
вычисляются непосредственно на основании
рассматриваемого новостного кластера, в то время как другие
определяются на основании формальной схожести
выражений и информации из заранее определенных
ресурсов. Каждая характеристика добавляет
некоторый балл в общий вес схожести пары выражений,
независимо от других характеристик схожести. В
следующей секции будет дано подробное описание
алгоритма расчета весов схожести пар выражений.
Контекстно-зависимые характеристики:
Количество вхождений в соседние предложения
(Neighboring Sentence Feature, NSF). Данная
характеристика основана на гипотезе глобальной
связности текстов на естественном языке [
        <xref ref-type="bibr" rid="ref5">5</xref>
        ] и её
следствии о том, что элементы одного тематического
узла чаще появляются в соседних предложениях
исходных документов, чем в одних и тех же
предложениях.
      </p>
      <p>Характеристика NSF вычисляется на основе
контекстных параметров AcrossVerb, Near, NotNear и
NS и распределения их средних значений внутри
исходного новостного кластера. Характеристика
NSF дает численную оценку соотношения
количества вхождений в соседние предложения
(характеристика NS) по отношению к количеству вхождений
в одни и те же предложения исходного корпуса
(характеристики AcrossVerb, Near и NotNear) и
основана на следующем соотношении:</p>
      <p>C  NS  2 AcrossVerb  Near  NotNear . (2)
Общая формула вклада характеристики NSF в вес
схожести пары выражений имеют следующую
форму:</p>
      <p>
NSF  Min0.5 ,
</p>
      <p>C 
Avg(C) 
где AVG(C) является средним значением C среди
всех положительных значений в рамках всего
кластера.</p>
      <p>NSF также является управляющей
характеристикой. Это означает, что два выражения не могут быть
включены в один и тот же тематический узел, если
значение характеристики NSF имеет отрицательное
значение. Подобная пара с отрицательным
значением NSF не имеет общего веса и не рассматривается
алгоритмом построения тематических узлов. Стоит
отметить, что подобная характеристика не
использовалась раньше для подобных задач, таких, как
определение вариантов именования основных
участников ситуации, построение рядов
квазисинонимов, а также лексических цепочек.</p>
      <p>Строгие контексты (Strict Context, SC). Данная
характеристика основана на сравнении строгих
контекстов употреблений слов – текстовых шаблонов. В
качестве шаблонов рассматриваются 4-граммы: по
два слова справа и слева от рассматриваемого
выражения. Чем больше одинаковых шаблонов
разделяет пара-кандидат, тем больше схожесть по данной
характеристике. Контексты с недостающей
информацией (или неполные 4-граммы контекстов, в
начале и конце предложений) получают меньший
вес, чем целые шаблоны.</p>
      <p>Вес шаблона строгого контекста рассчитывается
следующим образом: каждое слово n-граммы
шаблона контекста имеет вес, равный 0.25. Например,
nграмма (*, *, состоит, из) будет иметь вес 0.5, а
nграмма (новостной, кластер, состоит, из) будет
иметь вес, равный 1.0, что является максимальным
весом полного шаблона n-граммы.</p>
      <p>
        Значение характеристики SC имеет
вещественное значение, принадлежащее отрезку [
        <xref ref-type="bibr" rid="ref1">0,1</xref>
        ]. Вес
характеристики вычисляется относительно веса пары с
максимальным значением разделяемых строгих
контекстов, пропорционально весу разделяемых
строгих контекстов для текущей пары.
      </p>
      <p>Схожесть контекстов употребления по
внутренним характеристикам предложения (Scalar
Product Similarity, SPS). Каждый из контекстных
параметров, описанных в разделе 4.1, представляет
собой вектор частот, сопоставленных с каждым
словом или выражением. Размерности данного вектора
отражают частоту совместной встречаемости
рассматриваемого слова или выражения со всеми
остальными словами и выражениями, упомянутыми
в новостном кластере. После построения данных
контекстных векторов они могут быть сопоставлены
классическими метриками схожести, например,
такой, как косинусная мера угла между векторами.
Характеристика SPS может быть рассмотрена как
более сглаженная и гибкая характеристика по
отношению к характеристике SC, так как обе данных
характеристики основаны на контекстах
употребления слов и выражений.</p>
      <p>Значение характеристики SPS имеет
вещественное значение, лежащее в пределах от 0 до 0.5
(половинный вес характеристики), и вычисляется как
косинусная мера схожести по всем контекстным
характеристикам (AcrossVerb, Near и NotNear),
ограниченная сверху значением 0.5.</p>
      <p>Контекстно-независимые характеристики:
Формальное сходство (Beginning Similarity, BS).
Рассмотрение формального сходства выражений
является естественным путем обнаружения
семантически связанных объектов. На текущий момент
используется простая метрика схожести –
одинаковые начала слов. Данная характеристика позволяет
находить сходство между такими выражениями, как
Руководитель – Руководство, Президент России –
Российский президент и т. д.</p>
      <p>
        Общий вес характеристики BS имеет
вещественное значение из отрезка [
        <xref ref-type="bibr" rid="ref1">0,1</xref>
        ] и вычисляется по
следующей формуле (в случае, если есть слова с
одинаковыми началами, иначе вес равен нулю):
      </p>
      <p>BS  1.0  0.1* Ndiff ,
где Ndiff – число слов с различными началами.</p>
      <p>
        Информация о схожести, описанная во внешнем
ресурсе – тезаурусе РуТез (Thesaurus Similarity, TS).
На текущий момент существует большое
количество разнообразных предопределенных ресурсов,
которые содержат в себе дополнительную
информацию о связях слов и выражений. Данная
информация может быть использована для построения
тематических узлов и сделать данное построение более
стабильным и качественным. Более того, известно,
что некоторые типы отношений между словами и
выражениями широко используются для
обеспечения связности реальных текстов (например, такие
отношения, как синонимия). Вычисление
характеристики TS основано на использовании информации
из тезауруса русского языка РуТез [
        <xref ref-type="bibr" rid="ref13">13</xref>
        ]. При этом в
рассмотрение попадали как непосредственные связи
объектов, так и «длинные» связи по транзитивным
типам отношений. Рассматриваются следующие
типы связей: синонимия, часть – целое, род – вид.
      </p>
      <p>Значение характеристики TS имеет
вещественное значение от 0 до 1 и вычисляется
обратнопропорционально расстоянию между объектами в
тезаурусе:</p>
      <p>TS  1.0  0.2 * Nrel ,
где Nrel – длина пути по отношениям тезауруса
(количество связей).</p>
      <p>Наличие одинаковых языковых выражений
(Embedded Objects Similarity, EOS). При анализе
схожести комплексных тематических узлов, включающих
несколько языковых выражений, важным фактором
схожести является наличие общих языковых
выражений у двух различных узлов. Данный фактор
особенно важен на поздних итерациях работы
алгоритма, когда имеется значительное количество
сформированных тематических узлов и остальные
характеристики схожести уже проработаны. Значение
данной характеристики является булевым и может
добавлять 1 балл в общий вес схожести пары в случае
наличия одинаковых языковых выражений.</p>
      <p>Общий вес схожести пары рассматриваемых
объектов вычисляется как сумма весов по
отдельным характеристикам схожести, описанным выше.
Таким образом, каждая пара получает вес, лежащий
в пределах от 0 (отсутствие схожести) до 5
(максимальная схожесть), получаемый на основе шести
характеристик (3 контекстно-зависимых и 3
контекстно-независимых), лежащих в пределах от 0 до
1 (SC, BS, TS, EOS) и от 0 до 0.5 (NSF, SPS). Пример
ранжирования пар в соответствии с описанным
алгоритмом приведен в Таблица 1 (топ-5 пар по
общему весу на первой итерации работы алгоритма,
характеристика EOS равна нулю для всех пар на
первой итерации).
4.4 Алгоритм построение тематического
представления на основе совокупности факторов
Алгоритм построения тематического
представления конструирует тематические узлы из пар
выражений в порядке убывания их схожести.
Предлагаемая структура тематического узла обладает
следующими свойствами:</p>
      <p> текстовое выражение может принадлежать к
одному или двум тематическим узлам; разрешение
множественной принадлежности обеспечивает
возможность представления различных аспектов
исходного текстового выражения, а также его
лексической многозначности;</p>
      <p> каждый тематический узел имеет главный
элемент – центр тематического узла, который может
принадлежать только к одному тематическому узлу;
центр тематического узла является наиболее
частотным элементом среди всех элементов тематического
узла.</p>
      <p>Построение тематического представления
состоит из следующих шагов:</p>
      <p> рассматривается пара текстовых выражений с
наибольшим весом схожести среди всех
паркандидатов;</p>
      <p> более частотный элемент пары поглощает
менее частотный элемент вместе со всеми его
текстовыми вхождениями и контекстными
характеристиками и становится представителем данной пары
текстовых выражений – центром нового тематического
узла;</p>
      <p> менее частотный элемент рассматриваемой
пары может в дальнейшем аналогичным образом
присоединиться к другому тематическому узлу;
 объединение тематических узлов, состоящих
из нескольких элементов, происходит аналогично
объединению одиночных текстовых выражений;
центр более частотного тематического узла
становится центром нового, объединенного
тематического узла.</p>
      <p>В целом каждая итерация алгоритма состоит из
трех основных шагов:
1. ранжирование пар-кандидатов;
2. выбор пары для объединения (наибольший
вес + удовлетворение ограничений);
3. процедура объединения.</p>
      <p>Итеративный процесс продолжается до тех пор,
пока есть пары-кандидаты для объединения с весом
схожести выше заданного порога. Например,
тематический узел с центральным элементом Пост
проходит следующие этапы в процессе построения
(показаны пары с максимальным весом схожести на
разных итерациях; более частотный элемент пары
является первым элементом):
Итерация 7: (Отставка)  (Отставка с
должности)
Итерация 33: (Отставка, Отставка с
должности)  (Уход в отставку)
Итерация 44: (Отставка, Отставка с
должности, Уход в отставку)  (Отставка
президента)
Итерация 61: (Уход с поста)  (Уход в
отставку)
Итерация 62: (Отставка, Отставка с
должности, Уход в отставку, Отставка президента)
 (Уход с поста, Уход в отставку)
Итерация 102: (Отставка, Отставка с
должности, Уход в отставку, Отставка президента,
Уход с поста)  (Пост)
Итерация 103: (Пост, Отставка, Отставка с
должности, Уход в отставку, Отставка
президента, Уход с поста)  (Должность)
Итерация 104: (Пост, Отставка, Отставка с
должности, Уход в отставку, Отставка
президента, Уход с поста, Должность)  (Уход)
Следующие тематические узлы были получены в
результате работы описанного алгоритма для
кластера примера. Представлены 5 наиболее частотных
тематических узлов в порядке убывания частоты.
Данные узлы не подвергались какой-либо
постобработке, центры тематических узлов выделены
жирным шрифтом:
Пост: уход с поста; должность; уход;
отставка; отставка с должности; уход в отставку;
отставка президента
Алроса: президент Алроса; АК Алроса
Компания: акция компании; владелец компании;
объединение компаний; акция; акционер
компании; владелец; пакет акций; состав владельцев;
контрольный пакет акций; контрольный пакет;
владение
Ничипорук: Александр Ничипорук
Якутия: президент Якутии; якутский;
якутский президент
5 Порождение аннотаций на основе
тематического представления</p>
      <p>
        Тематическое представление содержит в себе
дополнительную информацию о внутреннем
устройстве исходного новостного кластера, которая
может быть использована для улучшения
автоматических операций над текстовыми данными. Одной
из таких задач является задача автоматического
аннотирования, т. е. подготовки краткого изложения
содержания исходного документа(ов). Решение
данной задачи в значительной степени связано с
наличием информации о различном именовании одних и
тех же участников ситуации, описанной во входных
документах, так как практически невозможно
построить полную и не избыточную аннотацию без
учета вариативности упоминаний наиболее
значимых сущностей. В данном разделе описаны как
существующие известные методы аннотирования
(MMR, SumBasic), так и новые подходы,
основанные на тематическом представлении. Все
представленные подходы используются для оценки качества
построенного тематического представления путем
его интеграции в исходную структуру данных
алгоритмов аннотирования.
5.1 Метод Maximal Marginal Relevance (MMR)
Метод Maximal Marginal Relevance для задачи
многодокументного аннотирования является
классическим не порождающим (выбирающим для
аннотации целые предложения из исходных
документов) методом аннотирования, который основан на
концепции Maximal Marginal Relevance для
информационного поиска [
        <xref ref-type="bibr" rid="ref4">4</xref>
        ]. В оригинале данный
алгоритм является запрос-ориентированным, но
существует также вариант и для общего аннотирования,
когда в качестве запроса для аннотирования
выступает исходных корпус документов.
      </p>
      <p>Критерий MMR заключается в том, что лучшее
предложение для аннотации должно быть
максимально релевантным исходному набору документов
и максимально отличным от всех предложений, уже
отобранных в итоговую аннотацию.</p>
      <p>Аннотация строится итеративно на основании
списка ранжированных предложений. Предложение
с максимальным значением MMR выбирается на
каждой итерации алгоритма:</p>
      <p> 
MMR  arg max   Sim1s,Q  1    max Sim2 s, s j 
sS  sjE 
где S – множество предложений-кандидатов в
аннотацию, E – множество отобранных в аннотацию; λ –
представляет собой интерполяционный
коэффициент между релевантностью отбираемых
предложений и их не избыточностью; Sim1 – метрика
схожести между предложением и запросом для
аннотирования (например, косинусная мера угла между
векторами, широко применяемая в информационном
поиске); Sim2 может быть такой же, как Sim1, или
другой метрикой схожести. В нашей работе в
качестве метрик Sim1 и Sim2 использовалась косинусная
мера угла между векторами.
5.2 Метод SumBasic</p>
      <p>
        SumBasic – алгоритм для общего
многодокументного аннотирования [
        <xref ref-type="bibr" rid="ref14 ref15">14, 15</xref>
        ]. В его основе
лежит эмпирическое наблюдение о том, что более
частотные слова рассматриваемого кластера
документов с большей вероятностью попадают в экспертные
аннотации, нежели слова с низкой частотностью.
      </p>
      <p>Алгоритм SumBasic строится на базе частотного
распределения слов в исходном документе и состоит
из пяти шагов. На первом шаге происходит расчет
вероятностей слов исходного кластера p(wi):
p(wi ) = n/N,
где n – число появлений слова wi в исходной
коллекции, N – общее число слов в данной коллекции.
Каждому предложению Sj на втором шаге
назначается вес, равный средней вероятности слов в данном
предложении:</p>
      <p>weight (S j )   wi  S j |  wi p|w(wii) S j  | .
На третьем шаге предложение с наибольшим весом
отбирается в итоговую аннотацию. После этого на
шаге 4 происходит пересчет вероятностей всех слов,
входящих в отобранное предложение, по
следующей формуле:</p>
      <p>pnew (wi ) = pold (wi )  pold (wi ) .
На пятом шаге проверяется общая длина
получившейся аннотации, и если она не превосходит
заданного порога, то происходит переход к шагу 2.
5.3 Аннотирование на основе тематического
представления РуТез</p>
      <p>
        В работе [
        <xref ref-type="bibr" rid="ref18">20</xref>
        ] предложен метод аннотирования на
основе тематического представления, построенного
на базе тезауруса русского языка РуТез. Одной из
ключевых задач данного алгоритма является
обеспечение одинаково высокого качества как полноты
изложения информации, представленной в
автоматической аннотации, так и её связности.
      </p>
      <p>Алгоритм аннотирования на основе
тематического представления на базе РуТез является
итеративным, на каждой итерации отбирается по одному
предложению. Поставленные цели по комбинации
полноты и связности конечной аннотации решаются
за счет наложения ограничений на этапе отбора
предложений, а именно:</p>
      <p> для обеспечения полноты изложения
информации предложение-кандидат должно содержать
новый (ещё не упомянутый в отобранных
предложениях) тематический узел;</p>
      <p> для обеспечения связности
предложениекандидат должно содержать уже упомянутый в
отобранных предложениях тематический узел.
Из всех предложений, удовлетворяющих данным
условиям, отбирается предложение с наибольшим
весом тематических узлов – отражение основной
темы исходного новостного кластера.</p>
      <p>Алгоритм аннотирования на основе
тематического представления на базе РуТез интересен нам в
контексте его основы – тематического
представления. Оно имеет схожую структуру с тематическим
представлением, описанным в данной работе. При
этом оно построено с использованием только одной
характеристики – информации о наличии связей в
тезаурусе РуТез. В данной работе добавлен ряд
новых факторов, которые призваны обогатить
полученное тематическое представление, а также
повысить его качество.
5.4 Собственные методы аннотирования на
основе тематического представления</p>
      <p>Документы новостного кластера содержат в себе
описание некоторого события (ситуации) или ряда
связанных событий (ситуаций). Основная цель
автоматического аннотирования заключается в
наиболее полном отражении значимых фактов,
относящихся к данному событию (ситуации) и описанных
в исходной коллекции документов. Событие
(ситуация), в свою очередь, характеризуется набором её
участников. Под «фактом» в данном случае
понимаются описание взаимоотношений между
некоторыми участниками события (ситуации) или же
детализация описания отдельного её участника.</p>
      <p>Тематический узел предлагаемого тематического
представления является воплощением некоторого
участника события (ситуации) и в идеале должен
содержать всевозможные варианты именования
данного участника в рамках исходного новостного
кластера. Таким образом, в основе предлагаемых
методов аннотирования лежит учет наиболее
значимых взаимоотношений тематических узлов
построенного тематического представления – учет
взаимоотношений основных участников события
(ситуации). Предлагается два итеративных метода
аннотирования, отличающихся стратегией учета
значимости отношений между тематическими узлами. На
каждой итерации в обоих подходах отбирается по
одному предложению.</p>
      <p>В качестве основы для расчета значимости
отношений между тематическими узлами в первом
алгоритме (OurSummary_Nodes) выступает
значимость самих тематических узлов. Каждый
тематический узел имеет вес, равный суммарной частоте его
элементов. На каждой итерации в итоговую
аннотацию отбирается предложение, содержащее три
наиболее значимых и ещё не упомянутых
тематических узла (ТУ_NEW):</p>
      <p> desc weight(ТУ _ NEWj ) 
si  max  weight (ТУ _ NEW j ) .</p>
      <p> ТУ _ NEWjsi , i1..3 
В рамках второго предлагаемого алгоритма
аннотирования (OurSummary_Relations) критерием для
отбора предложения выступает наличие наиболее
обсуждаемой и ещё не упомянутой пары
тематических узлов. Для каждой пары тематических узлов
предварительно рассчитывается количество
вхождений в одни и те же предложения исходного
новостного кластера – «обсуждаемость» пары. На
каждой итерации отбирается предложение,
содержащее наиболее обсуждаемую и неупомянутую в
отобранных предложениях пару, а также
обладающее наибольшим общим весом тематических узлов:
 
si  max  weight (ТУ _ REL _ NEW j ) .</p>
      <p>ТУ _ REL _ NEWjsi 
Итеративный процесс отбора предложений для
аннотации в обоих алгоритмах продолжается до тех
пор, пока не будет превышен заданный порог по
количеству слов. Во всех генерируемых аннотациях
данный порог равен 100 словам – стандартный
размер аннотации для подобных задач на
соревнованиях мирового уровня (DUC, TAC).
6 Оценка качества аннотаций
6.1 Методы оценки автоматических аннотаций
ROUGE и Пирамид</p>
      <p>
        Оценка качества порождаемых аннотаций
является достаточно сложной процедурой. Несомненно,
наиболее правдоподобные оценки можно получить
при помощи ручной оценки путём привлечения
большого количества экспертов. Но данный метод
является очень дорогим и трудоёмким. Поэтому
используются автоматические методы оценки
качества аннотаций ROUGE [
        <xref ref-type="bibr" rid="ref12">12</xref>
        ] и формализованный
метод Пирамид.
      </p>
      <p>
        Метод ROUGE основан на автоматическом
сравнении порожденной аннотации с эталонными
аннотациями, созданными экспертами. Существуют
различные модификации алгоритма, связанные с
различными способами сравнения: сравнение n-грамм
(ROUGE-N); сравнение максимальных общих
последовательностей (ROUGE-L и ROUGE-W);
сравнение пропусков монограмм и биграмм (ROUGE-S и
ROUGE-SU). В статье [
        <xref ref-type="bibr" rid="ref12">12</xref>
        ] показано, что все
основные ROUGE-метрики являются значимыми, так как
в зависимости от специфики конкретной задачи
каждая из метрик может иметь наилучшую
корреляцию с ручными аннотациями.
      </p>
      <p>В основе метода Пирамид также лежит
сравнение автоматических аннотаций с эталонными
аннотациями. Но в отличие от метода ROUGE данное
сравнение происходит не в автоматическом режиме,
а в ручном, на основании формализованного
алгоритма сравнения. Эксперты выделяют из эталонных
аннотаций все «информационные единицы»
(Summary Content Units, SCU) – факты, описанные в
аннотации. Каждая информационная единица
получает вес пропорционально количеству упоминаний в
экспертных аннотациях. Далее полученные
информационные единицы вручную ищутся в
автоматических аннотациях. Итоговая оценка аннотации равна
общему весу упомянутых информационных единиц
по отношению к суммарному весу информационных
единиц, извлеченных для данного новостного
кластера.</p>
      <p>В данной работе оценка качества аннотаций
построена на оценке методом ROUGE и
дополнительной оценке методом Пирамид.</p>
      <p> SumBasic с добавлением информации из
построенного тематического представления
(SumBasic+Groups);</p>
      <p> аннотирование на основе тематического
представления на базе тезауруса РуТез (ThematicLines);
 собственный алгоритм аннотирования на
основе построенного тематического представления, по
тематическим узлам (модификации с и без учета
IDF, OurSummary_Nodes_WithIDF и
OurSummary_Nodes соответственно);</p>
      <p> собственный алгоритм аннотирования на
основе построенного тематического представления, по
связям тематических узлов (модификации с и без
учета IDF, OurSummary_Relations_WithIDF и
OurSummary_Relations соответственно)
6.3 Результаты</p>
      <p>В результате работы программного пакета
ROUGE каждая автоматическая аннотация получает
набор результатов по различным метрикам
сопоставления автоматических аннотаций с
аннотациями, составленными экспертами. По причине
значимости различных ROUGE-метрик для задач с
различной спецификой (см. раздел 6.1) в качестве
основного параметра для сравнения автоматических
аннотаций была взята средняя позиция в
результатах по всем основным ROUGE-метрикам.</p>
      <p>
        ROUGE-2
Для оценки качества автоматических аннотаций
были подготовлены 11 новостных кластеров по
различным тематикам, собранные на основе пословной
модели представления данных [
        <xref ref-type="bibr" rid="ref17">17</xref>
        ]. Независимые
эксперты-лингвисты подготовили от 2 до 4 ручных
аннотаций для каждого из данных кластеров. Все
автоматические аннотации прошли единообразную
обработку для автоматической оценки
программным пакетом ROUGE [
        <xref ref-type="bibr" rid="ref12">12</xref>
        ]:
      </p>
      <p> ограничение аннотаций длиной свыше 100
слов (рассмотрение только первых 100 слов);
 приведение слов к соответствующим леммам;
 исключение стоп-слов и незначащих частей
речи;</p>
      <p> транслитерация всех русскоязычных слов
(пакет ROUGE работает только с латинскими
символами);</p>
      <p> преобразование автоматических аннотаций в
необходимый для пакета ROUGE входной формат
(см. документацию пакета).</p>
      <p>Всего в оценке участвовали 11 различных
модификаций алгоритмов:</p>
      <p> классический пословный MMR в
модификациях с учетом и без учета IDF (MMR_WithIDF и
MMR_WithoutIDF соответственно);</p>
      <p> MMR с добавлением информации из
построенного тематического представления (модификации
с и без учета IDF, MMR_WithIDF+Groups и
MMR+Groups соответственно);
 классический пословный SumBasic;</p>
      <p>Метод ROUGE-1</p>
    </sec>
    <sec id="sec-2">
      <title>MMR + Groups</title>
    </sec>
    <sec id="sec-3">
      <title>OurSummary_Nodes</title>
    </sec>
    <sec id="sec-4">
      <title>OurSummary_Nodes_WithIDF</title>
    </sec>
    <sec id="sec-5">
      <title>MMR_WithIDF</title>
    </sec>
    <sec id="sec-6">
      <title>MMR_WithoutIDF</title>
    </sec>
    <sec id="sec-7">
      <title>ThematicLines</title>
    </sec>
    <sec id="sec-8">
      <title>OurSummary_Relations</title>
    </sec>
    <sec id="sec-9">
      <title>SumBasic + Groups</title>
    </sec>
    <sec id="sec-10">
      <title>SumBasic</title>
    </sec>
    <sec id="sec-11">
      <title>OurSummary_Relations_WithIDF MMR_WithIDF + Groups</title>
      <p>
        Для проведения дополнительной оценки
качества автоматических аннотаций лучших и наиболее
значимых для нас методов (с и без интеграции
построенного тематического представления) была
проведена альтернативная оценка полученных
аннотаций методом Пирамид [
        <xref ref-type="bibr" rid="ref8">8</xref>
        ]. Результаты данной
оценки представлены в Таблице 3.
      </p>
      <p>Метод</p>
    </sec>
    <sec id="sec-12">
      <title>MMR + Groups</title>
    </sec>
    <sec id="sec-13">
      <title>MMR_WithIDF</title>
    </sec>
    <sec id="sec-14">
      <title>OurSummary_Nodes</title>
    </sec>
    <sec id="sec-15">
      <title>SumBasic + Groups SumBasic</title>
      <p>Оценка по Пирамидам
0,645 (1)
0,617 (2)
0,602 (3)
0,575 (4)
0,567 (5)
Таблица 3: Результаты оценки методом Пирамид
На основе результатов оценки полученных
аннотаций методами ROUGE и Пирамид необходимо
отметить, что:
 наилучший результат показал метод
аннотирования, основанный на построенном тематическом
представлении;</p>
      <p> добавление тематических узлов к обоим
базовым методам улучшило результаты исходных
методов;</p>
      <p> предлагаемое тематическое представление
показало более высокий результат в аннотировании,
чем тематическое представление только на основе
тезауруса.
7 Заключение</p>
      <p>
        В статье предложен алгоритм выявления
семантически связанных слов и выражений,
описывающих различных участников ситуации новостного
кластера – тематических узлов. Предложенный
алгоритм основан на совместном использовании
характеристик схожести различной природы. В
дополнение к известным контекстным
характеристикам схожести, таким, как анализ жестких контекстов
(шаблонов) употребления слов и выражений,
используется характеристика, основанная на
внутреннем устройстве текстов на естественном языке –
анализ встречаемости в соседних предложениях
кластера по отношению к встречаемости в одних и
тех же предложениях. В едином алгоритме
объединены характеристики следующих различных типов:
 формальное сходство слов и выражений;
 информация из предопределенных ресурсов
(тезаурус русского языка РуТез [
        <xref ref-type="bibr" rid="ref13">13</xref>
        ]);
 контекстные характеристики схожести.
      </p>
      <p>Оценка предложенного алгоритма производилась
в контексте применения полученного тематического
представления к задаче автоматического
аннотирования. Полученные результаты подтверждают, что
информация, заложенная в построенных
тематических узлах, позволяет улучшать качество
алгоритмов много документного аннотирования.
Литература</p>
      <p>Thematic representation of a news cluster
as a basis for summarization</p>
      <p>In this paper we consider a method for extraction of
various references of a concept or a named entity
mentioned in a news cluster. The method is based on the
structural organization of news clusters and exploits
comparison of various word contexts. The word
contexts are used as a basis for multiword expression
extraction and main entity detection. At the end of cluster
processing we obtain groups of thematically-related
elements, in which the main element of a group is
determined. Evaluation of the proposed algorithm is
performed in news cluster summarization task.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          [1]
          <string-name>
            <surname>Alekseev</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Loukachevitch</surname>
            <given-names>N.</given-names>
          </string-name>
          <article-title>Use of Multiple Features for Extracting Topics from</article-title>
          News Clusters // Труды конференции SYRCODIS'
          <year>2012</year>
          ,
          <year>2012</year>
          . pp.
          <fpage>3</fpage>
          -
          <lpage>11</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          [2]
          <string-name>
            <surname>Allan</surname>
            <given-names>J</given-names>
          </string-name>
          . Introduction to Topic Detection and Tracking // Topic detection and tracking, Kluwer Academic Publishers Norwell, MA, USA,
          <year>2002</year>
          . pp.
          <fpage>1</fpage>
          -
          <lpage>16</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          [3]
          <string-name>
            <surname>Blei</surname>
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ng</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Jordan</surname>
            <given-names>M</given-names>
          </string-name>
          .
          <source>Latent Dirichlet Allocation // Journal of Machine Learning Research</source>
          ,
          <volume>3</volume>
          ,
          <year>2003</year>
          . pp.
          <fpage>993</fpage>
          -
          <lpage>1022</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          [4]
          <string-name>
            <surname>Carbonell</surname>
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Goldstein</surname>
            <given-names>J.</given-names>
          </string-name>
          <article-title>The use of MMR, diversity-based reranking for reordering documents</article-title>
          and
          <source>producing summaries // Proceedings of the 21st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval</source>
          , Melbourne, Australia,
          <year>1998</year>
          . pp.
          <fpage>335</fpage>
          -
          <lpage>336</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          [5]
          <string-name>
            <surname>Dijk</surname>
            <given-names>van T</given-names>
          </string-name>
          .
          <source>Semantic Discourse Analysis // Handbook of Discourse Analysis / Teun A. van Dijk</source>
          , (Ed.), vol.
          <volume>2</volume>
          . London: Academic Press,
          <year>1985</year>
          . pp.
          <fpage>103</fpage>
          -
          <lpage>136</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          [6]
          <string-name>
            <surname>Doddington</surname>
            <given-names>G.</given-names>
          </string-name>
          , Mitchell A.,
          <string-name>
            <surname>Przybocki</surname>
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Ramshaw</surname>
            <given-names>L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Strassel</surname>
            <given-names>S.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Weishedel</surname>
            <given-names>R.</given-names>
          </string-name>
          <article-title>The Automatic Content Extraction (ACE): Task, Data</article-title>
          ,
          <source>Evaluation // Proceedings of Fourth International Conference on Language Resources and Evaluation</source>
          ,
          <year>2004</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          [7]
          <string-name>
            <surname>Griffiths</surname>
            <given-names>T.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Steyvers</surname>
            <given-names>M</given-names>
          </string-name>
          .
          <source>Finding scientific topics // Proceedings of the National Academy of Sciences of the United States of America</source>
          , Vol.
          <volume>101</volume>
          , No.
          <source>Suppl. 1</source>
          ,
          <year>2004</year>
          . pp.
          <fpage>5228</fpage>
          -
          <lpage>5235</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          [8]
          <string-name>
            <surname>Harnly</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Nenkova</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Passonneau</surname>
            <given-names>R.</given-names>
          </string-name>
          , Ram-bow
          <string-name>
            <surname>O</surname>
          </string-name>
          .
          <article-title>Automation of summary evaluation by the pyramid method //</article-title>
          <source>Proceedings of the International Conference on Recent Advances in Natural Language Processing</source>
          ,
          <year>2005</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          [9]
          <string-name>
            <surname>Hasan</surname>
            <given-names>R.</given-names>
          </string-name>
          <string-name>
            <surname>Coherence</surname>
          </string-name>
          and Cohesive harmony // Understanding reading comprehension / J. Flood, editor, Newark,
          <year>1984</year>
          . pp.
          <fpage>181</fpage>
          -
          <lpage>219</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          [10]
          <string-name>
            <surname>Hirst</surname>
            <given-names>G.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>St-Onge D. Lexical</surname>
          </string-name>
          <article-title>Chains as representation of context for the detection and correction malapropisms // WordNet: An electronic lexical database and some of its applications / C. Fellbaum, editor</article-title>
          . Cambrige, MA: The MIT Press,
          <year>1998</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          [11]
          <string-name>
            <surname>Li</surname>
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Sun</surname>
            <given-names>L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Kit</surname>
            <given-names>C.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Webster</surname>
            <given-names>J. A</given-names>
          </string-name>
          <string-name>
            <surname>Query-Focused</surname>
          </string-name>
          Multi-Document
          <source>Summarizer Based on Lexical Chains // Proceedings of the Document Understanding Conference</source>
          ,
          <year>2007</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          [12]
          <string-name>
            <surname>Lin C.-Y. ROUGE:</surname>
          </string-name>
          <article-title>a package for automatic evaluation of summaries //</article-title>
          <source>Proceedings of the Workshop on Text Summarization Branches Out (ACL</source>
          '
          <year>2004</year>
          ), Barcelona, Spain,
          <year>2004</year>
          . pp.
          <fpage>74</fpage>
          -
          <lpage>81</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          [13]
          <string-name>
            <surname>Loukachevitch</surname>
            <given-names>N.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Dobrov</surname>
            <given-names>B</given-names>
          </string-name>
          .
          <article-title>Evaluation of Thesaurus on Sociopolitical Life as Information Retrieval Tool //</article-title>
          <source>Proceedings of Third International Conference on Language Resources and Evaluation</source>
          , Vol.
          <volume>1</volume>
          ,
          <year>2002</year>
          . pp.
          <fpage>115</fpage>
          -
          <lpage>121</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          [14]
          <string-name>
            <surname>Loukachevitch</surname>
            <given-names>N.</given-names>
          </string-name>
          <article-title>Multigraph representation for lexical chaining //</article-title>
          <source>Proceedings of SENSE workshop</source>
          ,
          <year>2009</year>
          . pp.
          <fpage>67</fpage>
          -
          <lpage>76</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          [15]
          <string-name>
            <surname>Nenkova</surname>
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Vanderwende</surname>
            <given-names>L</given-names>
          </string-name>
          .
          <source>The impact of frequency on summarization // Microsoft Research Technical Report, MSR-TR-2005-101</source>
          ,
          <year>2005</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          [16]
          <string-name>
            <surname>Vanderwende</surname>
            <given-names>L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Suzuki</surname>
            <given-names>H.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Brockett</surname>
            <given-names>C.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Nenkova</surname>
            <given-names>A</given-names>
          </string-name>
          .
          <article-title>Beyond SumBasic: Task-focused summarization with sentence simplification and</article-title>
          lexical expansion // Information Processing and
          <source>Management Journal</source>
          , Volume
          <volume>43</volume>
          Issue 6,
          <string-name>
            <surname>November</surname>
          </string-name>
          ,
          <year>2007</year>
          . pp.
          <fpage>1606</fpage>
          -
          <lpage>1618</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          [17]
          <string-name>
            <surname>Добров</surname>
            <given-names>Б.В.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Павлов</surname>
            <given-names>А</given-names>
          </string-name>
          .М.
          <article-title>Исследование качества базовых методов кластеризации новостного потока в суточном временном окне // Труды конференции RCDL'</article-title>
          <year>2010</year>
          ,
          <year>2010</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          [20]
          <string-name>
            <surname>Лукашевич</surname>
            <given-names>Н.В.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Добров</surname>
            <given-names>Б</given-names>
          </string-name>
          .В.
          <article-title>Автоматическое аннотирование новостного кластера на основе тематического представления // Компьютерная лингвистика и интеллектуальные технологии: труды Международной конференции Диалог'2009, Вып</article-title>
          .
          <volume>8</volume>
          (
          <issue>15</issue>
          ),
          <year>2009</year>
          . c.
          <volume>299</volume>
          -
          <fpage>305</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref19">
        <mixed-citation>
          [21]
          <string-name>
            <surname>Лукашевич</surname>
            <given-names>Н.В.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Добров</surname>
            <given-names>Б</given-names>
          </string-name>
          .В.
          <article-title>Исследование тематической структуры текста на основе большого лингвистического ресурса // Компьютерная лингвистика и интеллектуальные технологии: труды Международной конференции Диалог'</article-title>
          <year>2000</year>
          ,
          <year>2000</year>
          . c.
          <volume>252</volume>
          -
          <fpage>258</fpage>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>