<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>RECOGNITION OF HYPERSPECTRAL IMAGES WITH USE OF CLUSTER ENSEMBLE AND SEMISUPERVISED LEARNING</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Vladimir B. Berikov</string-name>
          <xref ref-type="aff" rid="aff3">3</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Igor A. Pestunov</string-name>
          <xref ref-type="aff" rid="aff1">1</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Nikita M. Karaev</string-name>
          <xref ref-type="aff" rid="aff2">2</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Ankit Tewari</string-name>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff2">2</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Birla Institute of Technology</institution>
          ,
          <addr-line>Mesra Ranchi, Jharkhand</addr-line>
          ,
          <country country="IN">India</country>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>Institute of Computational Technologies SB RAS</institution>
          ,
          <addr-line>Novosibirsk</addr-line>
          ,
          <country country="RU">Russia</country>
        </aff>
        <aff id="aff2">
          <label>2</label>
          <institution>Novosibirsk State University</institution>
          ,
          <addr-line>Novosibirsk</addr-line>
          ,
          <country country="RU">Russia</country>
        </aff>
        <aff id="aff3">
          <label>3</label>
          <institution>Sobolev Institute of Mathematics SB RAS</institution>
          ,
          <addr-line>Novosibirsk</addr-line>
          ,
          <country country="RU">Russia</country>
        </aff>
      </contrib-group>
      <fpage>59</fpage>
      <lpage>64</lpage>
      <abstract>
        <p>We suggest a method for hyperspectral image analysis on the basis of semi-supervised learning. The main idea is to divide the process of training of a classifier into two stages. First of all, with usage of cluster ensemble algorithms, variants of image segmentation are obtained. On their basis, the averaged co-association matrix is calculated. On the second stage, a classifier is constructed on labeled pixels using similarity based learning algorithms with the given matrix as input. An example of the application of the method for analysis of hyperspectral images is given. It is shown that the suggested algorithm is more robust to noise than the standard support vector machine method.</p>
      </abstract>
      <kwd-group>
        <kwd>cluster ensemble</kwd>
        <kwd>learning by similarity</kwd>
        <kwd>semi-supervised learning</kwd>
        <kwd>hyperspectral image</kwd>
      </kwd-group>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>ядра (kernel based) [7], например, метод опорных векторов (Support Vector Machine), ядерный
дискриминант Фишера (Kernel Fisher Discriminant), ядерная версия алгоритма ближайших
соседей (Kernel kNN).</p>
      <p>Привлечение коллектива алгоритмов кластерного анализа позволяет повысить
устойчивость решений, более точно восстановить метрические отношения между объектами в
условиях шумовых искажений и наличия сложных структур данных, что в конечном итоге
повышает качество распознавания. В качестве базовых алгоритмов на этапе построения
коллективного группировочного решения используются алгоритмы, имеющие линейную трудоемкость
(например, алгоритм К-средних).</p>
      <p>Постановка задачи полуконтролируемого обучения. Пусть имеется генеральная
совокупность объектов распознавания X и конечное множество меток классов Y . Все объекты
описываются числовыми признаками.</p>
      <p>При заданных признаках f1 fm вектор x  ( f1(x) fm (x)) называется признаковым
описанием объекта x  X . Далее мы отождествляем объект и его признаковое описание. В задаче
полуконтролируемого обучения на вход подается выборка X N = { x1 xN } объектов из X .
В этой выборке присутствуют объекты двух типов: Xc  {x1 xk } - размеченные объекты с
заданными классами, которым они принадлежат: Yc  {y1 yk }; Xu  {xk1 xN } -
неразмеченные объекты.</p>
      <p>В различных вариантах постановки задачи требуется либо провести т.н. индуктивное
обучение - построить алгоритм классификации a  X  Y , который будет, минимизируя
вероятность ошибки, сопоставлять классы объектам их X u , а также новым объектам Xtest , которые
были недоступны на момент построения алгоритма, либо требуется провести трансдуктивное
обучение - получить метки классов только для объектов из X u с минимальной ошибкой. В
данной работе рассматривается второй вариант постановки задачи.</p>
      <p>Коллективные решения в кластерном анализе. Задачей кластерного анализа является
разбиение выборки на непересекающиеся подмножества, называемые кластерами, так чтобы
каждый кластер представлял группу похожих объектов, а объекты в разных кластерах
существенно различались. В настоящее время в кластерном анализе широко применяется
коллективный подход, который позволяет получать более устойчивые группировочные решения.
Существует несколько вариантов получения коллективного решения задачи кластерного
анализа: использование т.н. матрицы усредненного попарного сходства, максимизация степени
согласованности решений (с помощью исправленного индекса Ранда, нормализованной
взаимной информации и т.д.), применение теоретико-графовых методов. В предлагаемом в
данной работе алгоритме используется матрица усредненного попарного сходства. Для
построения матрицы кластеризация всех поданных на вход объектов X коллективом различных
алгоритмов 1 M кластерного анализа. Каждый алгоритм дает Lm вариантов разбиения,
m  1 M . По результатам работы алгоритмов составляется матрица H усредненных
попарных различий объектов из X . Элементы матрицы равны:</p>
      <p>
        M 1 Lm
h(i j)    hlm (i j)
m1 m Lm l1
(
        <xref ref-type="bibr" rid="ref1">1</xref>
        )
где i j {1 N} - номера объектов (i  j)  m  0 - заданные веса такие, что
M
 m  1, hlm (i j)  0 , если пара (i j) принадлежит разным кластерам в l -ом варианте
разбиm1
ния оптимальных весов, минимизирующих оценку погрешности классификации был
предложен в работе [8].
      </p>
      <p>Ядерные методы классификации. Для решения задачи классификации с учителем
широко распространены ядерные методы, в основе которых лежит понятие ядра (kernel). Подбор
ядра определяет переход в «спрямляющее» пространство и позволяет применять линейные
алгоритмы классификации к линейно неразделимой выборке [7].</p>
      <p>В ядерных методах классификации широко известна теорема Мерсера [9], которая
устанавливает необходимое и достаточное условие на то, чтобы функция была ядром:
Теорема (Мерсер). Функция K(x, x) является ядром тогда и только тогда, когда она
симметрична, K(x, x)  K(x, x) , и неотрицательно определена: для любой конечной выборки
X p  (x1,..., xp ) из X матрица K ‖K (xi , x j )‖ размера p  p неотрицательно определена:
zT Kz  0 для любого z  p .</p>
      <p>
        Идея алгоритма состоит в построении матрицы похожести (
        <xref ref-type="bibr" rid="ref1">1</xref>
        ) для всех объектов из
подаваемой на вход выборки X : чем чаще пара объектов попадает в один и тот же кластер, тем
более похожими друг на друга мы их будем считать. Нами доказано следующее
Утверждение. Функция (
        <xref ref-type="bibr" rid="ref1">1</xref>
        ) удовлетворяет условиям теоремы Мерсера.
      </p>
      <p>Таким образом, функция H может быть использована в ядерных методах
классификации, в частности, в методе опорных векторов SVM.</p>
      <p>Алгоритм CASVM. Ниже описаны шаги алгоритма полуконтролируемого обучения,
сочетающего ансамблевый кластерный анализ и метод опорных векторов.</p>
      <p>Вход: объекты Xc с заданными классами Yc и объекты Xu , число алгоритмов
кластеризации M , число кластеризаций Lm каждым алгоритмом m , m  1,..., M .</p>
      <p>
        Выход: классы объектов Xu .
2. Вычислить матрицу H на X c  X u по формуле (
        <xref ref-type="bibr" rid="ref1">1</xref>
        ).
3. Обучить SVM на размеченных данных Xc , используя матрицу H в качестве ядра.
4. С помощью SVM предсказать классы для неразмеченных объектов Xu .
      </p>
      <p>Конец алгоритма.</p>
      <p>Отметим, что в предложенном алгоритме не требуется хранить в памяти матрицу H
размера N  N целиком: достаточно хранить матрицу кластеризаций размера N  L , где</p>
      <p>M
L   Lm , в этом случае матрицу H можно вычислять динамически. В прикладных задачах
l1
как правило L  N , например, при работе с пикселями изображений.</p>
      <p>Анализ гиперспектрального изображения. Для экспериментального исследования
алгоритма был проведен эксперимент с изображением Pavia University scene размером 610 на
340 пикселей, которое содержит 103 спектральных канала. Пространственное разрешение
снимка составляет 1.3 м. На рисунке 1а) показан RGB-композит изображения (каналы 40, 50 и
70), а на рисунке 1б) приведено эталонное разбиение изображения на тематические классы.</p>
      <p>Отметим, что на снимке имеются неразмеченные пиксели, которые не отнесены ни к
одному из девяти классов. Данные пиксели были исключены из рассмотрения при анализе.</p>
      <p>При экспериментальном исследовании алгоритма 1% пикселей, отобранных случайным
образом для каждого класса, составили размеченную выборку; оставшиеся были включены в
неразмеченную часть. Для изучения влияния шума на качество работы алгоритма, случайно
отобранные r % значений спектральных яркостей пикселей в разных каналах подвергались
искажающему воздействию: соответствующее значение x заменялось величиной, выбранной
случайным образом из интервала [x(1 p), x(1 p)] , где r, p - заданные параметры.
Зашумленная таблица данных, содержащая значения спектральных яркостей пикселей по всем
каналам, подавалась на вход алгоритма CASVM, а котором в качестве базового алгоритма для
построения кластерного ансамбля был выбран алгоритм K-средних. Различные варианты
разбиения получались варьированием числа кластеров в интервале [30,30  L] , где L было равно
120. Кроме того, для построения каждого варианта решения случайным образом выбирались
каналы, число которых было задано двум. Для ускорения работы алгоритма K-средних и
получения более разнообразных вариантов группировки, число его итераций было ограничено
значением 1.</p>
      <p>а б
Рис. 1. Гиперспектральное изображение Pavia University scene (RGB композит) (а)
и размеченные данные (б).</p>
      <p>Поскольку предложенный алгоритм реализует идею обучения метрике расстояния
(distance metric learning), было бы естественно провести его сравнение с аналогичным
алгоритмом (нашем случае - методом опорных векторов SVM), использующим стандартную
евклидову метрику, в аналогичных условиях (выбирались параметры алгоритма, рекомендуемые
по умолчанию в среде Матлаб). В таблице показаны значения точности классификации
неразмеченных пикселей изображения Pavia University scene для некоторых значений параметров
зашумленности. Время работы алгоритма составило около 2 мин на двухъядерном процессоре
Intel Core i5 с тактовой частотой 2.8 ГГц и объемом оперативной памяти 4 Гбайт. Как видно
из таблицы, алгоритм CASVM обладает большей устойчивостью к шуму, чем алгоритм SVM.
Точность алгоритмов CASVM и SVM при различных значениях параметров шума.
Параметры шума r, p 0%, 0 10%, 0.1 20%, 0.2 30%, 0.3</p>
      <p>CASVM 0.82 0.80 0.78 0.77</p>
      <p>SVM 0.83 0.75 0.66 0.64
Заключение. В работе рассмотрен один из вариантов постановки задачи распознавания
образов – задача полуконтролируемого обучения. Был разработан алгоритм CASVM для
решения этой задачи. Он основывается на сочетании методов коллективного кластерного
анализа и ядерных методов классификации. Проведено экспериментальное исследование
предложенного алгоритма на гиперспектральном изображении. Показано, что алгоритм CASVM
более устойчив к шуму, чем стандартный метод опорных векторов SVM.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          1.
          <article-title>Провести кластеризацию объектов X c  X u алгоритмами 1,.</article-title>
          .,
          <string-name>
            <surname></surname>
          </string-name>
          <article-title>M кластерного анализа</article-title>
          ,
          <source>Бондур В.Г</source>
          .
          <article-title>Современные подходы к обработке больших потоков гиперспектральной и многос- пектральной аэрокосмической информации // Исследование Земли из космоса</article-title>
          .
          <source>2014. N 1.</source>
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          of Wisconsin, Madison,
          <year>2008</year>
          ), no.
          <volume>1530</volume>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <surname>Wang</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          <article-title>Label propagation through linear neighborhoods /</article-title>
          <string-name>
            <surname>Wang</surname>
            ,
            <given-names>F.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Zhang</surname>
          </string-name>
          , C. // ICML06, 23rd International Conference on Machine Learning. Pittsburgh, USA.
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <given-names>Wang L.</given-names>
            ,
            <surname>Hao</surname>
          </string-name>
          <string-name>
            <given-names>S.</given-names>
            ,
            <surname>Wang</surname>
          </string-name>
          <string-name>
            <given-names>Q.</given-names>
            ,
            <surname>Wang</surname>
          </string-name>
          <string-name>
            <surname>Y</surname>
          </string-name>
          .
          <article-title>Semi-supervised classification for hyperspectral imagery based on spatial-spectral Label Propagation //</article-title>
          <source>ISPRS Journal of Photogrammetry and Remote Sensing</source>
          .
          <year>2014</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          Vol.
          <volume>97</volume>
          . P.
          <volume>123</volume>
          -
          <fpage>137</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <surname>Berikov</surname>
            <given-names>V.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Pestunov</surname>
            <given-names>I.</given-names>
          </string-name>
          <article-title>Ensemble clustering based on weighted co-association matrices: Error bound</article-title>
          and convergence properties // Pattern Recognition.
          <year>2017</year>
          . Vol.
          <volume>63</volume>
          . P.
          <volume>427</volume>
          -
          <fpage>436</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>Shawe-Taylor J</surname>
          </string-name>
          .,
          <string-name>
            <surname>Cristianini</surname>
            <given-names>N.</given-names>
          </string-name>
          <article-title>Kernel Methods for Pattern Analysis</article-title>
          . Cambridge University Press,
          <year>2004</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>Berikov V.B.</surname>
          </string-name>
          <article-title>Weighted ensemble of algorithms for complex data clustering // Pattern Recognition Letters</article-title>
          .
          <year>2014</year>
          . Vol.
          <volume>38</volume>
          . P.
          <volume>99</volume>
          -
          <fpage>106</fpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <surname>Mercer J.</surname>
          </string-name>
          <article-title>Functions of positive and negative type and their connection with the theory of integral equations / Philos</article-title>
          . Trans.
          <source>Roy. Soc. London</source>
          .
          <year>1909</year>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>