<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Clustering par fusion floue de données appliqué à la segmentation d'images IRM cérébrales</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Zouaoui Hakima</string-name>
          <xref ref-type="aff" rid="aff1">1</xref>
          <xref ref-type="aff" rid="aff2">2</xref>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Moussaoui Abdelouahab</string-name>
          <email>Moussaoui_abdel@yahoo.fr</email>
          <xref ref-type="aff" rid="aff0">0</xref>
          <xref ref-type="aff" rid="aff2">2</xref>
        </contrib>
        <aff id="aff0">
          <label>0</label>
          <institution>Ecole doctorale nationale STIC Département d'Informatique - Université Ferhat Abbas de Sétif</institution>
        </aff>
        <aff id="aff1">
          <label>1</label>
          <institution>Ecole doctorale nationale STIC Département d'Informatique -Université M'hamed Bougra de Boumerdes</institution>
        </aff>
        <aff id="aff2">
          <label>2</label>
          <institution>Mots-clés. Data mining</institution>
          ,
          <addr-line>Imagerie médicale, Fusion de données, Segmentation, C-moyennes floues, C-moyennes possibiliste</addr-line>
        </aff>
      </contrib-group>
      <abstract>
        <p>Résumé. Dans cet article nous proposons une approche originale basée sur les techniques de data mining pour l'extraction des connaissances par fusion floue de données. Cette approche présente une nouvelle architecture de fusion de données basée sur la théorie possibiliste pour la segmentation d'une cible à partir de plusieurs sources d'images. Le processus de fusion est décomposé en trois phases fondamentales : nous modélisons tout d'abord les informations dans un cadre théorique commun, le formalisme retenu consiste à faire la coopération entre l'algorithme FCM (Fuzzy C-Means) dont la contrainte d'appartenance d'un individu à une classe est gérée d'une manière relative et l'algorithme possibiliste PCM (Possibilistic C-means) pour les points aberrants. Nous agrégeons ensuite ces différentes informations par un opérateur de fusion, celui-ci doit affirmer les redondances, gérer les complémentarités et prendre en compte les conflits soulignant souvent la présence d'une pathologie. Nous construisons enfin une information synthétique permettant d'exploiter les résultats de la fusion.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>Introduction</title>
      <p>
        Malgré les avancées technologiques dans le domaine médical et en particulier dans l’imagerie médicale, l’étude du cerveau
humain est un problème ardu et reste un sujet de recherche de forte actualité, du fait de l’évolution des techniques
d’imagerie, la grande capacité de calcul des machines…etc. Une des modalités d’imagerie les plus couramment utilisées, à
laquelle nous nous sommes intéressés dans le cadre de ce travail, est l’Imagerie par Résonance Magnétique (IRM), qui est
devenue un outil indispensable pour tout examen clinique, elle présente l’avantage d’être non invasive et permet
l’acquisition d’images bi ou tridimensionnelles sur lesquelles différents contrastes sont possibles. Cette modalité permet en
outre la réalisation d’études du cerveau aussi bien anatomiques que fonctionnelles grâce aux techniques d’IRM et d’IRMf
(IRM fonctionnelle) [
        <xref ref-type="bibr" rid="ref1">1</xref>
        ]
      </p>
      <p>
        Ces dernières années, des modélisations formelles de cette attitude ont été construites, fondées pour la plupart sur
des approches prenant en compte les redondances, les complémentarités et les ambiguïtés inhérentes aux données
médicales. Regroupées sous l'appellation "fusion", ces modèles ont pour but de gérer au mieux ces différents aspects
pour faire converger les connaissances et proposer une information synthétique la plus exploitable possible [
        <xref ref-type="bibr" rid="ref2">2</xref>
        ].
      </p>
      <p>Notre travail concerne essentiellement le développement de nouveaux outils issues des techniques de data mining
pour l’extraction des connaissances par fusion floue de données. Il s’agit essentiellement de contribuer au
développement de systèmes de classification guidés par les connaissances a priori où l’aspect flou et possibiliste sont
pris en considération lors du processus de classification. Afin de valider les algorithmes développés, une application
a été développée pour la segmentation des images IRM.</p>
      <p>
        Le processus de fusion tel que nous l'envisageons ici est composé de trois étapes. Dans la première, les
informations disponibles sont modélisées dans un cadre théorique commun, permettant de prendre en compte les
connaissances vagues et ambiguës. Dans la seconde, les modèles d'informations sont agrégés, en tenant compte des
redondances et des conflits exprimés. Dans la troisième, enfin, une décision est prise en fonction de toutes les
informations précédemment fusionnées [
        <xref ref-type="bibr" rid="ref3">3</xref>
        ].
      </p>
      <p>Nous présentons à la deuxième section un état de l’art sur les méthodes de classification des tissus cérébraux. La
fusion de données fait l'objet de la troisième section. Où nous proposons une étude des méthodes d'agrégation des
informations. Dans la quatrième section, nous présentons les étapes de la fusion de données de l’approche proposée
en réponse à la problématique de l’extraction des connaissances par fusion floue de données. Les résultats obtenus
sur les images IRM sont présentés dans la cinquième section. Nous concluons au sixième paragraphe.
2</p>
    </sec>
    <sec id="sec-2">
      <title>Méthodes de classification</title>
      <p>
        Les problèmes de classification s’attachent à déterminer des procédures permettant d’associer une classe à un objet
(individu). Ces problèmes se déclinent essentiellement en deux variantes selon Bezdek [
        <xref ref-type="bibr" rid="ref4">4</xref>
        ] : la classification dite
supervisée et la classification dite non supervisée (automatique).
      </p>
      <sec id="sec-2-1">
        <title>2.1 Méthodes supervisées</title>
        <p>
          Ces sont des méthodes dans lesquelles les classes sont connues a priori avant d'effectuer l'opération d'identification
des éléments de l'image. Elles demandent une première phase d'apprentissage sur l'échantillon représentatif dans le
but d'apprendre les caractéristiques de chaque classe et une deuxième phase pour décider de l'appartenance d'un
individu à telle ou telle classe. Les données segmentées de l’ensemble d’apprentissage proviennent d’un étiquetage
manuel des images ou des régions d’intérêt en C classes de tissus (C1 ... C c ) par un ou plusieurs experts. Chaque
classe Ci se voit donc affecter un ensemble d’apprentissage Ei , et les données de l’ensemble de test sont segmentées
en fonction des Ei . Parmi ces méthodes on peut citer : la segmentation Bayésienne, la segmentation par les champs
de Markov [
          <xref ref-type="bibr" rid="ref5">5</xref>
          ], réseaux de neurones [
          <xref ref-type="bibr" rid="ref6">6</xref>
          ], etc.
        </p>
        <p>
          Pour notre cas, puisqu’il s’agit de segmenter des images médicales IRM cérébrales, la classification supervisée de
ces images nécessite donc la création d’une base d’apprentissage pour chaque classe et pour chaque patient ce qui est
en elle même une tâche très fastidieuse pour les experts [
          <xref ref-type="bibr" rid="ref7">7</xref>
          ]. C’est pour cette raison qu’on s’intéresse aux méthodes
non supervisées.
        </p>
      </sec>
      <sec id="sec-2-2">
        <title>2.2 Méthodes Non Supervisées (Automatiques)</title>
        <p>L’intérêt des méthodes non supervisées est qu’elles ne nécessitent aucune base d’apprentissage et par là même
aucune tâche préalable d’étiquetage manuel n’est requise. La seule intervention de l’expert se situe à la fin du
processus pour identifier les tissus en comparant les classes calculées avec les classes biologiques.</p>
        <p>
          Les algorithmes non supervisés les plus répandus tendent à minimiser une fonction coût, dépendant de la distance
de chaque pixel aux prototypes (ou noyaux) des classes. Le prototype d’une classe étant un point connu dont
l’appartenance à la classe est garantie et où chaque pixel est assigné à la classe qui lui est la plus proche. Selon la
certitude de la classification que nous voulons obtenir, et la relation entre les classes, nous pourrons distinguer
plusieurs méthodes de classification [
          <xref ref-type="bibr" rid="ref8">8</xref>
          ]:
        </p>
      </sec>
      <sec id="sec-2-3">
        <title>2.2.1 Classification HCM (Hard C -Means)</title>
        <p>Notons X = (x j , j = 1 .. N ) l’ensemble des vecteurs forme de RP , avec x j = [x j1, x j2 , ..., x jp ]T , et B = (b1, ..., bc )
un ensemble de vecteur prototypes inconnus, où bi caractérise la classe i . Dans la méthode HCM un élément de
X est attribué à une classe et une seule parmi les C proposées. Dans ce cas, la fonctionnelle à minimiser est :</p>
        <sec id="sec-2-3-1">
          <title>Les solutions au problème s’écrivent :</title>
          <p>C N
J (B , U , X ) = ∑ ∑ u ij d 2 (x j , b i )</p>
          <p>i =1 j =1
{1
u =
ij 0
ssi d 2 (x j ,bi )&lt; d 2 (x j ,bk )</p>
          <p>∀ k ≠ i
sinon
(1)
(2)
b i =</p>
          <p>N
∑
j = 1</p>
          <p>N
∑
j = 1
u ij x j</p>
          <p>u ij</p>
          <p>
            Dans une méthode comme HCM, les éléments sont classés de façon certaine comme appartenant à une classe et
une seule. Quelle que soit la modalité d’imagerie, cette assertion ne reflète pas la réalité physique de l'échantillon
étudié (bruit, volume partiel, hétérogénéité de champ, etc.) [
            <xref ref-type="bibr" rid="ref1">1</xref>
            ]. Les méthodes présentées dans les paragraphes
suivants permettent d'obtenir une segmentation floue qui prend en compte ces aspects imprécis et incertains [
            <xref ref-type="bibr" rid="ref2">2</xref>
            ].
          </p>
        </sec>
      </sec>
      <sec id="sec-2-4">
        <title>2.2.2 Classification floue FCM (Fuzzy C- Means )</title>
        <p>
          La modélisation de l’imprécision s’effectue en considérant des frontières graduelles au lieu de frontières nettes entre
les classes. L’incertitude s’exprime par le fait qu’un pixel possède aussi bien des attributs qui l’assignent à une classe
qu’à une autre. La classification floue assigne donc, non pas à un pixel une étiquette relative à une classe unique,
mais son degré d’appartenance à chacune des classes. Ces valeurs expriment l’appartenance incertaine d’un pixel à
une région et sont appelées degrés d’appartenance. Le degré d’appartenance se situe dans l’intervalle [
          <xref ref-type="bibr" rid="ref1">0, 1</xref>
          ] et les
classes obtenues ne sont pas forcément disjointes. Dans ce cas, les données x j ne sont plus assignées à une classe
unique, mais à plusieurs par l’intermédiaire de degrés d’appartenance uij du vecteur x j à la classe i . Le but des
algorithmes de classification est non seulement de calculer les centres de classe B mais aussi l’ensemble des degrés
d’appartenance des vecteurs aux classes.
        </p>
        <p>
          Si uij est le degré d’appartenance de x j à la classe i , la matriceUCxN [ uij ]est appelée matrice de C-partitions floues
si et seulement si elle satisfait aux conditions :
∀i ∈{1..C},∀j ∈{1..N}
u ij ∈ [
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ]
        </p>
        <p>N
0 &lt; ∑ u ij &lt; N</p>
        <p>j =1</p>
        <p>C N m
J (B ,U , X ) = ∑ ∑ (u ij ) d 2 (x j , bi )</p>
        <p>i =1 j =1
bi</p>
        <p>n
∑ u imk .x k
= k =1</p>
        <p>n
∑ u imk
k =1
⎡ 2 ⎤
⎢ C ⎛ d 2 (x j , bi ) ⎟⎞ (m −1) ⎥
u ij = ⎢⎢⎣ ∑k=1 ⎜⎝⎜ d 2 (x j , bk )⎠⎟ ⎥⎥⎦</p>
        <p>−1</p>
        <p>C
∀j ∈{1..N} ∑ u ij = 1 (5)</p>
        <p>i = 1
la fonctionnelle à minimiser (6), et les solutions (7), (8), au problème du FCM sont décrites par les formules
suivantes :</p>
      </sec>
      <sec id="sec-2-5">
        <title>2.2.3 Classification possibiliste PCM (Possibilist C-Means)</title>
        <p>
          Krishnapuram et Keller [
          <xref ref-type="bibr" rid="ref9">9</xref>
          ] ont suivi les idées de Zadeh [
          <xref ref-type="bibr" rid="ref10">10</xref>
          ] selon lesquelles (5), ne doit pas contraindre les
appartenances d’un vecteur quelconque xj si les classes représentées par les nuages sont considérées comme ces
(3)
(4)
(6)
(7)
(8)
sous-ensembles flous sur le domaine X = {xj , j =1..N}. Les degrés d’appartenance doivent seulement appartenir à
l’intervalle [
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ]. Ainsi, un nouvel ensemble de contraintes est défini :
∀i ∈ {1..C}, ∀j ∈ {1..N }
        </p>
        <p>
          uij ∈[
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ]
∀j ∈{1..N}
        </p>
        <p>N
0 &lt; ∑ u ij &lt; N
j=1
n
∑ u imk . x k
∀ i ∈ {1..C } bi = k =1n
∑ u imk
k =1
∀i ∈{1..C} ∀j ∈{1..N} uij =
1
(9)
(10)
(12)
(13)
maxuij &gt; 0</p>
        <p>i
La condition (10), assure simplement que la partition floue résultante de l’algorithme recouvre le domaine X. En
toute rigueur, la matrice U résultante n’est plus une C-partition floue, puisque la contrainte (5), n’est plus satisfaite.
La fonctionnelle à minimiser (11), et les solutions (12), (13), de l’algorithme PCM deviennent :
J (B,U , X ) = ∑C ∑Nuij md (x j ,bi ) 2 + ∑Cη i ∑N (1− uij )m (11)
i=1 j=1 i=1 j=1
0.5.</p>
      </sec>
    </sec>
    <sec id="sec-3">
      <title>3 Fusion de données</title>
      <p>Le concept de la fusion de données est facile à comprendre, mais il est difficile d’en trouver une définition qui rende
compte de ce cadre formel et de ses multiples facettes.</p>
      <p>
        La définition qui nous sembles la plus adaptée dans notre travail est celle de [
        <xref ref-type="bibr" rid="ref11">11</xref>
        ]: «la fusion de données consiste
à combiner des informations issues de plusieurs sources afin d’améliorer la prise de décision».
      </p>
      <sec id="sec-3-1">
        <title>3.1 Classification des opérateurs de fusion</title>
        <sec id="sec-3-1-1">
          <title>La notion de fusion s’applique au cas de n sources [12], [13].</title>
          <p>
            On considère le problème de l’agrégation de deux informations, n1 et n2 , issues de deux capteurs différents pour un
même phénomène. On cherche à agréger les informations fournies par n1 et n2 en exploitant au mieux l’ambiguïté et
la complémentarité des données. Bloch propose dans [
            <xref ref-type="bibr" rid="ref12">12</xref>
            ] la définition suivante pour le comportement de F :
• Sévère
• Prudent
• Indulgent
si
si
si
          </p>
          <p>F (n1, n2 ) ≤ min(n1, n2 ).
min(n1, n2 ) ≤ F (n1,n2 ) ≤ max(n1, n2 )</p>
          <p>F (n1, n2 ) ≥ max(n1, n2 ).</p>
          <p>
            Il existe différents types d’opérateurs, suivant leur variabilité et leur dépendance au contexte. Les exemples cités
dans la partie qui suit sont extraits de la classification effectuée dans [
            <xref ref-type="bibr" rid="ref12">12</xref>
            ].
          </p>
        </sec>
      </sec>
      <sec id="sec-3-2">
        <title>3.1.1 Opérateurs à comportement constant et indépendant du contexte</title>
        <p>
          Ce sont des opérateurs ayant le même comportement quelles que soient les valeurs de n1 et n2 à agréger. Le résultat
de la fusion est indépendant du contexte de l’agrégation. L’opérateur F est donc exclusivement sévère, indulgent ou
prudent. Cette classe sera notée CCIC [
          <xref ref-type="bibr" rid="ref2">2</xref>
          ], [
          <xref ref-type="bibr" rid="ref12">12</xref>
          ].
        </p>
      </sec>
      <sec id="sec-3-3">
        <title>3.1.2 Opérateurs à comportement variable et indépendant du contexte</title>
        <p>
          Ce sont les opérateurs qui ne dépendent pas du contexte mais dont le résultat est fonction des valeurs de n1 et n2 . Par
exemple, les sommes symétriques sont des opérateurs à comportement Variable et indépendant du contexte, elles
sont de la forme : σ = g(x, y) où g est une fonction de [
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ] × [
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ] dans [
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ]. Cette classe sera notée
g(x, y)+ g(1− x,1− y)
CVIC [
          <xref ref-type="bibr" rid="ref2">2</xref>
          ], [
          <xref ref-type="bibr" rid="ref12">12</xref>
          ].
        </p>
      </sec>
      <sec id="sec-3-4">
        <title>3.1.3 Opérateurs dépendants du contexte</title>
        <p>
          La valeur retournée par F ne dépend plus seulement de n1 et n2 mais aussi d’une connaissance a priori sur le
système de capteurs ou sur le phénomène étudié. Il est ainsi possible de construire des opérateurs dont le
comportement sévère (resp. indulgent) est une fonction croissante (resp. décroissante) de l’accord entre les deux
capteurs. On a ici à faire à un problème d’accord entre les sources. Cette classe d’opérateurs, qui sera notée CDC,
nous intéressera tout particulièrement dans la suite [
          <xref ref-type="bibr" rid="ref2">2</xref>
          ].
        </p>
      </sec>
      <sec id="sec-3-5">
        <title>3.2 Théories utilisées pour la fusion</title>
        <p>Divers cadres théoriques sont utilisés pour représenter les informations en fusion de données. Certains utilisent la
théorie des croyances, la théorie des probabilités ou la théorie des possibilités.</p>
        <p>P (H i \ I j ) =</p>
        <p>P ( H i ). P ( I j /H i )</p>
      </sec>
      <sec id="sec-3-6">
        <title>3.2.1 Théorie des probabilités</title>
        <p>Les probabilités, du fait de leur ancienneté, développées au 19éme siècle pour la mécanique classique, sont encore la
base théorique la plus utilisée pour la représentation des données incertaines.</p>
        <p>Plusieurs distributions de probabilités peuvent ensuite être combinées à l'aide de la règle de Bayes :
Soit H = {H 1 , ..., H N }, l'ensemble des hypothèses. Les H i sont mutuellement exclusives. La probabilité a
posteriori d'un événement H i parmi les N hypothèses connaissant l’information I j est donnée par
N
∑ P (H k ).P (I j /H k )
k =1
où P ( H i ) est la probabilité a priori de l’hypothèse Hi , et P ( I j /H i ) représente la probabilité d’observer
l’information I j lorsque l’hypothèse Hi est réalisée.
(14)</p>
      </sec>
      <sec id="sec-3-7">
        <title>3.2.2. Théorie des croyances</title>
        <p>
          La théorie de l’évidence fut historiquement introduite par Shafer [
          <xref ref-type="bibr" rid="ref13">13</xref>
          ]. Mais les origines de la théorie sont
attribuables à Dempster [
          <xref ref-type="bibr" rid="ref14">14</xref>
          ], [
          <xref ref-type="bibr" rid="ref15">15</xref>
          ]. À partir du formalisme mathématique développé, Shafer [
          <xref ref-type="bibr" rid="ref13">13</xref>
          ] a montré l’intérêt
des fonctions de croyance pour la modélisation de connaissances incertaines.
        </p>
        <p>Soit X , un ensemble de N hypothèses Hi exclusives et exhaustives, 2x désigne l'ensemble des 2N sous-ensembles
Aj de X .</p>
        <p>m(φ ) = 0
2N
∑ m(A j ) = 1
Cr(φ ) = 0
Cr(X ) = 1
Cr(A ) =</p>
        <p>k
Pl (Ak ) =</p>
        <p>Aj ⊂ Ak
∑ m(Aj )
A j ∩ Ak =φ</p>
        <p>∑ m (A j )</p>
        <p>
          J =1
Une fonction de crédibilité, Cr, peut également être définie sur les mêmes ensembles par:
Cette fonction mesure à quel point les informations données par une source ne contredisent pas Ak .
Selon [
          <xref ref-type="bibr" rid="ref16">16</xref>
          ], une fonction de masse élémentaire, m, est définie de 2X sur [
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ] par :
        </p>
      </sec>
      <sec id="sec-3-8">
        <title>3.2.3 Théorie des possibilités</title>
        <p>
          La théorie des possibilités a été introduite en 1978 par Zadeh [
          <xref ref-type="bibr" rid="ref17">17</xref>
          ] puis développée par Dubois et Prade en France
[
          <xref ref-type="bibr" rid="ref18">18</xref>
          ], [
          <xref ref-type="bibr" rid="ref13">13</xref>
          ]. De même que la théorie des croyances, elle constitue un cadre permettant de traiter des données à
caractère imprécis et/ou incertain. Elle peut être vue indépendamment de toute interprétation probabiliste comme une
approche ordinale de l’incertain dans [
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ], exploitée à l’aide des mesures de possibilité et de nécessité.
        </p>
      </sec>
      <sec id="sec-3-9">
        <title>3.2.3.1 Mesure et distribution de possibilité</title>
        <p>
          Soit un ensemble de référence fini X . Une mesure de possibilité Π est définie sur l'ensemble des parties de
X (P (X )) et prend ses valeurs dans [
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ] telle que :
Π(φ ) = 0, Π(X ) = 1
∀A1 ∈P(X ), A2 ∈P(X ), ... Π(∪i=1,2,... Ai ) = supi=1,2,... Π(Ai )
        </p>
        <p>On introduit une fonction appelée distribution de possibilité,π , qui associe à tout événement de X , un
coefficient compris entre 0 et 1 reflétant le degré avec lequel cet événement est possible. Cette fonction doit vérifier
la condition de normalisation suivante :</p>
        <p>sup x∈X π (x) = 1 (23)</p>
        <p>Une distribution de possibilité est un ensemble flou qui peut être associé à la mesure de possibilité
bijectivement, et l'on a :
∀x ∈ X</p>
        <p>π (x) = Π({x})</p>
      </sec>
      <sec id="sec-3-10">
        <title>3.2.3.2 Mesure de nécessiter</title>
        <p>Une mesure de possibilité fournit une information sur l'occurrence d'un événement A relatif à un ensemble de
référence X, mais elle ne suffit pas pour décrire l'incertitude existante sur cet événement.</p>
        <p>Pour compléter l'information sur A, on indique le degré avec lequel la réalisation de A est certaine par
l'intermédiaire d'une mesure de nécessité.</p>
        <p>
          Une mesure de nécessité, N, est une fonction définie sur l'ensemble P(X ) des parties de X, à valeurs dans [
          <xref ref-type="bibr" rid="ref1">0,1</xref>
          ],
telle que :
        </p>
        <p>N (φ ) = 0, N (X ) = 1
∀A1 ∈P(X ), A2 ∈P(X ),... N(∩i=1,2,...Ai ) = infi=1,2,... N(Ai )
(24)
(25)
(26)
Sur un ensemble de référence X, une mesure de nécessiter N peut être obtenue à partir de la mesure de possibilité
∀A ∈ P(X )</p>
        <p>N (A) = 1 − Π(Ac )
Π correspondante, par l'intermédiaire du complémentaire Ac de toute partie A de X :</p>
      </sec>
    </sec>
    <sec id="sec-4">
      <title>4. Approche proposée</title>
      <p>La fusion d'images peut alors se décomposer en trois grandes étapes :
¾ Modélisation des informations dans un cadre théorique commun.
¾ Fusion des informations issues de la modélisation précédente.
¾ Prise de décision.</p>
      <sec id="sec-4-1">
        <title>4.1 Modélisation</title>
        <p>L’étape de modélisation consiste en la représentation de l’information dans un cadre mathématique lié à une théorie
particulière.</p>
        <p>Notre but ici n'est pas de déterminer la meilleure méthode, mais la méthode la plus adaptée dans le contexte de la
fusion des tissus cérébraux</p>
      </sec>
      <sec id="sec-4-2">
        <title>4.1.1 Choix des algorithmes utilisés</title>
        <p>
          Nous devons, tout d’abord, préciser si l’algorithme doit être supervisé ou non. L’emploi d’un algorithme supervisé
nécessite, comme nous l’avons vu précédemment, une base d’apprentissage pour chaque classe et pour chaque
patient. Cela constitue un premier inconvénient de ce type de méthodes. De plus, la littérature rapporte que les
méthodes supervisées en segmentation d’images médicales peuvent être très dépendantes de la base d’apprentissage
[
          <xref ref-type="bibr" rid="ref4">4</xref>
          ]. Pour toutes ces raisons, nous avons opté pour une méthode non supervisée.
        </p>
      </sec>
      <sec id="sec-4-3">
        <title>4.1.1.1 C-moyennes Floues ou Algorithme Possibiliste ?</title>
        <p>Nous indiquant ici les raisons qui nous ont amené à effectuer une coopération entre l’algorithme flou FCM et
l’algorithme possibiliste PCM. Cela a pour but de rendre l’algorithme de classification plus robuste face aux
imprécisions et aux données aberrantes. Le PCM peut être utilisé dans un deuxième passage pour les points
aberrants, après l’application d’un autre algorithme de regroupement, tel que les FCM, qui fournit une partition
initiale pour les PCM. Ce dernier améliore cette partition obtenue suite à la première étape.</p>
        <p>•</p>
        <p>
          FCM et degrés d’appartenance relatifs [
          <xref ref-type="bibr" rid="ref2">2</xref>
          ]
        </p>
        <p>
          La contrainte de normalisation (5) Utilisée pour la minimisation de la fonctionnelle (6) est source d’erreur dans
l’interprétation des degrés d’appartenance issus du FCM. Krishnapuram et Keller [
          <xref ref-type="bibr" rid="ref9">9</xref>
          ] donnent une série d’exemples
simples qui illustrent les problèmes associés à cette contrainte, que nous résumons dans la figure 1.
Cette figure présente deux nuages de points avec deux points aberrants A et B. L’algorithme des C-moyennes floues
appliqué à deux classes (C=2) avec m=2 et une distance euclidienne calcule les centres O1 et O2. Les degrés
d’appartenance de chaque point aux deux classes sont présentés dans le tableau 1.
        </p>
        <p>Les points A et B, résultant, par exemple, d’une erreur de mesure ou d’un bruit, ne doivent pas avoir des degrés
d’appartenance significatifs aux deux classes. De plus, les degrés d’appartenance de B doivent être plus faibles que
ceux de A, ce point étant encore plus éloigné des classes. Néanmoins, en dépit de ces considérations intuitives, la
contrainte (5) impose aux degrés d’appartenance de A et B aux deux classes d'être approximativement égaux à 0.5.</p>
        <p>Les degrés d’appartenance des points C et D, tels qu’ils sont calculés par FCM, sont significativement différents
alors que ces deux points sont approximativement à la même distance du centre de la classe de gauche. Cela est
encore une fois dû à la contrainte de normalisation (5) qui force C à partager un peu de son appartenance à la classe
de droite, dont il est plus proche que D ne l’est.
La valeur de uij dans (11) ne dépend maintenant que de la distance du vecteur x j à la classe i, contrairement à (6). Les
degrés d’appartenance générés par PCM ne sont ainsi plus des degrés relatifs ou de partage, ils deviennent des
valeurs absolues reflétant la force avec laquelle chaque vecteur appartient à toutes les classes.</p>
        <p>Les degrés d’appartenance générés par PCM reflètent de manière plus exacte la réalité de la distribution des
points (A et B) se voient affecter des degrés d’appartenance faibles aux deux classes, (C et D) ont un degré
d’appartenance à la première classe quasi identique.</p>
        <p>Les images IRM sont affectées, comme on l’a déjà mentionné, par des artefacts que l’algorithme PCM les gère
mieux. Pour toutes ces raisons, nous nous sommes orientés vers l’algorithme de classification possibiliste pour
caractériser les tissus</p>
      </sec>
      <sec id="sec-4-4">
        <title>4.1.1.2 Initialisation de l’algorithme</title>
        <p>
          Les résultats de l’algorithme PCM vont évidemment dépendre de l’étape d’initialisation [
          <xref ref-type="bibr" rid="ref1">1</xref>
          ]. Ainsi, l’initialisation, si
elle doit exister, ne doit pas être aussi précise que dans d’autres algorithmes comme FCM. Tout algorithme (flou ou
non) peut donc être utilisé, et l’algorithme FCM constitue une manière adéquate d’initialiser les données [
          <xref ref-type="bibr" rid="ref19">19</xref>
          ],
puisqu’il donne accès à une première estimation de U et de B.
        </p>
      </sec>
      <sec id="sec-4-5">
        <title>4.1.1.3 Détermination du nombre de classes</title>
        <p>Notre objectif consiste à segmenter l’encéphale, ce qui nous pousse à fixer à 3 le nombre de classe à identifier (C=3)
correspondant aux trois tissus cérébraux présents dans l’encéphale à savoir la matière blanche (MB), la matière grise
(MG) et le liquide céphalo-rachidien(LCR).</p>
      </sec>
      <sec id="sec-4-6">
        <title>4.1.1.4 Choix des vecteurs forme</title>
        <p>
          Le choix des vecteurs forme est fondamental puisque leur pertinence va permettre de discriminer les pixels entre eux.
Ce choix est défini suivant le type de modalité. L’image anatomique que nous utilisons est une IRM. L’imagerie par
résonance magnétique est une modalité d’imagerie multispectrale (multimodale) donnant accès à un grand nombre
de paramètres et donc de vecteurs forme. La première caractéristique qui peut être exploitée est le signal lui-même,
principalement par l’intermédiaire d’images pondérées enT1 , T2 et en densité de protons. Le vecteur forme xj d’un
pixel j est alors formé des niveaux de gris de ce pixel dans toutes les modalités. Cette information est très
largement utilisée en segmentation d’images [
          <xref ref-type="bibr" rid="ref7">7</xref>
          ].
        </p>
      </sec>
      <sec id="sec-4-7">
        <title>4.2 Fusion</title>
        <p>De nombreux auteurs ont comparé les théories des probabilités, des possibilités et des croyances, et ont détaillé les
transformations permettant de passer d’un formalisme à l’autre.</p>
      </sec>
      <sec id="sec-4-8">
        <title>4.2.1 Limitations de la fusion probabiliste</title>
        <p>Notre choix ici est exclusivement orienté vers le domaine de l’imagerie. La fusion quant à elle est réalisée à l’aide de
la règle de Bayes, et la décision est prise en fonction du maximum de vraisemblance. Cependant, cette théorie
présente certains inconvénients qui limitent son utilisation dans le cas qui nous intéresse. Ces limites sont résumées
ci-dessous :</p>
        <p>• dans les images traitées dans la partie suivante, les informations sont à la fois incertaines et imprécises. Or
la théorie des probabilités ne peut pas bien prendre en compte l’imprécision des données,</p>
        <p>• le formalisme, notamment introduit dans la règle de Bayes, requiert des connaissances a priori sur
l’occurrence de chaque phénomène par l’intermédiaire des probabilités conditionnelles et des probabilités a priori
des événements. Des modèles peuvent représenter ces connaissances mais imposent alors des hypothèses fortes sur
les étapes de modélisation et de fusion.</p>
      </sec>
      <sec id="sec-4-9">
        <title>4.2.2 Vers la théorie des possibilités</title>
        <p>Nous avons comparé les théories des croyances et des possibilités par rapport au problème spécifique de la fusion
d’images médicales, cette comparaison permet de se rendre compte que des différences importantes existent, ces
différences sont :</p>
        <p>• La théorie de l’évidence prend en compte les ensembles composés de plusieurs classes, ce qui permet de
considérer le doute entre les classes.</p>
        <p>
          • L’étape de combinaison en théorie des croyances se résume la plupart du temps à l’application de
l’opérateur orthogonal, dans le cas où toutes les ambiguïtés peuvent être introduites à l’étape de modélisation. Au
contraire, la théorie des possibilités offre une grande variété d’opérateurs ayant des comportements différents suivant
la situation présentée. Le fait de prendre en compte dans la combinaison le conflit et la fiabilité des sources nous a
paru fondamental, en particulier pour préserver l’information pertinente pour le diagnostic [
          <xref ref-type="bibr" rid="ref1">1</xref>
          ]. Nous nous sommes
donc plutôt orientés vers la construction d’opérateurs dépendants du contexte (CDC) et avons ainsi privilégié la
représentation possibiliste des données.
        </p>
        <p>L’analyse des ces modèles pour les fusions envisagées a révélé tout d’abord que la théorie des probabilités était
mal adaptée, principalement en raison des effectifs d’expérimentation faibles dont nous disposons. La relative
simplicité des informations à extraire dans les images et la pauvreté des modes de combinaison en théorie des
croyances ont été ensuite pour nous des éléments décisifs dans le choix d’un cadre formel et nous ont fait préférer
l’approche possibiliste à la théorie des croyances.
4.3</p>
      </sec>
      <sec id="sec-4-10">
        <title>Décision</title>
        <p>La dernière étape consiste à prendre la décision quant à l’appartenance d’un voxel de l’image I à une classe Ci. La
règle de décision adoptée consiste à prendre une coupe de la carte de fusion en choisissant un seuil d’étiquetage.
∀v ∈ I , v ∈ Ci Si π Fusionné (v) ≥ seuil</p>
      </sec>
    </sec>
    <sec id="sec-5">
      <title>5 Résultats</title>
      <p>Afin de prouver l’efficacité de l’approche développée, nous avons implémenté les algorithmes FCM, PCM et
l’approche développée. Il s’agit d’images pondérées en T1, T2 et en densité de proton (Dp) pour des patients de
différents âges (taille pixel =1mm, taille de matrice 512 X 512). Les images sont en format DICOM (Digital Imaging
and Communications in Medecine).</p>
      <sec id="sec-5-1">
        <title>5.1 Analyse des résultats</title>
        <p>La figure 2 illustre les résultats obtenus après segmentation des différents tissus cérébraux d’images (a) et (b)
pondérées en T1 et en T2 sur des coupes axiales. Les images (c), (d), (e) et (f) sont les résultats de la segmentation
par FCM et PCM successivement.</p>
        <p>Images originales
(a) Image en T1</p>
        <p>(b) Image en T2</p>
        <p>Segmentation par FCM
(c)</p>
        <p>(d)</p>
        <p>Segmentation par PCM
(e)
(g)</p>
        <p>Segmentation par l’approche proposée</p>
        <p>Fig. 2. Résultats de segmentation.</p>
        <p>(f)
(h)
Les résultats du tableau 2 confirment l’intérêt de l’approche de fusion par rapport aux approches prises
indépendamment.</p>
      </sec>
    </sec>
    <sec id="sec-6">
      <title>6 Conclusion</title>
      <p>Dans cet article nous avons démontré l’importance et les difficultés de ces travaux de segmentation d’images IRM.
Deux raisons expliquent ces difficultés :
• La première est qu’il existe une très grande variété de tissus anormaux qui différent par leur taille, leur
forme, leur position et leur composition.
• La seconde raison vient de ce que la donnée issue de l’acquisition IRM est sensible au bruit de fond et à
l’échantillonnage.</p>
      <p>Nous avons tout d'abord décomposé le processus de fusion de données en trois phases fondamentales.</p>
      <p>En premier lieu, nous avons modélisé des informations, numériques ou symboliques, dans un cadre commun
permettant de prendre en compte les ambiguïtés, les imprécisions et les incertitudes. Nous nous sommes pour cela
placés dans le cadre de la coopération entre l’algorithme flou FCM et l’algorithme possibiliste PCM afin de rendre
l’algorithme plus robuste face aux imprécisions et aux données aberrantes.</p>
      <p>En second lieu, nous avons fusionné différentes données. Cette agrégation a été réalisée par des opérateurs de
fusion qui modélisent l'analyse quotidienne du médecin confronté à des données cliniques hétérogènes. Nous avons
explicité l'opérateur qui nous a semblé le plus adapté, en fonction de propriétés mathématiques souhaitées, de
considérations intuitives sur la nature des données et de tests expérimentaux.</p>
      <p>En dernier lieu, nous avons présenté ces informations fusionnées au clinicien. Ici encore, nous avons
proposé pour chaque type de fusion une solution. Nous avons présenté les résultats de notre travail qui consiste à
utiliser plus d’un algorithme pour segmenter des images médicales en vue d’améliorer la qualité de la segmentation.
La bonne qualité de nos solutions tient au fait que :
1. C’est une méthode totalement automatique grâce aux modélisations des connaissances a priori
des experts neuroradiologues. Elle ne dépend pas d’échantillons obligatoirement utilisés dans les
méthodes d’apprentissage. La théorie floue est importante pour modéliser les connaissances humaines
en utilisant les fonctions mathématiques et pour solutionner l’effet de volume partiel d’IRM.
2. Elle satisfait aux contraintes de l’application grâce à l’automaticité et aux différents résultats finaux
pouvant être fournis par la reconstruction 3D floue.
3. Elle est robuste en présence des points aberrants.
4. Sa performance est meilleure que celle de la méthode supervisée.
5. C’est un système à base de la théorie floue et possibiliste.</p>
      <p>6. Elle est efficace sur au moins 2 types de tissus.</p>
    </sec>
    <sec id="sec-7">
      <title>7 Références</title>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          1.
          <string-name>
            <surname>Semchedine</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Toumi</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Moussaoui</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          :
          <string-name>
            <surname>Nouvelle Approche de Classification Multimodale</surname>
          </string-name>
          <article-title>Hybride d'Images IRM dans un SMA :</article-title>
          .
          <article-title>Journées internationales sur l'informatique graphique</article-title>
          .
          <source>Tébessa</source>
          <year>2006</year>
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          2.
          <string-name>
            <surname>Barra</surname>
          </string-name>
          , V. :
          <article-title>Fusion d'Images 3D du Cerveau</article-title>
          : Etude de Modèles et Applications :,
          <source>Ph.D. Thesis</source>
          , Université d'Auvergne,
          <string-name>
            <surname>Clermont-Ferrand</surname>
          </string-name>
          (France),
          <year>2000</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          3.
          <string-name>
            <surname>Dou</surname>
          </string-name>
          , W. :
          <article-title>Segmentation d'images multi spectrales basée sur la fusion d'informations : application aux images IRM :</article-title>
          , Thèse doctorat de l'université de Caen,
          <source>Spécialité : Traitement du Signal et des Images</source>
          ,
          <year>2006</year>
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          4.
          <string-name>
            <surname>Bezdek</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Hall</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Clarke</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          :
          <article-title>Review of MR Image Segmentation Techniques using Pattern Recognition:</article-title>
          ,
          <source>Medical Physics</source>
          ,
          <volume>20</volume>
          :
          <fpage>1033</fpage>
          -
          <lpage>1048</lpage>
          ,
          <year>1993</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          5.
          <string-name>
            <surname>Held</surname>
            ,
            <given-names>K.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Rota Kops</surname>
            ,
            <given-names>E.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Krause</surname>
            ,
            <given-names>B.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Wells</surname>
            ,
            <given-names>W.</given-names>
          </string-name>
          :
          <source>Markov Random Field Segmentation of Brain MR Images: IEEE Transactions on Medical Imaging</source>
          ,
          <volume>16</volume>
          :
          <fpage>878</fpage>
          -
          <lpage>886</lpage>
          .
          <year>1997</year>
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          6.
          <string-name>
            <surname>Raff</surname>
            ,
            <given-names>U.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Scherzinger</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Vargas</surname>
            ,
            <given-names>P.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Simon</surname>
            ,
            <given-names>J.</given-names>
          </string-name>
          <article-title>: quantitation of grey matter, white matter and cerebrospinal fluid from spinecho magnetic resonance images using an artificial neural network: Technique</article-title>
          , Medical Physics,
          <year>1994</year>
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          7.
          <string-name>
            <surname>Barra</surname>
          </string-name>
          , V. :
          <article-title>Segmentation floue des tissus cérébraux en IRM 3D: une approche possibiliste versus autres méthodes :</article-title>
          .
          <source>Thèse doctorat. Universite Blaise Pascal</source>
          <year>1999</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          8.
          <string-name>
            <surname>Semchedine</surname>
            ,
            <given-names>M.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Toumi</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Moussaoui</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          :
          <string-name>
            <surname>Système Coopératif de Classification Floue</surname>
          </string-name>
          <article-title>Possibiliste avec Rejet d'Ambiguïté Application à la segmentation d'images IRM : 4th International Conference on Computer Integrated Manufacturing CIP'</article-title>
          <year>2007</year>
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          9.
          <string-name>
            <surname>Krishna</surname>
            ,
            <given-names>R.</given-names>
          </string-name>
          : The
          <string-name>
            <surname>Possibilistic C-Means</surname>
            <given-names>Algorithm</given-names>
          </string-name>
          :
          <article-title>Insights and Recommendations:</article-title>
          .
          <source>IEEE transactions on Fuzzy Systems 1996</source>
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          10.
          <string-name>
            <surname>Zadeh</surname>
            ,
            <given-names>L.</given-names>
          </string-name>
          :
          <article-title>Fuzzy Sets as a Basis for Theory of Possibility:</article-title>
          ,
          <source>International Journal of Fuzzy Sets and Systems</source>
          ,
          <volume>1</volume>
          :
          <fpage>3</fpage>
          -
          <lpage>28</lpage>
          .
          <year>1978</year>
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          11.
          <string-name>
            <surname>Bloch</surname>
            ,
            <given-names>I.</given-names>
          </string-name>
          :
          <article-title>Fusion de Données en traitement d'images : modèles d'information et décision :</article-title>
          .
          <source>Traitement du signal</source>
          ,
          <year>1994</year>
          ,vol.
          <volume>11</volume>
          , n°
          <issue>6</issue>
          , pp
          <fpage>435</fpage>
          -
          <lpage>446</lpage>
        </mixed-citation>
      </ref>
      <ref id="ref12">
        <mixed-citation>
          12.
          <string-name>
            <surname>Bloch</surname>
            ,
            <given-names>I.</given-names>
          </string-name>
          :
          <article-title>Information Combination Operators for Data Fusion: A Comparative Review with Classification:</article-title>
          ,
          <source>IEEE Transactions on Systems, Man, and Cybernetics</source>
          ,
          <volume>1</volume>
          :
          <fpage>52</fpage>
          -
          <lpage>67</lpage>
          ,
          <year>1996</year>
        </mixed-citation>
      </ref>
      <ref id="ref13">
        <mixed-citation>
          13.
          <string-name>
            <surname>Dubois</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Prade</surname>
          </string-name>
          , H.:
          <article-title>Possibility Theory, an approach to the omputerized processing of uncertainty:</article-title>
          , Plenum Press,
          <year>1988</year>
        </mixed-citation>
      </ref>
      <ref id="ref14">
        <mixed-citation>
          14.
          <string-name>
            <surname>Shafer</surname>
          </string-name>
          , G.:
          <source>A Mathematical Theory of Evidence</source>
          , Princeton University Press:,
          <year>1976</year>
        </mixed-citation>
      </ref>
      <ref id="ref15">
        <mixed-citation>
          15.
          <string-name>
            <surname>Dempster</surname>
            ,
            <given-names>A. P.</given-names>
          </string-name>
          :
          <article-title>Upper and lower probability function in a context of uncertainty:</article-title>
          ,
          <source>Annals of math. Statistics</source>
          , vol
          <volume>38</volume>
          , pp.
          <fpage>325</fpage>
          -
          <lpage>339</lpage>
          ,
          <year>1967</year>
        </mixed-citation>
      </ref>
      <ref id="ref16">
        <mixed-citation>
          16.
          <string-name>
            <surname>Dempster</surname>
            ,
            <given-names>A. P.:</given-names>
          </string-name>
          <article-title>A generalization of bayesian inference”</article-title>
          ,
          <source>Jour. of the Royal Statistical Society</source>
          , vol
          <volume>30</volume>
          , pp.
          <fpage>205</fpage>
          -
          <lpage>247</lpage>
          ,
          <year>1968</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref17">
        <mixed-citation>
          17.
          <string-name>
            <surname>Zadeh</surname>
          </string-name>
          , L.:,
          <article-title>Fuzzy Sets as a Basis for Theory of Possibility:</article-title>
          ,
          <source>International Journal of Fuzzy Sets and Systems</source>
          ,
          <volume>1</volume>
          :
          <fpage>3</fpage>
          -
          <lpage>28</lpage>
          ,
          <year>1978</year>
        </mixed-citation>
      </ref>
      <ref id="ref18">
        <mixed-citation>
          18.
          <string-name>
            <surname>Dubois</surname>
            ,
            <given-names>D.</given-names>
          </string-name>
          ,
          <string-name>
            <surname>Prade</surname>
          </string-name>
          , H.:
          <source>Fuzzy Sets and Systems: Theory and applications:</source>
          , Academic press, New york,
          <year>1980</year>
          .
        </mixed-citation>
      </ref>
      <ref id="ref19">
        <mixed-citation>
          19.
          <string-name>
            <surname>Ménard</surname>
            ,
            <given-names>M.:</given-names>
          </string-name>
          <article-title>The fuzzy c+2 means: Solving The Extended Ambiguity Reject in Clustering:</article-title>
          .
          <source>In IEEE Transactions on fuzzy systems</source>
          , vol.
          <volume>1</volume>
          ,
          <string-name>
            <given-names>N</given-names>
            <surname>°</surname>
          </string-name>
          .
          <volume>2</volume>
          , pages
          <fpage>195</fpage>
          -
          <lpage>203</lpage>
          .
          <year>1998</year>
        </mixed-citation>
      </ref>
      <ref id="ref20">
        <mixed-citation>
          20.
          <string-name>
            <surname>Moussaoui</surname>
            ,
            <given-names>A.</given-names>
          </string-name>
          :
          <article-title>Aneuro-fazzy image segmentation :</article-title>
          .
          <source>International journal of soft computing 1</source>
          (
          <issue>3</issue>
          ):
          <fpage>232</fpage>
          -238
          <string-name>
            <given-names>Medwell</given-names>
            <surname>Online</surname>
          </string-name>
          .
          <year>2006</year>
        </mixed-citation>
      </ref>
      <ref id="ref21">
        <mixed-citation>
          21.
          <string-name>
            <surname>Shufelt</surname>
            ,
            <given-names>J.A.</given-names>
          </string-name>
          :
          <article-title>Performance Evaluation and Analysis of Monocular Building Extraction from Aerial Imagery:</article-title>
          .
          <source>IEEE Transactions on Pattern Analysis and Machine Intelligence</source>
          ,
          <volume>21</volume>
          (
          <issue>4</issue>
          ), pp.
          <fpage>311</fpage>
          -
          <lpage>326</lpage>
          .
          <year>1999</year>
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>