<?xml version="1.0" encoding="UTF-8"?>
<TEI xml:space="preserve" xmlns="http://www.tei-c.org/ns/1.0" 
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
xsi:schemaLocation="http://www.tei-c.org/ns/1.0 https://raw.githubusercontent.com/kermitt2/grobid/master/grobid-home/schemas/xsd/Grobid.xsd"
 xmlns:xlink="http://www.w3.org/1999/xlink">
	<teiHeader xml:lang="fr">
		<fileDesc>
			<titleStmt>
				<title level="a" type="main">L&apos;Interprétation des Images Médicales Cérébrales : Segmentation par L&apos;approche Split et Merge</title>
			</titleStmt>
			<publicationStmt>
				<publisher/>
				<availability status="unknown"><licence/></availability>
			</publicationStmt>
			<sourceDesc>
				<biblStruct>
					<analytic>
						<author>
							<persName><forename type="first">Berrichi</forename><forename type="middle">Fatima</forename><surname>Zohra</surname></persName>
							<email>berrichi.fatima@yahoo.fr</email>
							<affiliation key="aff0">
								<orgName type="department">Département d&apos;Informatique</orgName>
								<orgName type="laboratory">Laboratoire de Modélisation et Optimisation des Systèmes Industriels : LAMOSI. Faculté des Sciences</orgName>
								<orgName type="institution">USTO. B</orgName>
								<address>
									<addrLine>EL M&apos;NAOUER</addrLine>
									<postBox>P. 1505</postBox>
									<postCode>31000</postCode>
									<settlement>ORAN -ALGERIE</settlement>
								</address>
							</affiliation>
						</author>
						<author>
							<persName><forename type="first">Benyettou</forename><surname>Mohamed</surname></persName>
							<email>med_benyettou@yahoo.fr</email>
							<affiliation key="aff0">
								<orgName type="department">Département d&apos;Informatique</orgName>
								<orgName type="laboratory">Laboratoire de Modélisation et Optimisation des Systèmes Industriels : LAMOSI. Faculté des Sciences</orgName>
								<orgName type="institution">USTO. B</orgName>
								<address>
									<addrLine>EL M&apos;NAOUER</addrLine>
									<postBox>P. 1505</postBox>
									<postCode>31000</postCode>
									<settlement>ORAN -ALGERIE</settlement>
								</address>
							</affiliation>
						</author>
						<title level="a" type="main">L&apos;Interprétation des Images Médicales Cérébrales : Segmentation par L&apos;approche Split et Merge</title>
					</analytic>
					<monogr>
						<imprint>
							<date/>
						</imprint>
					</monogr>
					<idno type="MD5">FC8DB9888FDE25B755F48FEC61E622CE</idno>
				</biblStruct>
			</sourceDesc>
		</fileDesc>
		<encodingDesc>
			<appInfo>
				<application version="0.7.2" ident="GROBID" when="2023-03-24T00:20+0000">
					<desc>GROBID - A machine learning software for extracting information from scholarly documents</desc>
					<ref target="https://github.com/kermitt2/grobid"/>
				</application>
			</appInfo>
		</encodingDesc>
		<profileDesc>
			<textClass>
				<keywords>
					<term>anomalie</term>
					<term>images scanographies</term>
					<term>IRM</term>
					<term>Perceptron Multicouches</term>
					<term>segmentation</term>
					<term>split &amp; merge NMC : Nombre de régions mal classées. TEA : Temps d&apos;apprentissage. TET : Temps de test</term>
				</keywords>
			</textClass>
			<abstract>
<div xmlns="http://www.tei-c.org/ns/1.0"><p>Le traitement des images médicales est une discipline nouvelle, riche et variée, mais dans laquelle les nombreuses méthodes existantes sont délicates à appliquer aux problèmes réels. Dans ce travail, nous présentons un système de traitement des images scanographies et IRM cérébrale qui est basée sur la méthode split &amp; merge pour l'étape de segmentation et l'application du réseau de neurone de type Perceptron Multicouches(PMC) pour la détection des anomalies dans ces images. Le système proposé a pu effectuer la tâche d'interprétation des images médicales avec succès. Il est très important à noter que le choix du sous ensemble d'attributs des régions de l'image contribue dans la discrimination de l'anomalie par rapport au tissus normal.</p></div>
			</abstract>
		</profileDesc>
	</teiHeader>
	<text xml:lang="fr">
		<body>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="1">Introduction</head><p>Le traitement d'image est né de l'idée de la nécessité de remplacer l'observateur humain par la machine. Ce remplacement était sans fondement expérimental, car nul ne pouvait espérer qu'une machine serait un jour dotée de facultés intellectuelles égale ou même supérieure à celle de l'homme. La vision intervenant dans un grand nombre d'activités humaines, le champ des applications du traitement d'images est très vaste ; la médecine est un des domaines qui n'a pu échapper à ce souffle numérique que ce soit dans la chirurgie, le diagnostic, la pratique thérapeutique etc. Le but du traitement des images médicales est d'extraire à partir des images acquises, les informations utiles au diagnostic, de révéler des détails difficiles à percevoir à l'oeil nu, tout en évitant la création d'artefacts, faussement informatifs. Pour cela le traitement fait appel à des outils, des algorithmes, qui permettent d'agir sur l'image numérisée ; L'un des processus fondamentaux dans la chaîne de traitement d'image est la segmentation. La segmentation est un processus qui permet d'engendrer une description compacte de l'image et donc symbolique plus, exploitable que l'ensemble des pixels ; cette description va être utilisée dans une prochaine phase de la chaîne de reconnaissance visuelle, afin de bien caractériser l'image et de concevoir des outils permettant de détecter les différentes pathologies du corps humain. Dans cet article, nous présentons une partie des systèmes d'interprétation des images médicales. L'objectif de ce travail est de concevoir un système de reconnaissance des images cérébrales scannographies et IRM, la reconnaissance est basée sur une segmentation de ces images par une approche région de type « split &amp; merge »pour l'extraction des informations pertinentes nécessaires, par la suite, dans la procédure de décision ; tout en nous concentrant sur la qualité de la segmentation car un traitement ultérieur dépend étroitement du résultat de cette dernière. La détection d'anomalies dans ces images se fait grâce à un classifieur neuronal de type Perceptron Multicouches. Dans la première étape, nous allons utiliser l'opération de "Split"(division) on utilisant la structure quadtree pour partitionner l'image. Une fois l'image partitionnée, nous pouvons passer à la deuxième étape de l'algorithme : l'opération de « Merge» (fusion) <ref type="bibr" target="#b3">[4]</ref>.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2">Imagerie Médicale et Tumeurs Cérébrales</head></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3.1">Algorithme Split and merge</head><p>Soient Xi, i=1,.., N l'ensemble des régions constituant une partition de l'image I (on peut avoir N=1, X1=I). Soit H un prédicat d'homogénéité <ref type="bibr" target="#b4">[5]</ref>.     La propagation, qui consiste à présenter une configuration d'entrée au réseau, puis à la propager à celle de sortie en passant par les couches cachées. Pour chaque neurone, On calcule :</p><formula xml:id="formula_0">y i = G k j d j jk a G W ( , 0 = ⎟ ⎟ ⎠ ⎞ ⎜ ⎜ ⎝ ⎛ ∑ = φ )<label>(1)</label></formula><p>Wjk : poids de la connexion de la cellule j à la cellule k. ak : activation de la cellule k. g : fonction d'activation.</p><formula xml:id="formula_1">X linéaire g(x)= 1/1+ logistic (sigmoid)<label>(2)</label></formula><p>Le rétropropagation, qui consiste, après le processus de propagation. L'algorithme de rétro-propagation a été développé en particulier par Rumelhart et Parkenet le Cun en 1985 [14]. Cet algorithme repose sur la minimisation de l'erreur quadratique entre les sorties calculées et celles souhaitées; L'erreur considérée comme une fonction des poids synaptiques. Cette erreur représente la somme des différences au carré entre les réponses calculées et celles désirées pour tous les exemples contenus dans l'ensemble de l'apprentissage.</p><p>Principe :</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>1.</head><p>Evaluation de l'erreur j Ε (ou E) due à chaque connexion :</p><formula xml:id="formula_2">E i j Z δ = = ij j W a ∂ ∂ j i a E ∂ ∂ = ij i W E ∂ ∂<label>(3)</label></formula></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Idée :</head><p>Calculer l'erreur sur la connexion wji en fonction de l'erreur après la cellule j Pour les cellules de la couche de sortie.</p><p>) ) ( ).( ( '</p><formula xml:id="formula_3">k i k k k i y x u a g y E − = ∂ ∂ ) ( ' k k i k a g a E = ∂ ∂ = δ (4)</formula><p>Pour les cellules d'une couche cachée :</p><formula xml:id="formula_4">k k jk j k j j k k k j k k i j i j w a g a z z a a a a E a E δ δ δ ∑ ∑ ∑ ⋅ = ∂ ∂ ∂ ∂ = ∂ ∂ ∂ ∂ = ∂ ∂ = ) ( '<label>(5)</label></formula><p>Avec ai : activation de la cellule i. zi : sortie de la cellule i. </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.">Modification des poids</head><p>On suppose gradient à pas (constant ou non): η (t)</p><p>Si apprentissage stochastique (après présentation de chaque exemple).</p><formula xml:id="formula_5">i j JI a t W δ η ) ( = Δ (6)</formula><p>Si apprentissage total (après présentation de l'ensemble des exemples).</p><formula xml:id="formula_6">n i n n j JI a t w ∑ = Δ δ η ) ( (7)</formula><p>La phase de test Ou de généralisation consiste à présenter un vecteur de paramètres inconnu en entrée du réseau et à observer la réponse qu'il fournit.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="5">Le système d'interprétation des images médicales</head><p>Le système que nous avons développé contient cinq étapes essentielles qui sont : le prétraitement des images, segmentation, extraction des caractéristiques des régions, l'activation du MLP, la classification (détermination de la classe d'image). <ref type="bibr" target="#b5">[6]</ref> </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="5.1">Base de données</head><p>Nous avons travaillé sur des images procurées de deux sources, des images téléchargées de l'internet : http://www.med.harvard.edu/AANLIB/home.html, et des clichés numérisés d'une clinique d'imagerie médicale sur des patients présentant différents types d'anomalies. Nos images sont regroupées en deux ensembles selon la technique d'imagerie par laquelle elles sont obtenues. On note BDD1 pour le premier ensemble qui contient (09) images scannographie cérébrales.et BDD2 le deuxième ensemble de (09) images IRM cérébrales.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="5.2">Prétraitement des images</head><p>Après l'acquisition des images médicales cérébrales on passe au prétraitement qui se fait en deux étapes suivantes : Le redimensionnement d'image : le but de cette étape est de rendre tous les images à traiter à une taille identique 256*256 pour quelle soit facile à manipulé par la méthode de segmentation choisie qui utilise des images carré. Filtre médiane : Les filtres médians sont un type de filtres passe-bas dont le principe est de faire la médiane des valeurs des pixels avoisinants. On conclure que globalement, le filtre médian présente une meilleure fidélité à l'image initiale. Ce filtre donne d'excellents résultats sur le bruit "poivre et sel". De plus, il préserve bien les contours.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="5.3">Segmentation</head><p>Les images médicales sont segmentées par la méthode split&amp;merge détailler dans la parti (3.1).Le prédicat d'homogénéité pour une région R se repose sur deux critères: 1. La moyenne des niveaux de gris de la région R est inférieure à un seuil fixé. 2. La variance des niveaux de gris de la région R est supérieure à un seuil fixé.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="5.4">Extraction des caractéristiques de l'image segmentée</head><p>Le choix des attributs pour caractériser une région est un problème difficile qui demande toute l'expérience du traiteur d'images. Ce choix dépend de l'image à traiter et du problème à résoudre. A partir des résultats de la segmentation par «split &amp; merge » appliquées sur les images, nous obtenons une carte de régions homogènes où les pixels de chaque région portent une seule valeur caractérisant la région. Pour le calcul des attributs de chaque région de l'image, on cherche les valeurs des niveaux de gris de chaque pixel de la région obtenue par la segmentation dans l'image initiale. Ces attributs sont définis comme suite: Surface (sur): c'est le nombre de pixels de la région.</p><p>Variance (var) : c'est le critère d'homogénéité calculé comme suite (8) Avec : Niveau de gris du pixel i de la région R. : La moyenne des niveaux de gris de R.</p><p>Périmètre(Per): la longueur de la frontière de la région ou le nombre de pixels formant cette frontière.</p><p>Niveau de gris moyen (Ngm): c'est la moyenne des niveaux de gris des pixels de la même région. </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>L'affectation des régions</head><p>On associe à chaque région une valeur y qui prend 1 ou 0 selon que la région présente une anomalie ou pas. Après plusieurs tests, nous avons pu établir les conditions qui permettent de dire si une région est infectée ou pas. Ces conditions sont basées sur les valeurs de la surface, la variance, le niveau de gris moyen.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="5.5">Classification par le réseau MLP</head><p>L'Activation du MLP, signifie qu'on va simuler l'image d'entrée (présentée par un ensemble de régions) par MLP qui est déjà crée auparavant, ce MLP contient :</p><p>Une couche d'entrée: cette couche compte 5 neurones représentant les attributs choisis de chaque région de l'image. Les attributs extraits à partir des régions de l'image, après la phase de segmentation sont: surface, variance, niveau de gris moyen, élongation, compacité.</p><p>La couche cachée : contient 50 neurones. Ce nombre est choisie après plusieurs tests afin d'aboutir à une meilleure généralisation, car pour un problème donné, on ne peut pas savoir au préalable qu'elle architecture de réseau adéquat pour résoudre ce problème.</p><p>La couche de sortie: cette couche contient un seul neurone.     </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="6">Résultats et discussion</head></div><figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_0"><head>Etape 1 :</head><label>1</label><figDesc>SPLIT (algorithme récursif) Pour toute région Xi Si H [Xi] faux Alors Split (Xi). Etape 2 : MERGE Pour tout couple (Xi, Xj) Si Voisin (Xi, Xj) et H [Union (Xi, Xj)] Alors Fusion (Xi, Xj).</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_1"><head>3. 1 . 1</head><label>11</label><figDesc>Phase de Split (Division) L'algorithme se résume en les étapes suivantes : 1. Diviser l'image initiale en 4 régions (principe de structure quatree) où l'on à H (images) = Faux. 2. Si pour une région R i, le prédicat d'homogénéité H n'est pas vérifié (H (R i ) = faux), alors diviser la région en 4. 3. Aller à 2). L'algorithme s'arrête lorsque toutes les régions satisfont le prédicat H.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_2"><head>Fig. 1 .</head><label>1</label><figDesc>Fig. 1. Structure quadtree</figDesc><graphic coords="4,165.18,347.40,276.30,82.74" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_3"><head>Fig. 2 .</head><label>2</label><figDesc>Fig. 2. Principe de labellisation</figDesc><graphic coords="4,207.36,575.64,180.60,70.32" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_4"><head>Fig. 3 . 1 Fonctionnement</head><label>31</label><figDesc>Fig. 3. Le fonctionnement de réseau MLP</figDesc><graphic coords="5,170.04,373.56,266.52,130.74" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_5"><head>Fig. 4 .</head><label>4</label><figDesc>Fig. 4. Evaluation de l'erreur</figDesc><graphic coords="7,200.22,147.42,206.22,95.10" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_6"><head>▪</head><label></label><figDesc>): on détermine le rectangle exinscrit aux régions. L'élongation des régions est assimilée à celle du rectangle (c'est le rapport longueur L sur largeur I). Compacité (Com): appelé aussi facteur de circularité défini par Com= (11) Avec ces attributs, chaque image est présentée comme une matrice de taille N*M. Ou N: le nombre total des régions résultantes de l'image segmentée et M: le nombre des attributs qui caractérisent chaque région, avec l'ordre suivant (Sur, Var, Ngm, Elg, Com).</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_7"><head>Fig. 5 .</head><label>5</label><figDesc>Fig. 5. Architecture de notre réseau</figDesc><graphic coords="9,124.74,593.10,297.12,76.98" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_8"><head></head><label></label><figDesc>Nous avons implémenté l'application en utilisant le langage : MATLAB Version 6.5 pour Windows, sous système d'exploitation Windows XP. Cette implémentation a était faite sur un PC de type Pentium IV INTEL 2.66 GHz, avec une RAM de 128 Mo de capacité. SERIM (Segmentation Et Reconnaissance des Images Médicales) est le logiciel résultat de ce projet. Il présente différents modules et assure un très bon taux de reconnaissance [6].La segmentation par une approche région de type « split &amp; merge » a nécessité la détermination de plusieurs paramètres .Bien que cette méthode a donné des résultats encourageants.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_9"><head>Fig. 6 .Table. 1</head><label>61</label><figDesc>Fig. 6. Segmentation d'une image IRM</figDesc><graphic coords="10,302.28,579.42,63.66,54.72" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_0"><head></head><label></label><figDesc>L'importance que revêt l'imagerie médicale tient d'abord au fait qu'une image est un concentré d'information bien plus efficace qu'un texte ou qu'une explication verbale. L'interprétation des images médicales est un des domaines de recherche les plus encourageants, étant donné qu'il offre des facilités pour le diagnostic et les décisions thérapeutiques d'un grand nombre de maladies tel que le cancer et en particulier le cancer du cerveau. Le cerveau est le moteur du corps humain, siège de la pensée et des émotions c'est le centre ou s'intègrent et ou s'élaborent les grandes fonctions motrices, sensitives…; malgré sa position d'organe central, il n'est pas épargné par le cancer. Les premiers troubles liés au développement d'une tumeur cancéreuse peuvent être très différents d'une personne à l'autre. Il peut s'agir d'une paralysie temporaire d'une partie du corps, d'une crise d'épilepsie, de troubles de la vue, de vertiges etc.</figDesc><table><row><cell>qui doit attirer l'attention. Lorsqu'il suspecte une tumeur cérébrale, le médecin va</cell></row><row><cell>d'abord réaliser un examen neurologique complet dans le but de déterminer la zone du</cell></row><row><cell>cerveau atteinte. Cet examen sera complété par des techniques d'imagerie. Le scanner</cell></row><row><cell>et l'IRM cérébraux sont les examens les plus fréquemment pratiqués. Le scanner est</cell></row><row><cell>un examen qui utilise les rayons. Le scanner permet de voir la tumeur qui apparaît</cell></row><row><cell>clairement et concentre souvent le produit iodé qui a été administré. L'IRM permet de</cell></row><row><cell>visualiser la structure anatomique de tout volume du corps, en particulier des « tissus mous »</cell></row><row><cell>tels que le cerveau, elle n'utilise pas les rayons X, mais les propriétés magnétiques du corps</cell></row><row><cell>humain [1].</cell></row><row><cell>3 Segmentation</cell></row><row><cell>La segmentation des images constitue le coeur de tout système de vision ; c'est une</cell></row><row><cell>étape importante dans le processus d'analyse des images ; c'est un des sujets qui a</cell></row><row><cell>été le plus étudié dans ce domaine. La segmentation a pour objectif l'extraction</cell></row><row><cell>d'indices visuels dans une image. Elle permet de partitionner une image en ensembles</cell></row><row><cell>de points appelés régions, homogènes pour une ou plusieurs caractéristiques</cell></row><row><cell>(intensité, couleur, texture, …) et sont différentes pour au moins une de ses</cell></row><row><cell>caractéristiques des régions voisines. Formellement ; la segmentation d'une image</cell></row><row><cell>numérique I utilisant un prédicat d'homogénéité P est communément définie comme</cell></row><row><cell>une partition</cell></row><row><cell>S= R1, R2, R3,…., Rn telle que :</cell></row><row><cell>1. I= U Ri , i∈ [1…n] 2. Ri est connexe, ∀ i ∈[1…n]</cell></row><row><cell>3. P(Ri) =vrai, ∀ i ∈[1…n]</cell></row><row><cell>Aucun</cell></row><row><cell>des symptômes cités précédemment n'est spécifique d'un cancer; C'est leur persistance</cell></row></table><note><ref type="bibr" target="#b3">4</ref>. P (Ri U RJ)= faux ∀ i∉ j Ainsi, une multitude de techniques de segmentation est présentée dans la littérature, On peut les regrouper en trois grandes familles : Les méthodes de segmentation par contours, Les méthodes de segmentation en régions et Les méthodes de classification<ref type="bibr" target="#b1">[2]</ref>[3]. Notre choix s'est porté sur une méthode de segmentation par approche région de type "Split and Merge" est dit aussi « division &amp; fusion » pour la performance de cette méthode en traitement d'images. L'algorithme split &amp; merge ; a été présenté la première fois en 1974 par Pavlidis et Horowitz. Cet algorithme est composé de deux étapes.</note></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_1"><head>Taux de reconnaissance= (nombre des exemples reconnus) / nombre totale des exemples</head><label></label><figDesc>Pour Le nombre d'itérations il faut choisir un nombre important permet au réseau de bien s'organiser et d'adapter de mieux en mieux ses poids. Pour cette phase d'apprentissage, on a collecté 2 ensembles d'images médicales cérébrales sains et infectés distinctes, tels que le 1 ier ensemble tiré du BDD1 contient 4 images et le 2 ième ensemble pris du BDD2 avec un nombre de 4.Après avoir obtenu les meilleurs résultats de convergence de l'apprentissage du MLP(le taux le plus élevé) on stocke les poids et les seuils du MLP dans un fichier spécifique.Le réseau doit être testé, en lui présentons un autre ensemble d'exemples et c'est à lui de décider si la région présentée est une zone suspecte ou non, en regardons sa sortie .Le taux de reconnaissance est calculé par la formule suivante :</figDesc><table><row><cell>L'apprentissage</cell></row><row><cell>Notre choix de l'apprentissage s'est porté sur un apprentissage supervisé (différents</cell></row><row><cell>exemples avec leurs sorties désirées sont présentés au réseau). Nous avons utilisé la</cell></row><row><cell>retropropagation du gradient comme algorithme d'apprentissage décrite dans la</cell></row><row><cell>partie précédente. Le test :</cell></row></table><note>.La décision sur l'image dépend de l'existence d'au moins d'une seule région infectée parmi l'ensemble des régions constituent cette image. Dans notre application la phase de test s'est appliquée sur le reste de BDD1 et BDD2 chacun à part.</note></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_2"><head>Table 2 .</head><label>2</label><figDesc>Comparaison des résultats pour BDD1.</figDesc><table><row><cell>Le type de fonction</cell><cell>TDA%</cell><cell>TDT%</cell><cell>NBC</cell><cell>NMC</cell><cell>TEA(s)</cell><cell>TET(s)</cell></row><row><cell>Linear</cell><cell>100</cell><cell>97</cell><cell>160</cell><cell>4</cell><cell>37.672</cell><cell>0.016</cell></row><row><cell>Logistic</cell><cell>100</cell><cell>100</cell><cell>164</cell><cell>0</cell><cell>32.687</cell><cell>0.015</cell></row></table></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_3"><head>Table 3 .</head><label>3</label><figDesc>Comparaison des résultats pour BDD2</figDesc><table><row><cell>Le type de fonction</cell><cell>TDA%</cell><cell>TDT%</cell><cell>NBC</cell><cell>NMC</cell><cell>TEA(s)</cell><cell>TET(s)</cell></row><row><cell>Linear</cell><cell>100</cell><cell>97.57</cell><cell>161</cell><cell>4</cell><cell>10.14</cell><cell>0.016</cell></row><row><cell>Logistic</cell><cell>100</cell><cell>98.18</cell><cell>162</cell><cell>3</cell><cell>10.046</cell><cell>0.016</cell></row></table></figure>
		</body>
		<back>
			<div type="annex">
<div xmlns="http://www.tei-c.org/ns/1.0"><p>Avec TDA : Taux D'apprentissage.</p><p>TDT : Taux de test. NBC : Nombre de régions bien classées.</p><p>Les tableaux ont montré la variation du taux d'apprentissage et de test du MLP en changeant la fonction d'activation. Nous remarquons que le changement de la fonction d'activation entraîne un changement du taux. Cette remarque est valide pour n'importe quelle image traitée, et peut être expliquée par le fait que le fonctionnement de réseau s'appuie sur la fonction de transfert. Par exemple, l'augmentation du taux de test dans les deux bases de données est due à l'utilisation de la fonction logistique .Contrairement à la fonction linéaire, l'emploi de cette dernière implique une diminution remarquable du taux, ceci est clairement vu dans les tableaux.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="7">Conclusion</head><p>L'objectif de notre travail c'est la conception et l'implémentation d'un système de reconnaissance des images scannographies et IRM appliqué pour le diagnostic des anomalies détectées. Ce système a pour rôle d'aide à l'interprétation des images médicales et fournir au médecin des informations précises sur le contenu de l'image qui va expliciter les différentes régions d'intérêt ainsi que les aspects pathologiques des structures présentées dans l'image. Le travail présenté a permis d'intervenir et d'améliorer les différentes étapes de l'analyse des images médicales. Après une estimation globale et un choix adéquat des prétraitements, le logiciel SERIM fait appelle à : la segmentation par une approche région « split&amp;merge », l'extraction des attributs des régions et la classification des données qui consiste à classifier les régions obtenues par les réseaux de neurones de type MLP. Les résultats de la segmentation et la détection obtenus montrent que le système a pu donner des meilleures performances en reconnaissance. Il demeure évident que ces méthodes ne remplaceront jamais l'oeil du clinicien, mais en lui offrant un outil d'interprétation plus rapide et minutieux, elles seront toujours un outil fiable d'aide au diagnostic ainsi qu'a la détection de la pathologie.</p></div>			</div>
			<div type="references">

				<listBibl>

<biblStruct xml:id="b0">
	<analytic>
		<title level="a" type="main">Tomodensitométrie Crânio-Encéphalique</title>
		<author>
			<persName><forename type="first">J</forename><surname>Vignaud</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Edition VIGOT</title>
		<imprint>
			<date type="published" when="1988">1988</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b1">
	<monogr>
		<title level="m" type="main">Vision par ordinateurs outils fondamentaux</title>
		<author>
			<persName><forename type="first">R</forename><surname>Horaud</surname></persName>
		</author>
		<author>
			<persName><forename type="first">O</forename><surname>Monga</surname></persName>
		</author>
		<imprint>
			<date type="published" when="1995">1995</date>
			<publisher>Edition Hermès</publisher>
			<pubPlace>Paris</pubPlace>
		</imprint>
	</monogr>
	<note>2 éditions</note>
</biblStruct>

<biblStruct xml:id="b2">
	<analytic>
		<title level="a" type="main">Une vision fonctionnelle de la segmentation d&apos;images» Congrès Francophone de Vision par ordinateur</title>
		<author>
			<persName><forename type="first">H</forename><surname>Zoug Tarik</surname></persName>
		</author>
		<author>
			<persName><forename type="first">C</forename><surname>Benoit-Catin</surname></persName>
		</author>
		<author>
			<persName><surname>Odet</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">ORASIS&apos;</title>
		<imprint>
			<biblScope unit="volume">01</biblScope>
			<biblScope unit="page" from="588" to="2001" />
		</imprint>
	</monogr>
	<note>PAGES</note>
</biblStruct>

<biblStruct xml:id="b3">
	<monogr>
		<title level="m" type="main">Picture segmentation by a directed split and merge procedure</title>
		<author>
			<persName><forename type="first">S</forename><forename type="middle">L</forename><surname>Horowitz</surname></persName>
		</author>
		<author>
			<persName><forename type="first">T</forename><surname>Pavlidis</surname></persName>
		</author>
		<imprint>
			<date type="published" when="1977">1977</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b4">
	<analytic>
		<title level="a" type="main">Region representation: quadtre from binary arrays</title>
		<author>
			<persName><forename type="first">H</forename><surname>Samet</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Computer Graphics and Image Processing</title>
		<imprint>
			<date type="published" when="1980">1980</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b5">
	<monogr>
		<author>
			<persName><forename type="first">F</forename><forename type="middle">Z</forename><surname>Berrichi</surname></persName>
		</author>
		<author>
			<persName><forename type="first">H</forename><surname>Guendouz</surname></persName>
		</author>
		<author>
			<persName><surname>Benyettou</surname></persName>
		</author>
		<title level="m">Segmentation et Classification des Images Médicales Cérébrales</title>
				<imprint>
			<publisher>USTO</publisher>
			<date type="published" when="2007">2007</date>
		</imprint>
	</monogr>
	<note>Projet de Fin d&apos;Etude</note>
</biblStruct>

				</listBibl>
			</div>
		</back>
	</text>
</TEI>
