<?xml version="1.0" encoding="UTF-8"?>
<TEI xml:space="preserve" xmlns="http://www.tei-c.org/ns/1.0" 
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
xsi:schemaLocation="http://www.tei-c.org/ns/1.0 https://raw.githubusercontent.com/kermitt2/grobid/master/grobid-home/schemas/xsd/Grobid.xsd"
 xmlns:xlink="http://www.w3.org/1999/xlink">
	<teiHeader xml:lang="fr">
		<fileDesc>
			<titleStmt>
				<title level="a" type="main">Elaboration d&apos;un Système hybride Neuro-Génétique Pour le Diagnostic Médical</title>
			</titleStmt>
			<publicationStmt>
				<publisher/>
				<availability status="unknown"><licence/></availability>
			</publicationStmt>
			<sourceDesc>
				<biblStruct>
					<analytic>
						<author role="corresp">
							<persName><forename type="first">D</forename><surname>Yedjour</surname></persName>
							<email>dyedjour@yahoo.fr</email>
						</author>
						<author>
							<persName><forename type="first">A</forename><surname>Benyettou</surname></persName>
						</author>
						<author>
							<persName><forename type="first">H</forename><surname>Yedjour</surname></persName>
						</author>
						<author>
							<affiliation key="aff0">
								<orgName type="department">Faculté</orgName>
								<orgName type="institution">Université des sciences et de la Technologie d&apos;Oran</orgName>
							</affiliation>
						</author>
						<author>
							<affiliation key="aff1">
								<orgName type="department">Département d&apos;Informatique</orgName>
							</affiliation>
						</author>
						<title level="a" type="main">Elaboration d&apos;un Système hybride Neuro-Génétique Pour le Diagnostic Médical</title>
					</analytic>
					<monogr>
						<imprint>
							<date/>
						</imprint>
					</monogr>
					<idno type="MD5">2AC1DBE025627354EB7B543D2652AF58</idno>
				</biblStruct>
			</sourceDesc>
		</fileDesc>
		<encodingDesc>
			<appInfo>
				<application version="0.7.2" ident="GROBID" when="2023-03-24T00:20+0000">
					<desc>GROBID - A machine learning software for extracting information from scholarly documents</desc>
					<ref target="https://github.com/kermitt2/grobid"/>
				</application>
			</appInfo>
		</encodingDesc>
		<profileDesc>
			<textClass>
				<keywords>
					<term>Réseaux de neurones</term>
					<term>Algorithme génétique</term>
					<term>Extraction de règles</term>
					<term>Méthode de Quine Mc-Cluskey</term>
				</keywords>
			</textClass>
			<abstract>
<div xmlns="http://www.tei-c.org/ns/1.0"><p>Les réseaux de neurones artificiels sont toujours considérés comme des boites noires, qui permettent après un apprentissage à partir d'une base d'exemples incomplète, de classifier de nouveaux exemples, mais sans donner aucune explication sur les résultats. Leurs connaissances sont codées de manière interne par les poids synaptiques, et ne sont pas donc exprimées de manière compréhensible. Les algorithmes génétiques très performants dans les problèmes d'exploration semblent être en mesure de rechercher dans l'espace des ensembles de règles, celui qui représentera le mieux les connaissances d'un RNA. En revanche, ils sont inefficaces lorsqu'il s'agit de trouver la valeur exacte de l'optimum dans cet espace or, c'est précisément ce que les algorithmes exacts d'optimisation réalisent le mieux. Nous présentons dans cet article une nouvelle approche d'extraction de règles à partir d'un réseau de neurones permettant de combiner les deux méthodes métaheuristiques et exactes au sein d'un même système.</p></div>
			</abstract>
		</profileDesc>
	</teiHeader>
	<text xml:lang="fr">
		<body>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="1.">Introduction</head><p>Les réseaux de neurones sont devenus un outil de plus en plus utilisé (industrie, parole, diagnostic médicale, finance, traitement de signal et dans beaucoup d'autres problèmes), grâce à leur capacité d'apprendre et de généraliser, De plus ils sont peu sensibles aux données approximatives et à la présence de données incorrectes dans la base d'exemple utilisée lors de leur apprentissage. En revanche, les connaissances acquises lors de l'apprentissage sont stockées par le RNA dans sa topologie et les poids de ses connexions, ce qui empêche toute justification des réponses du réseau. Nous pouvons dire que le réseau est une sorte de « boite noire » <ref type="bibr" target="#b9">[10]</ref>. Cependant l'extraction de règles pertinentes demeure importante si les résultats du réseau de neurones sont utilisés comme théorie initiale dans des problèmes similaires <ref type="bibr" target="#b1">[2]</ref>. Un system combinant le modèle connexionniste et le raisonnement symbolique est dit système hybride intelligent <ref type="bibr" target="#b4">[5]</ref>. Il existe deux approches dans l'explicitation des connaissances d'un RNA. l'approche décompositionnelle qui tente d'analyser la topologie et les poids des connexions d'un réseau afin d'en déduire des règles, on cite comme exemple RuleNet <ref type="bibr" target="#b8">[9]</ref>, RULEX <ref type="bibr" target="#b0">[1]</ref>, Subset <ref type="bibr" target="#b2">[3]</ref>, Full-RE <ref type="bibr" target="#b11">[12]</ref> , et l'approche pédagogique qui consiste non plus à s'intéresser aux unités d'un réseau, mais simplement à analyser ses réponses par rapport aux entrées, on peut citer quelques travaux qui ont utilisé cette approche VIA(Validity Internal analysis) <ref type="bibr" target="#b12">[13]</ref>, GEX(crisp Rule EXtraction) and REX (fuzzy Rule EXtraction) <ref type="bibr" target="#b5">[6]</ref>. MulGEX <ref type="bibr" target="#b6">[7]</ref>, CGA <ref type="bibr" target="#b7">[8]</ref>, BIO-RE (Binary Input-Output Rule Extraction) <ref type="bibr" target="#b11">[12]</ref>. Dans cet article, on décrit une nouvelle méthode qui combine les algorithmes métaheuristiques (algorithmes génétiques) avec les méthodes exactes (Quine-Mc-cluskey) afin d'extraire à partir d'un réseau de neurones, les règles binaires de la forme if-then. Les algorithmes génétiques très performants dans les problèmes d'exploration semblent être en mesure de rechercher dans l'espace des ensembles de règles, celui qui représentera le mieux les connaissances d'un RNA. En revanche, ils sont inefficaces lorsqu'il s'agit de trouver la valeur exacte de l'optimum dans cet espace. Or, c'est précisément ce que les algorithmes exacts d'optimisation réalisent le mieux. Il est donc naturel de penser à associer un algorithme exact à l'algorithme génétique de façon à trouver la valeur exacte de l'optimum. On peut aisément le faire en appliquant à la fin de l'algorithme génétique un algorithme exact sur le meilleur élément trouvé. Notre système est testé sur la base de données cancer du sein de l'université de Californie. Les expériences montrent que notre système donne de bons résultats.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.">SYSTEME MC-RULEGEN</head><p>La figure1 présente l'architecture de notre système MC-RULEGEN, il est décomposé en 04 modules: le module perceptron multicouches, le module génétique, le module simplification de règles, et enfin le module system à base de règles.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.1.">Module Apprentissage du réseau de neurones</head><p>Les données doivent être dans un format binaire, sinon une procédure de binarisation (1) sera appliqué sur les données non-binaires <ref type="bibr" target="#b11">[12]</ref>.</p><formula xml:id="formula_0">on u x si y i i i sin 0 1 ≥    = (1)</formula><p>où xi est la valeur de l'attribut Xi, ui est la valeur moyenne de Xi et yi est la valeur binaire correspondante.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Fig. 1 -Architecture du système MC-RULEGEN</head><p>Le PMC est appris à partir d'une base d'exemple, chaque vecteur d'entrée, est associe à un vecteur de sortie (apprentissage supervisé), nous avons utilisé l'algorithme de la rétro-propagation. L'apprentissage sert à determiner les valeurs optimales des poids (la matrice des poids), les connaissances du réseau sont contenues dans cette matrice. La phase de l'apprentissage nécessite la manipulation de plusieurs paramètres (momentum, fonction d'activation, fréquence d'apprentissage,..) afin d'aboutir au résultat voulu.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.2.">Module génétique</head><p>Les connaissances du réseau de neurones sont difficilement interprétables par un être humain. Pour remédier à cela, il convient d'expliciter ces connaissances, c'est-à-dire les traduire sous une forme intelligible, une approche pédagogique basé sur les algorithmes génétiques est utilisée. La règle extraite doit avoir la forme suivante if</p><p>[not]x 1 and [not]x 2 . . . then C</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>[.] est facultatif</head></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Mesure de qualités des règles extraites</head><p>Les règles extraites doivent être précises et compréhensibles <ref type="bibr" target="#b3">[4]</ref>, <ref type="bibr" target="#b5">[6]</ref> </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Algorithme génétique pour l'extraction de règles</head><p>Les algorithmes génétiques (AG) sont des algorithmes d'optimisation s'appuyant sur des techniques dérivées de la génétique et de l'évolution naturelle. ils utilisent la selection, le croisement et la mutation.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Algorithme</head><p>Générer aléatoirement une population initiale P(0), Calculer la fonction fitness fi(m) pour chaque individu m de la population P(t), Définir des probabilités de selection pour chaque individu m dans P(t), Générer la nouvelle population P(t+1) en appliquant les opérateurs génétiques de croisement et de mutation, Repéter l'étape 2 jusqu'à ce que le résultat final est le meilleur individu généré durant la recherche ou bien si le nombre maximal de générations soit atteint. </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Population initiale</head><p>La population initiale de règles est choisie à partir de la table de vérité, qui doit contenir toutes les combinaisons possibles de valeurs d'entrées (attributs), les valeurs de sorties sont générées aléatoirement.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Fonction fitness "mesure de performance"</head><p>La fonction fitness permet d'évaluer les individus (chromosomes), et donc de déterminer la qualité de la solution. Les meilleurs individus sont mutés et croisés pour produire une nouvelle génération. Dans cet article deux mesures de fitness sont utilisées: la fidélité et la compréhensibilité.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Opérateurs génétiques</head><p>Les trois opérateurs de base utilisés dans les AG sont: la selection, le croisement et la mutation. La méthode de la selection utilisée est celle de la roulette (roulette wheel selection).</p><p>Croisement: permet de combiner deux chromosomes (parents) afin de produire un nouveau chromosome (offspring). La figure <ref type="figure">3</ref>  </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Fig. 3 -Exemple du croisement</head><p>Mutation: le rôle de la mutation est d'apporter «du nouveau» dans les chromosomes manipulées afin que la recherche ne soit pas cloisonnée dans une partie de l'espace exploré. La mutation consiste juste à choisir aléatoirement un caractère d'une chaîne et à le modifier. Dans notre travail, la mutation peut basculer de la valeur 1 à 0/(-1) ou de 0 à 1/(-1) ou -1 à 0/1. (voir figure <ref type="figure">4</ref>)</p><formula xml:id="formula_2">1 0 1 1 -1 ⇓ 1 0 -1 1 -1</formula></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Fig. 4 -Exemple de la mutation</head></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Evaluation de règles</head><p>C'est au cours de l'évaluation des règles que vont se réaliser les interactions entre le module génétique et le RNA. nous avons modifié l'algorithme de la rétropropagation (developed by Rumelhart hinton, wiliams <ref type="bibr" target="#b10">[11]</ref>), de telle sorte que les attributs inactifs (valeur=-1) soient omis lors du calcul (voir figure5). </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.3.">Module d'optimisation de règles</head><p>L'ensemble de règles générée par AG (supposé optimal) est exprimé sous forme de chaînes de "un", de "zéro" ou de "-1". On applique l'algorithme de Quine-McCluskey sur cet ensemble afin d'arriver à la solution exacte et simplifiée. La méthode de Quine consiste, en partant de la décomposition canonique disjonctive de f, à utiliser systématiquement la formule de simplification x + ¯x = 1 plusieurs fois jusqu'à ce que aucune paire de termes ne peut être combinées <ref type="bibr" target="#b13">[14]</ref>. La méthode de quine MC-Cluskey permet de simplifier une fonction en partant de sa forme canonique, nous avons modifié l'algorithme pour qu'il commence avec n'importe quels termes, cela permet de réduire la complexité de l'algorithme.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Comment utiliser l'algorithme de Quine McCluskey dans notre approche:</head><p>1. Initialement R NM =, R FIN = 2. Regrouper les règles générées par le module génétique dans des classes, chaque classe englobe tous les règles ayant le même nombre des attributs inactifs (valeur=-1), 3. Numéroter chaque classe, ex: class0 contient les règles avec zéro (0) attribut négatif, class1 contient les règles avec un seul (1) attribut négatif, etc … (si le nombre des sous classes de la classe0=n nbre maximum de classes (nbrclass)=n) 4. Trier chaque classe suivant le nombre des attributs positifs (valeur=1), construire alors des sous classes, chacune d'elles contient les règles ayant le même nombre de 1, deux sous classes de la classe i sont dites adjacentes si la première contient m attributs positifs et la 2 ème contient m+1 attributs positifs, 5. Commencer par la classe0, (i 0) 6. Apparier les sous classes adjacentes de la classei deux à deux, appliquer la règle x + ¯x (voir figure <ref type="figure">6</ref>) , 7. Les règles qui ont participé à la génération des nouvelles règles sont marquées, 8. Les règles non marquées sont insérées dans R NM 9. Les nouvelles règles sont insérées dans la classe i+1, 10. i i+1 11. si i&lt; n alors aller à l'étape 5 sinon R FIN = R NM fsi 12. Déterminer quels sont les implicants premiers essentiels à partir de R FIN <ref type="bibr" target="#b13">[14]</ref>.</p><formula xml:id="formula_3">Chromosome 1 0 -1 1 -1 0 0 -1 1 -1 -1 0 -1 1 -1</formula><p>Fig. </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.4.">Système à base de règles</head><p>Les règles obtenues à partir des deux modules précédents (génétique et simplification) sont utilisées par le module "système à base règle" dans le but d'obtenir un ensemble final et réduit de règles pertinentes qui couvre le maximum des exemples de test.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Méthodologie:</head><p>On suppose que E= l'ensemble de règles finale, initialement E=, pour chaque règle, la précision est calculée en comptant le nombre des exemples correctement classés par cette règle, les règles sont triées dans l'ordre décroissant, selon leurs valeurs de précision, choisir les règles dont la précision est supérieur à la valeur maxaccuracy définie par l'utilisateur, si cette règle existe alors: − calculer NB le nombre de prémisses dans chaque règle de l'étape 3, − Choisir uniquement les règles dont la valeur NB&lt;prem, (prem est une valeur définie par l'utilisateur) − Déplacer la règle dans E Sinon, l'algorithme fait des combinaisons des deux meilleurs règles au sens de précision, ce processus continu jusqu'à ce qu'on trouve un ensemble de règles vérifiant le critère précision &gt;=maxaccuracy et NB&lt;prem, cet ensemble de règles est déplacé dans E.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3.">Résultats Expérimentales</head><p>Notre système MC-RULEGEN est testé sur la base de données cancer du sein, nous avons utilisé le modèle PMC avec une seule couche cachée. Les résultats sont comparés avec d'autres approches.</p><p>Base de données cancer du sein [15]: Contient 699 exemples répartis sur 02 classes (458 pour bénigne et 241 pour maligne). Chaque exemple est composé de neufs attributs, chacun d'eux prend des valeurs entre 1 et 10. Les exemples sont utilisés dans l'apprentissage et le test.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3.1.">Apprentissage du réseau de neurones</head><p>Le meilleur résultat est obtenu en utilisant (table 1): 9 neurones dans la couche d'entrée, 03 neurones dans la couche cachée et deux neurones dans la couche de sortie, nous avons utilisé la fonction logistique entre les couches, le momentum = 0.95 et la fréquence d'apprentissage=0.4. Après 500 époques, le taux de classification est égale à 98%. Table <ref type="table">1</ref>. Liste des styles définis dans le présent document.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3.2.">Extraction de règles par l'algorithme génétique</head><p>La taille de la population est initialisée à la valeur "popsize", celle du chromosome ( l'individu) est égale "indiv_length", le nombre de gènes (règles) dans le chromosome est égale à "rulesize". Chaque règle contient "sizeinput" attributs. La méthode de la roulette est utilisée dans la selection des individus. La prochaine génération est créee à partir de la population courante en utilisant les opérateurs de croisement (avec une probabilité pCross) et de mutation (avec une probabilité pMut). Les meilleurs chromosomes au sens de fitness survivent et participent à la création de la nouvelle population. La population continue à évoluer vers les meilleurs valeurs de fitness. Après plusieurs générations, l'algorithme converge vers le meilleur chromosome. La figure7 montre l'évolution des valeurs de la fonction fitness des meilleurs individus de chaque génération. La compréhensibilité dans chaque individu est calculée en comptant le nombre des attributs inactifs, si ce nombre augumente alors la compréhensibilité augmente. Nous avons utilisé dans notre travail les valeurs suivante: popsize=30, rulesize=15, sizeinput=9; indiv_length = sizeinput*rulesize; pMut=0.2; pCross=0.8; nombre de génération égale à 10000;</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3.3.">Procédure d'Optimisation</head><p>En appliquant la procédure d'optimisation, deux règles sont éliminées. </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3.4.">Système à base de règles</head><p>La table 2 montre les 03 meilleurs règles obtenues pour chaque classe. Pour la classe bénigne, en se basant sur la première règle, uniquement 5 parmi 229 d'exemples de test sont malclassées, si on rajoute à cette règle la deuxième, la précision saute à 100% (voir table <ref type="table" target="#tab_4">3</ref>), les autres règles sont alors omises.  </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Règles</head></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="5.">Conclusion</head><p>Ce papier présente une nouvelle approche d'extraction de règles à partir d'un réseau de neurones. Notre approche combine les deux approches métaheuristiques (algorithme génétique) et les exactes (Quine Mc-cluskey) au sein d'un même système afin d'extraire les règles binaires de la forme if-then, les règles obtenues sont passées dans un système à base de règles pour raffinage. Les résultats expérimentaux montrent que notre approche MC-RULEGEN génère des règles de très haute performance.</p></div><figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_0"><head></head><label></label><figDesc>explique le croisement ( | est le point de croisement):</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_1"><head>Fig. 5 -</head><label>5</label><figDesc>Fig. 5 -Algorithme de la rétropropagation modifié</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_2"><head></head><label></label><figDesc>Considérrons l'exemple suivant : f(a, b, c) = a.b + b.c + a.c La décomposition canonique disjonctive de f est : f(a, b, c, d) = a.b.c + a.b.c + a.b.c + abc + abc +a b c Algorithme de Quine modifié:</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_3"><head>Fonction</head><label></label><figDesc>Fitness:MC-RULEGEN cherche des règles avec: Une meilleure précision, Un nombre minimal de prémisses.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_4"><head>Fig. 7 .</head><label>7</label><figDesc>Fig. 7. Evolution de la fonction Fitness</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_0"><head>La fidélité se calcule de la manière suivante: chaque individu est passé dans le réseau de neurone pour classification, le</head><label></label><figDesc>pourcentage des bonnes réponses est la valeur de la fidélité associé à l'individu. La compréhensibilité calcule le nombre de règles ainsi que le nombre de prémisses dans chaque règle. Enfin la généralisation est définit par<ref type="bibr" target="#b2">(3)</ref> </figDesc><table><row><cell></cell><cell></cell><cell></cell><cell></cell><cell></cell><cell></cell><cell></cell><cell></cell><cell>. La précision (2) mesure la proportion des</cell></row><row><cell cols="9">exemples correctement classés par la règle parmi tous les exemples d'apprentissage</cell></row><row><cell>p</cell><cell>récision</cell><cell>=</cell><cell cols="2">nombre</cell><cell></cell><cell cols="2">total exemples nombre des</cell><cell>exemples nt correcteme des</cell><cell>classés</cell><cell>(2)</cell></row><row><cell cols="3">Generalisa</cell><cell>tion</cell><cell>=</cell><cell>1</cell><cell>−</cell><cell cols="2">exemples règles de des nombre nombre</cell></row></table></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_1"><head></head><label></label><figDesc>Dans cet article, l'approche génétique est utilisée pour générer les règles symboliques interprétant le résultat du réseau de neurones, c'est pourquoi ces règles doivent être représentées sous forme de chromosomes.Le chromosome est composé d'un ensemble de gènes, chaque gène correspond à une règle, cela dit que le chromosome code un ensemble de règles (figure2) les attributs se lisent de la gauche vers la droite alors le dernier gène devient : if x 1 and x 2 and x 3 and not(x 4 ) then class 0 , x 1 , x 2 et x3 sont dits attributs positifs et x 4 un attribut négatif, x 5 un attribut inactif</figDesc><table><row><cell>La forme du choromosomes</cell><cell></cell><cell></cell><cell></cell><cell></cell></row><row><cell></cell><cell></cell><cell></cell><cell></cell><cell></cell><cell>Règles finales</cell></row><row><cell></cell><cell>Initiales Règles</cell><cell>R1</cell><cell cols="3">R2 R3 R4 R5</cell><cell>System à base de règles</cell></row><row><cell></cell><cell></cell><cell></cell><cell></cell><cell></cell><cell>Règles</cell></row><row><cell></cell><cell>1(-1)010</cell><cell cols="2">00010</cell><cell>10011</cell><cell>10110 1110(-1)</cell><cell>Simplifiées</cell></row><row><cell></cell><cell cols="5">Règles extraites Class 0 Fig. 2 -Forme du chromosome dans MC-RULEGEN Module PMC Module Génétique Class 0 Class 1 Class 1 Class 0 Module Optimisation règles</cell></row><row><cell cols="5">-1 veux dure que l'attribut n'est pas activé. Extraction de règles via le module génétique 0 veux dire que l'attribut x s'ecrit not (x) dans la règle générée</cell></row><row><cell cols="5">1 veux dire que l'attribut x s'ecrit (x) dans la règle générée</cell></row><row><cell>on suppose que</cell><cell>Exemples D'apprentissage</cell><cell></cell><cell></cell><cell></cell></row></table></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_2"><head>6 -</head><label>6</label><figDesc>Exemple d'application de Quine Mc-cluskey sur les Règles extraites Dans cet exemple les règles R1 et R2 sont extraites par le module génétique alors que Ropt est obtenu en appliquant l'algorithme de Quine sur les deux règles</figDesc><table /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_3"><head>Table 2 :</head><label>2</label><figDesc>Nombre des exemples correctement classés par les 03 meilleurs règles</figDesc><table><row><cell></cell><cell></cell><cell>Règles</cell><cell></cell></row><row><cell>Benigne</cell><cell>Précision</cell><cell>Maligne</cell><cell>Précision</cell></row><row><cell>R B1</cell><cell>224/229</cell><cell>R M1</cell><cell>96/120</cell></row><row><cell>R B2</cell><cell>219/229</cell><cell>R M2</cell><cell>101/120</cell></row><row><cell>R B3</cell><cell>200/229</cell><cell>R M3</cell><cell>97/120</cell></row></table></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_4"><head>Table 3 :</head><label>3</label><figDesc>Qualité des règles extraites (a) pour la classe bénigne et (b) pour la classe maligne) Notre base de règles est comparée avec le réseau de neurones (NN), les résultats des table 4 et table 5 montrent que les cinq règles extraites par l'approche MC-RULEGEN permet de couvrir tous les exemples de test, le nombre maximal d'attributs dans chaque règle est égale à "1". Notre système utilise seulement 03 attributs v(8), v(6) et v(4) qui sont suffisants pour représenter toutes les connaissances du NN.</figDesc><table><row><cell cols="3">Les règles finaux obtenues sont données par:</cell><cell></cell><cell></cell></row><row><cell cols="2">Règles de la classe Bénigne</cell><cell></cell><cell></cell><cell></cell></row><row><cell cols="3">if (v(8) Normal Nucleoli &lt;2.77) then benin</cell><cell></cell><cell></cell></row><row><cell>if (v(6) Bare Nuclei</cell><cell cols="2">&lt;3.45) then benin</cell><cell></cell><cell></cell></row><row><cell cols="2">Règles de la classe Maligne</cell><cell></cell><cell></cell><cell></cell></row><row><cell>if (v(8) Normal Nucleoli</cell><cell cols="2">≥2.77) then malignant</cell><cell></cell><cell></cell></row><row><cell>if (v(6 Bare Nuclei</cell><cell></cell><cell>≥3.45) then malignant</cell><cell></cell><cell></cell></row><row><cell cols="3">if (v(4) Marginal Adhesion ≥ 3) then malignant</cell><cell></cell><cell></cell></row><row><cell></cell><cell></cell><cell>Bénigne</cell><cell>Maligne</cell><cell>Précision ( Test)</cell><cell>Nombre des attributs (prémisses)</cell></row><row><cell>NN</cell><cell></cell><cell>229</cell><cell>120</cell><cell>98%</cell><cell>9</cell></row><row><cell cols="2">(Exemples)</cell><cell></cell><cell></cell><cell></cell></row><row><cell cols="2">MC-RULEGEN</cell><cell>2</cell><cell>3</cell><cell>100%</cell><cell>1</cell></row><row><cell cols="2">(Règles)</cell><cell></cell><cell></cell><cell></cell></row></table></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_5"><head>Table 4 :</head><label>4</label><figDesc>Comparaison des résultats du NN et de la base de règlesLa précision est passée de 98% à 100% en utilisant seulement 05 règles et 03 attributs.</figDesc><table><row><cell></cell><cell cols="2">Réseau de neurones</cell><cell cols="2">Règles Extraites</cell></row><row><cell></cell><cell>Ratio</cell><cell>%</cell><cell>Ratio</cell><cell>%</cell></row><row><cell>Apprentissage</cell><cell>336/341</cell><cell>98.53</cell><cell>335/341</cell><cell>98.24</cell></row><row><cell>Test</cell><cell>342/349</cell><cell>98</cell><cell>349/349</cell><cell>100</cell></row><row><cell>Total</cell><cell>678/690</cell><cell>98.26</cell><cell>684/690</cell><cell>99.13</cell></row></table></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_6"><head>Table 5 :</head><label>5</label><figDesc>Comparaison entre NN et la base de règles 4. Comparaisons avec d'autres travaux Dans cette section, nous avons comparé notre approche avec d'autres travaux soit qu'ils utilisent l'approche globale (Bio-Re, GEX, CGA) ou locale (Partial-Re, Full-RE, NeuroRule, C4.5rules). Les résultats de classification des règles obtenues, le nombre de règles trouvé ainsi que le nombre maximale de prémisses par règle sont illustrés dans la table 6. les résultats montrent que les règles extraites par Mc-RULEGEN sont plus performantes et plus compréhensibles par rapport à celles extraites par les autres techniques. MC-RULEGEN est capable d'extraire un ensemble de règles d'une meilleur performance.</figDesc><table><row><cell></cell><cell>Précision</cell><cell>Nombre de règles</cell><cell>Nombre maximale de prémisses par règle</cell></row><row><cell>MC-RULEGEN</cell><cell>100</cell><cell>05</cell><cell>01</cell></row><row><cell>Bio-Re</cell><cell>96.63</cell><cell>10+default rule</cell><cell>04</cell></row><row><cell>Partial-Re</cell><cell>96.49</cell><cell>09</cell><cell>3</cell></row><row><cell>Full-RE</cell><cell>96.19</cell><cell>05</cell><cell>2</cell></row><row><cell>NeuroRule</cell><cell>97.21</cell><cell>3+ default rule</cell><cell>04</cell></row><row><cell>C4.5rules</cell><cell>97.21</cell><cell>7</cell><cell>04</cell></row><row><cell>GEX</cell><cell>97,81</cell><cell>19,64 ± 2,33</cell><cell>-</cell></row><row><cell>CGA</cell><cell>98,3±0,5</cell><cell>18±1,5</cell><cell>2,5±0,1</cell></row></table></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_7"><head>Table 6 :</head><label>6</label><figDesc>performances de l'ensembles de règles extraites par les différentes techniques (Dans CGA et GEX, valeur moyenne ± deviation standard est utilisé)</figDesc><table /></figure>
		</body>
		<back>
			<div type="references">

				<listBibl>

<biblStruct xml:id="b0">
	<analytic>
		<title level="a" type="main">Rule Extraction from a Constrained Error Back-Propagation MLP</title>
		<author>
			<persName><forename type="first">R</forename><surname>Andrews</surname></persName>
		</author>
		<author>
			<persName><forename type="first">S</forename><surname>Geva</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proceedings of the 6th Australian Conference on Neural Networks</title>
				<meeting>the 6th Australian Conference on Neural Networks<address><addrLine>Brisbane Queensland</addrLine></address></meeting>
		<imprint>
			<date type="published" when="1994">1994</date>
			<biblScope unit="page" from="9" to="12" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b1">
	<analytic>
		<title level="a" type="main">Extracting Refined Rules From Knowledge-Based Neural Networks</title>
		<author>
			<persName><forename type="first">Geoffrey</forename><forename type="middle">G</forename><surname>Towell</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Jude</forename><forename type="middle">W</forename><surname>Shavlik</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Machine Learning</title>
		<imprint>
			<biblScope unit="volume">13</biblScope>
			<biblScope unit="page" from="71" to="101" />
			<date type="published" when="1993">1993</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b2">
	<monogr>
		<title level="m" type="main">Symbolic Knowledge and Neural Networks: Insertion, Refinement and Extraction</title>
		<author>
			<persName><forename type="first">Geoffrey</forename><forename type="middle">G</forename><surname>Towell</surname></persName>
		</author>
		<imprint>
			<date type="published" when="1991">1991</date>
		</imprint>
		<respStmt>
			<orgName>Computer Sciences Departement, University of Wisconsin, Madison</orgName>
		</respStmt>
	</monogr>
	<note type="report_type">Ph.D. Thesis</note>
</biblStruct>

<biblStruct xml:id="b3">
	<analytic>
		<title level="a" type="main">Using Rule Extraction to Improve the Comprehensibility of Predictive Models</title>
		<author>
			<persName><forename type="first">J</forename><surname>Huysmans</surname></persName>
		</author>
		<author>
			<persName><forename type="first">B</forename><surname>Baesens</surname></persName>
		</author>
		<author>
			<persName><forename type="first">J</forename><surname>Vanthienen</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Research</title>
		<imprint>
			<biblScope unit="volume">0612</biblScope>
			<date type="published" when="2006">2006</date>
		</imprint>
		<respStmt>
			<orgName>K.U.Leuven KBI</orgName>
		</respStmt>
	</monogr>
</biblStruct>

<biblStruct xml:id="b4">
	<analytic>
		<title level="a" type="main">Knowledge-Based Connectionism for Revising Domain Theories</title>
		<author>
			<persName><forename type="first">Min</forename><surname>Li</surname></persName>
		</author>
		<author>
			<persName><surname>Fu</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">IEEE Transactions on Systems, Man and Cybernetics</title>
		<imprint>
			<biblScope unit="volume">23</biblScope>
			<biblScope unit="issue">1</biblScope>
			<date type="published" when="1993-02">Janvier/Février 1993</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b5">
	<analytic>
		<title level="a" type="main">Evolutionary approaches to rule extraction from neural networks</title>
		<author>
			<persName><surname>Markowska-Kaczmar</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">studies in computational intelligence</title>
		<imprint>
			<biblScope unit="volume">82</biblScope>
			<biblScope unit="page" from="117" to="209" />
			<date type="published" when="2008">2008</date>
		</imprint>
	</monogr>
	<note>SCI)</note>
</biblStruct>

<biblStruct xml:id="b6">
	<monogr>
		<author>
			<persName><forename type="first">U</forename><surname>Markowska-Kaczmar</surname></persName>
		</author>
		<author>
			<persName><forename type="first">K</forename><surname>Mularczyk</surname></persName>
		</author>
		<title level="m">Studies in computational intelligence</title>
				<meeting><address><addrLine>Berlin Heidelberg, Newyork</addrLine></address></meeting>
		<imprint>
			<publisher>Springer</publisher>
			<date type="published" when="2006">2006</date>
			<biblScope unit="volume">16</biblScope>
		</imprint>
	</monogr>
	<note>GA-based pareto optimization</note>
</biblStruct>

<biblStruct xml:id="b7">
	<analytic>
		<title level="a" type="main">Rule Extraction from Neural Network by Genetic Algorithm with Pareto Optimization</title>
		<author>
			<persName><forename type="first">Pawel</forename><surname>Markowska-Kaczmar</surname></persName>
		</author>
		<author>
			<persName><surname>Wnuk-Lipinski</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">ICAISC</title>
		<imprint>
			<biblScope unit="page" from="450" to="455" />
			<date type="published" when="2004">2004</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b8">
	<analytic>
		<title level="a" type="main">the Connectionist Scientist Game: Rule Extraction and Refinement in a Neural Network</title>
		<author>
			<persName><forename type="first">C</forename><surname>Mcmillan</surname></persName>
		</author>
		<author>
			<persName><forename type="first">M</forename><forename type="middle">C</forename><surname>Mozer</surname></persName>
		</author>
		<author>
			<persName><forename type="first">P</forename><surname>Smolensky</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proceedings of the Thirteenth Annual Conference of the Cognitive Science Society</title>
				<meeting>the Thirteenth Annual Conference of the Cognitive Science Society<address><addrLine>Hillsdale, NJ</addrLine></address></meeting>
		<imprint>
			<date type="published" when="1991">1991</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b9">
	<analytic>
		<title level="a" type="main">Extracting Comprehensible Rules from Neural Networks via Genetic Algorithms</title>
		<author>
			<persName><forename type="first">Raul</forename><forename type="middle">T</forename><surname>Santos</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Jlio</forename><forename type="middle">C</forename><surname>Nievola</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Alex</forename><forename type="middle">A</forename><surname>Freitas</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proc.2000 IEEE Symp. On Combination of Evolutionary Algorithm and Neural Network</title>
				<meeting>.2000 IEEE Symp. On Combination of Evolutionary Algorithm and Neural Network</meeting>
		<imprint>
			<date type="published" when="2000">2000</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b10">
	<analytic>
		<title level="a" type="main">A general framework for Parallel Distributed Processing</title>
		<author>
			<persName><forename type="first">D</forename><forename type="middle">E</forename><surname>Rumelhart</surname></persName>
		</author>
		<author>
			<persName><forename type="first">G</forename><forename type="middle">E</forename><surname>Hinton</surname></persName>
		</author>
		<author>
			<persName><forename type="first">J</forename><forename type="middle">L</forename><surname>Mcclelland</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Parallel Distributed Processing: Explorations in the Microstructure of Cognition</title>
				<editor>
			<persName><forename type="first">D</forename><forename type="middle">E</forename><surname>Rumelhart</surname></persName>
		</editor>
		<editor>
			<persName><forename type="first">J</forename><forename type="middle">L</forename><surname>Mcclelland</surname></persName>
		</editor>
		<meeting><address><addrLine>Cambridge, MA</addrLine></address></meeting>
		<imprint>
			<publisher>MIT Press</publisher>
			<date type="published" when="1986">1986</date>
			<biblScope unit="volume">1</biblScope>
			<biblScope unit="page" from="45" to="76" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b11">
	<analytic>
		<title level="a" type="main">Symbolic interpretation of artificial neural networks</title>
		<author>
			<persName><forename type="first">I</forename><surname>Taha</surname></persName>
		</author>
		<author>
			<persName><forename type="first">J</forename><surname>Ghosh</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">IEEE Transactions on Knowledge and Data Enginnring</title>
		<imprint>
			<biblScope unit="volume">11</biblScope>
			<biblScope unit="issue">3</biblScope>
			<biblScope unit="page" from="448" to="463" />
			<date type="published" when="1999">1999</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b12">
	<analytic>
		<title level="a" type="main">Extracting rules from artificial neural networks with distributed representations</title>
		<author>
			<persName><forename type="first">S</forename><forename type="middle">B</forename><surname>Thrun</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Advances in Neural Information Processing Systems (NIPS) 7</title>
				<editor>
			<persName><forename type="first">G</forename><surname>Tesauro</surname></persName>
		</editor>
		<editor>
			<persName><forename type="first">D</forename><surname>Touretzky</surname></persName>
		</editor>
		<editor>
			<persName><forename type="first">T</forename><surname>Leen</surname></persName>
		</editor>
		<meeting><address><addrLine>Cambridge,MA</addrLine></address></meeting>
		<imprint>
			<publisher>MIT Press</publisher>
			<date type="published" when="1995">1995. 1995</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b13">
	<monogr>
		<ptr target="www.iut-info.univ-lille1.fr/~iovleff/pub/Teaching/MathInfo1/Poly3.pdf" />
		<title level="m">Algèbre de Boole</title>
				<imprint/>
	</monogr>
</biblStruct>

				</listBibl>
			</div>
		</back>
	</text>
</TEI>
