<?xml version="1.0" encoding="UTF-8"?>
<TEI xml:space="preserve" xmlns="http://www.tei-c.org/ns/1.0" 
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
xsi:schemaLocation="http://www.tei-c.org/ns/1.0 https://raw.githubusercontent.com/kermitt2/grobid/master/grobid-home/schemas/xsd/Grobid.xsd"
 xmlns:xlink="http://www.w3.org/1999/xlink">
	<teiHeader xml:lang="fr">
		<fileDesc>
			<titleStmt>
				<title level="a" type="main">La classification non supervisée (clustering) de documents textuels par les automates cellulaires</title>
			</titleStmt>
			<publicationStmt>
				<publisher/>
				<availability status="unknown"><licence/></availability>
			</publicationStmt>
			<sourceDesc>
				<biblStruct>
					<analytic>
						<author role="corresp">
							<persName><forename type="first">Hamou</forename><surname>Reda</surname></persName>
							<email>hamoureda@yahoo.fr</email>
							<affiliation key="aff1">
								<orgName type="department">Faculté des sciences et technologie</orgName>
								<orgName type="institution">Université Dr MOULAY Tahar de Saïda</orgName>
							</affiliation>
							<affiliation key="aff2">
								<orgName type="department">Département d&apos;Informatique</orgName>
							</affiliation>
						</author>
						<author>
							<persName><forename type="first">Ahmed</forename><surname>Lehireche</surname></persName>
						</author>
						<author>
							<affiliation key="aff0">
								<orgName type="laboratory">Laboratory Evolutionary Engineering and Distributed Information Systems</orgName>
								<orgName type="institution">University Djillali Liabes of Sidi Bel</orgName>
								<address>
									<settlement>Abbes</settlement>
								</address>
							</affiliation>
						</author>
						<author>
							<affiliation key="aff3">
								<orgName type="department">Faculté des science de l&apos;ingénieur</orgName>
								<orgName type="institution">Université Djillali Liabes de Sidi Bel Abbes</orgName>
							</affiliation>
						</author>
						<author>
							<affiliation key="aff4">
								<orgName type="department">Département d&apos;Informatique</orgName>
							</affiliation>
						</author>
						<title level="a" type="main">La classification non supervisée (clustering) de documents textuels par les automates cellulaires</title>
					</analytic>
					<monogr>
						<imprint>
							<date/>
						</imprint>
					</monogr>
					<idno type="MD5">5F85B775C23D920732DE4CFE59073A8B</idno>
				</biblStruct>
			</sourceDesc>
		</fileDesc>
		<encodingDesc>
			<appInfo>
				<application version="0.7.2" ident="GROBID" when="2023-03-24T00:19+0000">
					<desc>GROBID - A machine learning software for extracting information from scholarly documents</desc>
					<ref target="https://github.com/kermitt2/grobid"/>
				</application>
			</appInfo>
		</encodingDesc>
		<profileDesc>
			<textClass>
				<keywords>
					<term>Classification des données</term>
					<term>Automates cellulaires</term>
					<term>Méthodes biomimétiques</term>
					<term>Data mining</term>
					<term>Clustering et segmentation</term>
					<term>Classification non supervisée</term>
				</keywords>
			</textClass>
			<abstract>
<div xmlns="http://www.tei-c.org/ns/1.0"><p>Dans cet article nous présentons un automate cellulaire (Class_AC) pour résoudre un problème de text mining en l'occurrence la classification non supervisée (Clustering). Avant de procéder à l'expérimentation par l'automate cellulaire, nous avons vectorisés nos données en procédant à l'indexation des documents textuels provenant de la base de donnée REUTERS 21578 par l'approche Wordnet. L'automate que nous proposons dans cet article est une grille de cellules de structure plane avec un voisinage découlant de cette structure (planaire). Trois fonctions de transitions ont servi à faire varier l'automate ayant quatre états pour chaque cellule. Les résultats obtenus montrent que la machine virtuelle à calcul parallèle (Class_AC) regroupe efficacement des documents similaires à un seuil prés.</p></div>
			</abstract>
		</profileDesc>
	</teiHeader>
	<text xml:lang="fr">
		<body>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="1">-Introduction</head><p>Le biomimétisme dans un sens littéraire est l'imitation de la vie. La biologie a toujours été une source d'inspiration pour les chercheurs dans différents domaines. Ces derniers ont trouvé un modèle presque idéal dans l'observation des phénomènes naturels et leur adaptation en vue de résoudre des problèmes. Parmi ces modèles on trouve les algorithmes génétiques, les colonies de fourmis, les essaims particulaires, nuages des insectes volants [Mon 2003] et bien entendu les automates cellulaires qui sont l'objet de notre étude. Les premières approches citées sont des méthodes reconnues et largement étudiées par contre les automates cellulaires sont des méthodes très peu utilisées et notamment dans le domaine de la classification non supervisée et ça a été notre motivation quant à l'utilisation de cette méthode dans ce domaine. Cette méthode est connue de la communauté scientifique comme étant un outil d'implémentation de machine et autre (Un Automate Cellulaire (AC) est avant tout une machine formelle) par contre dans cet article la méthode des automates cellulaires est utilisée comme étant une méthode biomimétique. Depuis les années 50, le biomimétisme n'a cessé de progresser de façon constante et est un des principaux enjeux de la recherche actuelle.</p><p>Le biomimétisme est une pratique scientifique consistant à imiter, ou à s'inspirer de systèmes naturels, ou vivants. Parmi les exemples de ce domaine, on retrouve entre autres : formes de poissons pour l'aérodynamisme de voitures, ou autres véhicules, ou encore l'algorithme de colonies de fourmis pour la recherche du plus court chemin dans un graphe... Le Text mining, est l'ensemble des techniques et des méthodes destinées au traitement automatique des données textuelles en langage naturel, est une analyse multidimensionnelle des données textuelles qui vise à analyser et découvrir des connaissances et des relations à partir des documents disponibles. Dans le text mining les similarités sont utilisées pour produire des représentations synthétiques de vaste collection de documents. Le text mining comprend une succession d'étapes permettant de passer des documents au texte, du texte au nombre, du nombre à l'analyse, de l'analyse à la prise de décision. Nous commençons par un état de l'art, les techniques d'indexations des documents utilisées, une description générale de l'automate cellulaire pour le clustering, des résultats et nous donnerons une conclusion et les perspectives.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Etat de l'art</head><p>Pour mettre en oeuvre des méthodes de classification il faut faire un choix d'un mode de représentation des documents [Seb 2002], car il n'existe actuellement aucune méthode d'apprentissage capable de représenter directement des données non structurées (textes). Ensuite, il est nécessaire de choisir une mesure de similarité et enfin, de choisir un algorithme de classification non supervisée.</p><p>a. Représentation des documents textuels Un document (texte) di est représenté par un vecteur numérique de la façon suivante : di = (V 1i , V 2i , ..., V | T | i ) Où T est l'ensemble des termes (ou descripteurs) qui apparaissent au moins une fois dans le corpus. (|T| est la taille du vocabulaire), et V ki représente le poids (ou la fréquence). La représentation la plus simple des documents textuels est appelé «représentation sac de mots » [Aas 1999], elle consiste à transformer des textes en vecteurs où chaque élément représente un mot. Cette représentation de textes exclut toute forme d'analyse grammaticales et de toute notion de distance entre les mots. Une autre représentation, appelée "sac de phrases", assure une sélection de phrases (séquences de mots dans les textes, et non pas le lexème "phrases"), en favorisant ceux qui sont susceptibles de porter une signification. Logiquement, une telle représentation doit fournir de meilleurs résultats que ceux obtenus par la représentation "sac de mots". Une autre méthode pour la représentation des textes est celle basée sur les techniques de lemmatisation et consiste à chercher la racine lexicale d'un terme [Sah 1999], par exemple, la forme de l'infinitif singulier pour les verbes et les noms. Une autre méthode de représentation, qui a plusieurs avantages (principalement, cette méthode traite les documents textuels indépendamment de la langue utilisée), est basée sur les "n-grammes" (un "n-gramme" est une séquence de n caractères consécutifs).</p><p>Il existe différentes méthodes pour calculer le poids V ki sachant que, pour chaque terme, il est possible de calculer non seulement sa fréquence dans le corpus, mais aussi le nombre de documents contenant ce terme.  Ce sont là des articles les plus en vus pour l'inspiration de notre travail et surtout celui de la classification de données par automate cellulaire car d'autres travaux non cités dans cet article on fait objet de recherches bibliographiques mais cités en références.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Quelques travaux dans le domaine de la classification</head></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>2-Les techniques d'indexation utilisées</head><p>Nous avons utilisés dans notre expérimentation le corpus REUTERS 21578 qui représente une base de données de dépêches d'information en langue anglaise. Ainsi pour faire du clustering des documents textuels on doit faire un certain traitement pour vectoriser (numériser) nos textes (sans perdre la sémantique) et appliquer ensuite notre automate cellulaire. La première étape de l'indexation est le prétraitement qui consiste à éliminer tout symbole qui ne correspond pas à une lettre de l'alphabet <ref type="bibr">(points, virgules, traits d'union, chiffres etc.)</ref>. Cette opération est motivée par le fait que ces caractères ne sont pas liés au contenu des documents et ne change rien au sens s'ils sont omis et par conséquent ils peuvent être négligés. La deuxième étape est appelée stopping qui correspond à la suppression de tous les mots qui sont trop fréquents (ils n'aident donc pas à distinguer entre les documents) ou jouent un rôle purement fonctionnel dans la construction des phrases (articles, prépositions, etc.). Le résultat du stopping est que le nombre de mots dans la collection, ce qu'on appelle la masse des mots, est réduit en moyenne de 50%. Les mots à éliminer, connus comme stopwords, sont récoltés dans la stoplist qui contient en général entre 300 et 400 éléments puis vient l'étape du stemming qui consiste à remplacer chaque mot du document par sa racine comme par exemple : national, nationalité et nationalisation sont remplacés par leur racine « national » et les verbes conjugués par leur infinitifs. Le stemming n'a pas d'impact sur la masse des mots, mais réduit de 30% en moyenne la taille du document. Nous avons utilisés l'algorithme de PORTER pour remédier à cette étape. Ensuite nous avons la lemmatisation en utilisant l'approche Wordnet qui représente une base de donnée lexicale, un dictionnaire informatisé développée par des linguistes. Les mots dans WORDNET sont représentés par leur forme canonique ou encore appelé lemme. Cette étape est utilisée pour préparer la suivante qui est l'étape cruciale de l'indexation à savoir la vectorisation (numérisation). La lemmatisation consiste à remplacer chaque mot du document par son synset (synonyme dans la base lexicale). Nous avons utilisés WORDNET comme base de donnée lexicale (car REUTERS 21578 est un corpus de dépêches en anglais). La vectorisation est réalisé par la méthode TF-IDF (Term Frequency / Inverse Document Frequency) qui est dérivé d'un algorithme de recherche d'information. L'idée de base est de représenter les documents par des vecteurs et de mesurer la proximité entre documents par l'angle entre les vecteurs, cet angle étant donc supposé représenter une distance sémantique. Le principe est de coder chaque élément du sac de mot par un scalaire (nombre) appelé tfidf pour donner un aspect mathématique aux documents textes. où :</p><p>• tf(i,j) est le term Frequency : fréquence du terme ti dans le document dj • idf(i) est l'inverse document frequency : le logarithme du rapport entre le nombre N de documents dans le corpus et le nombre N i de documents qui contiennent le terme ti . Un document d i du corpus après vectorisation est : d i = (x 1 ,x 2 ,…….,x m ) où m est le nombre de mot du i éme sac de mot et x j est son tf-idf Ce schéma d'indexation donne plus de poids aux termes qui apparaissent avec une haute fréquence dans peu de documents. L'idée sous-jacente est que de tels mots aident à discriminer entre textes ayant différent sujet. Le tf-idf a deux limites fondamentales : La première est que les documents plus longs ont typiquement des poids plut forts parce qu'ils contiennent plus de mots, donc « les term frequencies » tendent à être plus élevées. La deuxième est que la dépendance de la « term ( , ) .</p><p>( ) ( , ). lo g  </p><formula xml:id="formula_0">i N tf id f t f i j id f i tf i j N   = =     frequency »</formula></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>3-4 Description de l'algorithme Class_AC</head><p>-Indexer les documents du corpus à classifier.</p><p>-Vectoriser chaque document texte du corpus par la méthode TF-IDF.</p><p>-Calculer la matrice de similarité à partir des vecteurs trouvés : sim(i,j)=D(d i ,d j ).</p><p>-Initialiser toutes les cellules de l'automate à l'état « Morte » (état=0).</p><p>-Répéter (à chaque instant t)</p><p>-Pour chaque cellule de l'automate faire Si cellule est morte Alors Si une cellule est isolée alors inchangé (Reste isolée) A chaque itération de l'algorithme, les cellules vont changés leurs état selon les de transition définies par l'automate cellulaire qui vont tendre à regrouper des états similaires pour les cellules actives (contenant l'index des documents).La classification est recouvrante (Les données peuvent apparaître plusieurs fois dans la grille).</p><formula xml:id="formula_1">2 ( , )<label>( ( ) ( )</label></formula><formula xml:id="formula_2">) k i j k i j k D T T x T x T = − ∑ ( , ) | ( ( ) ( ) ) | k i j k i j k D T T x T x T = − ∑ . ( , ) | | | | . | | | | i j i j i j T T C o s T T T T = Cellule devient</formula></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>4-Expérimentation</head><p>Après expérimentation de l'algorithme Class_AC, sur des documents issus du corpus Reuters 21578, nous avons obtenu les résultats suivants en nombre de classes et pureté des clusters. En ce qui concerne la pureté d'un cluster nous avons utilisés un seuil de similarité qui représente la distance entre deux documents. Si cette distance est inférieure ou égale au seuil alors les documents sont similaires. Pour la distance cosinus ce seuil est comparé à la valeur |1 -cos(V i ,V j )|. Puisqu'on a utilisé un seuil donc on n'aura pas besoin de calculer l'entropie qui mesure la pureté du cluster trouvé ni de la F-mesure pour évaluer les taux d'erreurs en classification.  nous ont aidés à numériser nos documents et ainsi pouvoir utiliser notre automate cellulaire sur des vecteurs numériques. Donc les passages des documents au texte, du texte au nombre, du nombre à l'analyse par les automates cellulaires et de l'analyse à la prise de décision sur la classification ainsi trouvée ont fait l'objet de cette étude dans cet article. Cet algorithme sera, dans le futur proche, comparé à un algorithme utilisant l'apprentissage par les cartes auto organisatrice de KOHONEN. L'algorithme peut contribuer ainsi à la problématique de la fouille de donnée textuelle et de la classification non supervisée.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Définition du seuil</head><p>Dans cet article, nous avons proposé un algorithme qui résout un problème de data mining en l'occurrence le text mining par une méthode biomimétique (Automates cellulaires). Cet algorithme sera dans le futur expérimenté pour d'autres types de données tels que les images et les données multimédias en général pour résoudre une autre problématique de fouille de données.</p></div><figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_0"><head></head><label></label><figDesc>Un survol des algorithmes biomimétiques pour la classification réalisé dans Laboratoire d'Informatique de l'Université de Tours, Ecole Polytechnique de l'Université de Tours [AZZ 2004]. Classification de données par automate cellulaire [AZZ 2005]. Fouille visuelle et classification de données par nuage d'insectes volants. [Mon 2003]. Compétition de colonies de fourmis pour l'apprentissage supervisée : CompetAnts. [VER 2005]. Classification non supervisée contextualisée [CAN 2004]. SOM pour la Classification Automatique Non supervisée de Documents Textuels basés sur Wordnet [Amine et al., 2008].</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_1"><head></head><label></label><figDesc>Fig 3.b : Voisinage</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_2"><head>M</head><label></label><figDesc>Fig 3-4-a : Schématisation de l'automate</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_1"><head>La fonction de transition de l'automate Class_AC</head><label></label><figDesc>est trop importante. Si un mot apparaît deux fois dans un document d j , cela ne veut pas nécessairement dire qu'il a deux fois plus d'importance que dans un document d k où il n'apparaît qu'une seule fois.</figDesc><table><row><cell>3-1 Le Voisinage</cell><cell></cell></row><row><cell cols="2">Le voisinage utilisé dans l'automate que nous proposons est un voisinage hybride</cell></row><row><cell cols="2">contenant le voisinage de Moore qui est le voisinage de rayon 1 contenant 8 cellules</cell></row><row><cell cols="2">autour de la cellule elle-même et deux voisinages de rayon de 1 découlant du fait que 3-L'automate cellulaire pour le clustering la grille est planaire. Puisque la grille est planaire le voisinage des quatre extrémités L'automate que nous proposons est un réseau de cellules dans un espace à 2D et contient seulement trois (3) cellules voisines et le voisinage d'une cellule (i,j) appartient à la famille (k,r) où k est le nombre d'états possibles d'une cellule c'est-à-appartenant au périmètre de la grille (Sans les extrémités) est l'ensemble de cinq (5) dire le cardinal de l'ensemble d'états et r est l'environnement de la cellule i-e r représente le rayon de voisinage. cellules avoisinant la cellule (i,j) de rayon 1. (Fig 3.b)</cell></row><row><cell cols="2">Cet automate possède 4 états possibles (k=4) et le rayon de voisinage est une seule</cell></row><row><cell cols="2">cellule (r=1) i-e le voisinage utilisé n'est rien d'autre que le voisinage de Moore (8</cell></row><row><cell cols="2">cellules voisines autour de la cellule elle-même) légèrement modifié.</cell></row><row><cell cols="2">Exemple : Si on veut classifier 50 documents du corpus REUTER 21578 on doit</cell></row><row><cell cols="2">avoir une grille de 8 x 8 pour représenter les 50 documents et une grille 16 x 16 pour</cell></row><row><cell cols="2">représenter les différentes classes des 50 documents espacées dans la grille (Fig 3.a). 1 2 3 4 5 32 41 6 7 8 1 7 9 3 14 25 3-2 Règle 1 :</cell></row><row><cell cols="2">9 10 11 12 13 14 15 16 …………………………………. Si la cellule C i,j est morte alors la cellule C i,j 13 22 6 2 Voisinage C i,j devient vivant donnée</cell></row><row><cell>…………………………………. Règle 2 :</cell><cell></cell></row><row><cell cols="2">49 50 41 42 43 44 45 46 47 48 Si cellule C i,j Vivante alors Vérifier voisinage Si voisinage contient au moins une cellule active 5 16 18 29 11 40 2 25 7 46 38 13 15 19 26 28 30 32 37 41 49 2 4 7 9 21 18 36 Alors 1 44 35 donnée similaire C i,j Voisinage C i,j devient vivant Sinon</cell></row><row><cell>8 x 8</cell><cell>16 x 16 Voisinage C i,j devient isolé</cell></row><row><cell cols="2">Fig 3.a : Exemple de grille pour 50 documents</cell></row></table><note>Donc une cellule de l'automate est morte, vivante, isolée ou contient une donnée d'où l'ensemble des états de l'automate est {Morte, Vivante, Isolée, Active}. Une cellule morte contiendra la valeur 0, une cellule vivante contiendra la valeur -1, une cellule isolée contiendra la valeur -2 et une cellule active contiendra une donnée (numéro ou index du document du corpus). Nous avons utilisés ces valeurs et surtout la valeur de la cellule vivante (-1) pour ne pas confondre entre une cellule vivante contenant la valeur 1 et une cellule contenant une donnée (numéro ou index du document) 1. Donc une cellule contiendra une valeur de l'ensemble {-2, -1, 0, 1, 2, ….., N} où N est le numéro du dernier document du corpus utilisé. Si N est le nombre de documents à classifier, la taille de la grille cellulaire 2D est m x m sachant que m = 2 x (Int (Racine(n))+1) avec Int représentant la partie entière d'un nombre réel, Racine représentant la racine carrée et 2 représente un coefficient empirique pour avoir de la place pour l'organisation spatiale des classe dans la grille.</note></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_3"><head></head><label></label><figDesc>CommentairesNous avons expérimenté notre automate cellulaire sur le corpus REUTERS 21578, nous avons procédé à l'extraction des 50 premiers textes que nous avons indexés. On a ensuite calculé leur matrice de similarité.En terme de résultats (Tab1 et Tab2), nous avons obtenus différentes classes par les trois distances utilisées en variant le seuil de similarité. Les classes trouvées correspondent à un regroupement de documents similaires guidé en quelque sorte par le seuil établi (Tableau : Tab1). En terme de pureté du cluster, la similarité intra classe n'est rien d'autre que le seuil car la distance entre deux documents d'une même classe doit être inférieure ou égale au seuil, et la distance entre deux documents de classe différente est supérieure strictement au seuil (la similarité extra classe). Donc on n'avait pas à résoudre un problème de recherche opérationnelle sous contrainte (minimiser la similarité intra classe et maximiser la similarité extra classe) mais simplement choisir un bon seuil pour avoir une bonne classification.En terme de temps, la convergence de l'algorithme est très rapide (moins de 1 seconde) et par conséquent ce qui a été dit dans la littérature sur les automates cellulaires est respecté dans notre étude. Nous avons remarqués que le temps d'exécution était en croissance avec le nombre de documents. A titre indicatif l'expérimentation a été réalisée su PC Pentium IV cadencé 1,6 Mhz avec 512 Mo de mémoire vive.En conclusion, nous avons proposé un premier algorithme de classification non supervisée (Clustering) en utilisant les automates cellulaires. Après expérimentation nous avons prouvé que cet algorithme peut résoudre un problème de text mining qu'est le clustering en regroupant efficacement des documents textuels issus du corpus REUTERS. La fonction de transition utilisée dans notre automate le fait évolué en formant des groupes (cluster) similaires à un certain seuil prés. Les méthodes d'indexation des documents textuels tel que TF-IDF et l'approche Wordnet</figDesc><table><row><cell></cell><cell></cell><cell cols="5">Tab 2 : Résultats de classification pour 50 documents</cell></row><row><cell></cell><cell></cell><cell></cell><cell cols="3">N = 50 Documents</cell></row><row><cell></cell><cell></cell><cell>Seuil 1</cell><cell></cell><cell></cell><cell></cell><cell>Seuil 2</cell></row><row><cell cols="2">Cosinus</cell><cell>Euclidienne</cell><cell>Manhattan</cell><cell></cell><cell>Cosinus</cell><cell>Euclidienne</cell><cell>Manhattan</cell></row><row><cell>Nombre</cell><cell></cell><cell></cell><cell></cell><cell>Nombre</cell><cell></cell></row><row><cell cols="7">Seuil 1 : Pour les distances euclidiennes et Manhattan et après normalisation de la Seuil 2 : Un seuil de 15% (seuil 2=0,15) pour les distances euclidiennes et Manhattan apprentis sage 0,04688 0,0625 0,0625 d'erreur de 10% (seuil 1=0,1) et pour la distance cosinus nous avons tolérés 20%. Temps S matrice de similarité (distance comprise dans [0,1]) nous avons tolérés un taux de Classes 40 39 de 5 Classes</cell></row><row><cell cols="5">par contre seuil 2=0,25 (25%) pour la distance cosinus.</cell><cell></cell></row><row><cell cols="7">Ces valeurs de seuil ont été choisies après expérimentation de la classification par</cell></row><row><cell cols="3">l'automate cellulaire.</cell><cell></cell><cell></cell><cell></cell></row><row><cell cols="6">Résultats de classification pour 20, 30 et 50 documents</cell></row><row><cell></cell><cell></cell><cell>Seuil 1</cell><cell></cell><cell></cell><cell></cell><cell>Seuil 2</cell></row><row><cell></cell><cell></cell><cell cols="5">Tab1 : Résultats de classification (Cosinus, Seuil 2)</cell></row><row><cell cols="4">Automate Cellulaire (Distance Cosinus-</cell><cell cols="3">Automate Cellulaire (Distance Cosinus-</cell></row><row><cell></cell><cell></cell><cell>Seuil 2)</cell><cell></cell><cell></cell><cell cols="2">Seuil 2)</cell></row><row><cell>Classe</cell><cell></cell><cell cols="2">Documents</cell><cell>Classe</cell><cell></cell><cell>Documents</cell></row><row><cell>0</cell><cell>1</cell><cell></cell><cell></cell><cell>13</cell><cell>36,40,42</cell></row><row><cell cols="4">1 2 5-Conclusion et perspectives 2,16,17,23,26,37 3,9,13,23,26,37</cell><cell>14 15</cell><cell>24,25,39 27</cell></row><row><cell>3</cell><cell cols="2">4,16,17</cell><cell></cell><cell>16</cell><cell>28</cell></row><row><cell>4</cell><cell cols="2">5,8,25,39</cell><cell></cell><cell>17</cell><cell>29</cell></row><row><cell>5</cell><cell cols="2">6,18,42</cell><cell></cell><cell>18</cell><cell>30,39</cell></row><row><cell>6</cell><cell cols="2">7,10,12,22</cell><cell></cell><cell>19</cell><cell>31</cell></row><row><cell>7</cell><cell>11</cell><cell></cell><cell></cell><cell>20</cell><cell>32,33,43</cell></row><row><cell>8</cell><cell>14</cell><cell></cell><cell></cell><cell>21</cell><cell>34</cell></row><row><cell>9</cell><cell>15</cell><cell></cell><cell></cell><cell>22</cell><cell>35,41,45</cell></row><row><cell>10</cell><cell>19</cell><cell></cell><cell></cell><cell>23</cell><cell>38</cell></row><row><cell>11</cell><cell cols="2">20,26,37</cell><cell></cell><cell>24</cell><cell>44</cell></row><row><cell>12</cell><cell>21</cell><cell></cell><cell></cell><cell></cell><cell></cell></row></table></figure>
		</body>
		<back>
			<div type="references">

				<listBibl>

<biblStruct xml:id="b0">
	<analytic>
		<title level="a" type="main">Efficient and effective clustering methods for spatial data mining</title>
		<author>
			<persName><forename type="first">Von</forename><surname>Neu</surname></persName>
		</author>
		<author>
			<persName><forename type="first">J</forename><surname>Neumann</surname></persName>
		</author>
		<author>
			<persName><forename type="first">E</forename><surname>Lumer</surname></persName>
		</author>
		<author>
			<persName><surname>Faieta B ; Damerau F</surname></persName>
		</author>
		<author>
			<persName><forename type="first">K</forename><surname>Weiss ; Burges ; Aas</surname></persName>
		</author>
		<author>
			<persName><forename type="first">L ;</forename><surname>Eikvil</surname></persName>
		</author>
		<author>
			<persName><forename type="first">M</forename><surname>Sahami</surname></persName>
		</author>
		<author>
			<persName><forename type="first">J</forename><surname>Hansohm</surname></persName>
		</author>
		<author>
			<persName><forename type="first">;</forename><surname>Sebastiani</surname></persName>
		</author>
		<author>
			<persName><forename type="first">B</forename><forename type="middle">K</forename><surname>Ganguly ; Sikdar</surname></persName>
		</author>
		<author>
			<persName><forename type="first">A</forename><surname>Deutsch</surname></persName>
		</author>
		<author>
			<persName><surname>Canright ; Laurent</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Isabelle</forename><surname>Candillier</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Fabien</forename><surname>Tellier</surname></persName>
		</author>
		<author>
			<persName><forename type="first">;</forename><surname>Torre</surname></persName>
		</author>
		<author>
			<persName><forename type="first">H</forename><surname>Azzag</surname></persName>
		</author>
		<author>
			<persName><forename type="first">F</forename><surname>Picarougne</surname></persName>
		</author>
		<author>
			<persName><forename type="first">C</forename><surname>Guinot</surname></persName>
		</author>
		<author>
			<persName><forename type="first">C</forename><surname>Venturini G ; . Picarougne</surname></persName>
		</author>
		<author>
			<persName><forename type="first">G</forename><surname>Guinot</surname></persName>
		</author>
		<author>
			<persName><surname>Venturini</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">SOM pour la Classification Automatique Non supervisée de Documents Textuels basés sur Wordnet. Extraction et gestion des connaissances (EGC&apos;2008</title>
		<title level="s">Revue des Nouvelles Technologies de l&apos;Information</title>
		<editor>
			<persName><forename type="first">A</forename><surname>Amine</surname></persName>
		</editor>
		<editor>
			<persName><forename type="first">Z</forename><surname>Elberrichi</surname></persName>
		</editor>
		<editor>
			<persName><forename type="first">M</forename><surname>Simonet</surname></persName>
		</editor>
		<editor>
			<persName><forename type="first">L</forename><surname>Bellatreche</surname></persName>
		</editor>
		<editor>
			<persName><forename type="first">M</forename><surname>Malki</surname></persName>
		</editor>
		<meeting><address><addrLine>Urbana Champaign, Illinois; Cambridge, MA; Santiago, Chile; BUR; AZZ</addrLine></address></meeting>
		<imprint>
			<publisher>Université François-Rabelais de Tours, Laboratoire d&apos;Informatique</publisher>
			<date type="published" when="1966">1966. 1994. 1994. 1998. 1998. 1999. 1999. 1999. 1999. 2000. 2002. December 2003. Mon 2003. 2004. Cépaduès. 2004. 2005. 2101. 2005. Septembre 2005. 2005. 2008. 2008</date>
			<biblScope unit="volume">12</biblScope>
			<biblScope unit="page" from="13" to="24" />
		</imprint>
		<respStmt>
			<orgName>University of Illinois Press ; Norwegian Computing Center ; Computer Science Department, Stanford University ; Technical Report Centre for High Performance Computing, Dresden University of Technology ; Laboratoire d&apos;Informatique de l&apos;Université de Tours ; École Polytechnique de l&apos;Université de Tours -Département Informatique ; Universit´e Paris VIII ; INRIA-Sophia Antipolis -France</orgName>
		</respStmt>
	</monogr>
	<note type="report_type">RNTI-E-11 Cépaduès-</note>
	<note>Classification, Automation, and New Media: Proceedings of the 24th Annual Conference of the Gesellschaft Fur Klassifikation E.V.</note>
</biblStruct>

				</listBibl>
			</div>
		</back>
	</text>
</TEI>
