<?xml version="1.0" encoding="UTF-8"?>
<TEI xml:space="preserve" xmlns="http://www.tei-c.org/ns/1.0" 
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
xsi:schemaLocation="http://www.tei-c.org/ns/1.0 https://raw.githubusercontent.com/kermitt2/grobid/master/grobid-home/schemas/xsd/Grobid.xsd"
 xmlns:xlink="http://www.w3.org/1999/xlink">
	<teiHeader xml:lang="fr">
		<fileDesc>
			<titleStmt>
				<title level="a" type="main">Architecture des bases d&apos;images généralistes organisées en clusters</title>
			</titleStmt>
			<publicationStmt>
				<publisher/>
				<availability status="unknown"><licence/></availability>
			</publicationStmt>
			<sourceDesc>
				<biblStruct>
					<analytic>
						<author>
							<persName><forename type="first">Z</forename><surname>Guellil</surname></persName>
							<affiliation key="aff0">
								<orgName type="department">des sciences et de la technologie d&apos;Oran MB</orgName>
								<orgName type="institution" key="instit1">Université</orgName>
								<orgName type="institution" key="instit2">Université Mohamed</orgName>
							</affiliation>
						</author>
						<author>
							<persName><forename type="first">L</forename><surname>Zaoui</surname></persName>
							<affiliation key="aff0">
								<orgName type="department">des sciences et de la technologie d&apos;Oran MB</orgName>
								<orgName type="institution" key="instit1">Université</orgName>
								<orgName type="institution" key="instit2">Université Mohamed</orgName>
							</affiliation>
						</author>
						<title level="a" type="main">Architecture des bases d&apos;images généralistes organisées en clusters</title>
					</analytic>
					<monogr>
						<imprint>
							<date/>
						</imprint>
					</monogr>
					<idno type="MD5">6A6AC51D817E691F0C7352B3EDC6D3A7</idno>
				</biblStruct>
			</sourceDesc>
		</fileDesc>
		<encodingDesc>
			<appInfo>
				<application version="0.7.2" ident="GROBID" when="2023-03-24T00:18+0000">
					<desc>GROBID - A machine learning software for extracting information from scholarly documents</desc>
					<ref target="https://github.com/kermitt2/grobid"/>
				</application>
			</appInfo>
		</encodingDesc>
		<profileDesc>
			<textClass>
				<keywords>
					<term>Bases d&apos;images</term>
					<term>indexation</term>
					<term>Recherché d&apos;image</term>
					<term>Classification</term>
					<term>clusters</term>
					<term>images similaires</term>
				</keywords>
			</textClass>
			<abstract>
<div xmlns="http://www.tei-c.org/ns/1.0"><p>Résumer. Les développements actuels, en matière de technologie liée à l'information numérique, ont permis l'acquisition et le stockage d'une quantité importante d'information, ce qui a engendré la nécessité d'élaborer des systèmes permettant la gestion de ces données (plus particulièrement les bases de données images). La recherche d'images par le contenu tente de répondre à ces besoins en se basant sur des caractéristiques de bas niveaux comme la couleur, la texture et la forme. C'est un domaine très actif dont les premières recherches s'étaient focalisées sur le stockage et l'étude des descripteurs pertinents pour la recherche. L'architecture retenue dans ces systèmes repose sur le stockage des images dans un seul emplacement et la recherche, se fait en balayant cet ensemble mais face à de grand volume de données cette architecture est devenue désuète. Actuellement, l'idée est d'utiliser une architecture à plusieurs clusters où chaque cluster contient un ensemble d'images similaires afin d'améliorer les performances en termes de qualité des résultats et du temps de réponse. Nous présentons dans cet article les défis à relever dans le développement d'un tel système d'indexation et de recherche d'images et les résultats de nos efforts de recherche.</p></div>
			</abstract>
		</profileDesc>
	</teiHeader>
	<text xml:lang="fr">
		<body>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="1">Introduction</head><p>La gestion des bases de données images nécessite des systèmes spécifiques, les premiers systèmes étaient basés sur la recherche par mot-clés, ces systèmes ont montré quelques limites à cause de la subjectivité des mots-clés attribués. Ces limites ont conduit à la naissance des systèmes d'indexation et de recherche d'images par le contenu physique de l'image (CBIR, en anglais Content-Based Image Retrieval).</p><p>Le contenu d'une image possède des caractéristiques permettant de la résumer par des métriques mathématiques appelés descripteurs, ces descripteurs sont fondés sur des caractéristiques visuelles comme la couleur <ref type="bibr" target="#b5">[6]</ref> [10], la texture <ref type="bibr" target="#b3">[4]</ref>  <ref type="bibr" target="#b7">[8]</ref> et la forme <ref type="bibr" target="#b11">[12]</ref>.</p><p>Ces caractéristiques, dites de bas niveau, peuvent être calculées globalement sur l'image (descripteur global), comme ils peuvent être calculés au niveau local. Dans plusieurs travaux <ref type="bibr" target="#b0">[1]</ref> [5] <ref type="bibr" target="#b5">[6]</ref>, l'arbre quaternaire a été employé pour le calcul des descripteurs local d'une image, il permet de décrire l'image à plusieurs niveaux, en la décomposant récursivement en quatre quadrants, plus l'arbre est profond plus la description est locale. La mesure de similarité entre deux images correspond à la distance entre leurs arbres quaternaires, on distingue trois distances principales T, Q, V <ref type="bibr" target="#b8">[9]</ref>.</p><p>Bien que cette technique de recherche (CBIR), soit puissante, elle aussi souffre d'un certain nombre de limites comme le fossé sémantique et le temps requis pour la recherche. La première limite est dû au fait que la recherche vise les images similaires à une image donnée <ref type="bibr" target="#b10">[11]</ref>, alors que le deuxième problème est la conséquence du volume élevé des données à explorer pour trouver des résultats.</p><p>Dans ce travail, nous proposons une architecture d'une base d'image en clusters, qui va permettre de réduire le volume des données à explorer en n'effectuant la recherche que dans le cluster jugé pertinent, les images du même cluster doivent être le plus similaires possible pour assurer la qualité des résultats.  La conception de notre système assure les fonctionnalités requises pour ces deux étapes à l'aide de quatre modules : module de représentation des images, module de classification, le module de stockage et le module de recherche.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Figure. 2.</head><p>Architecture en module du CBIR.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.1">Module de représentation des images</head><p>Ce module est chargé de représenter les images dans un format unique et approprié, il permet aussi certaines opérations de base. Notre système exploite des descripteurs locaux, d'où la nécessité d'une représentation en arbre quaternaire. Cette représentation rend le système indépendant du type (matriciel ou vectoriel) et du format d'image (BMP ou JPEG... etc.), de plus, cela permet la compression d'une image représentant une zone homogène par noeud du quadtree au lieu d'un grand nombre de pixels. L'avantage de cette technique est qu'elle est indépendante de la méthode de regroupement et de la distance choisie. Le choix des valeurs trop éloignées permet de maximiser l'inertie inter classe, la minimisation de l'inertie intra classe est assurée par l'algorithme de regroupement.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.2">Module de Classification</head></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Choix du nombre de groupes</head><p>Le choix du nombre de groupes est un facteur important qui influence sur les résultats en classification automatique, pour un nombre de groupes élevés<ref type="foot" target="#foot_0">1</ref> cela conduit à une partition non signifiante en divisant des groupes homogènes en plusieurs, au contraire un nombre plus faible conduit à une partition de groupe non homogène, ceci est dû au principe de création d'une partition, un élément doit appartenir à un seul et unique groupe, même si tous les groupes lui sont différents, il doit appartenir à l'un d'entre eux.</p><p>Rappelons que notre objectif vise à regrouper les images similaires dans un même cluster pour réduire l'espace de recherche et assurer une bonne qualité des résultats d'une recherche dans un cluster. Nous proposons de fixer une distance maximale entre une image et le représentant de son groupe, une image n'est affectée à un groupe que si la distance qui les sépare est inférieur à ce seuil, parmi les images non classées, nous choisissons celle qui possède la distance la plus élevée vers un groupe, cette image sera la représentante du groupe construit.</p><p>Remarquons que ce principe va augmenter le nombre de classes à chaque fois que cela sera nécessaire, en plus il peut être appliqué après l'organisation de la base d'images lors d'une mise à jour, si une image n'appartient à aucun des groupes existants, un nouveau groupe est créé. Enfin, il est recommandé d'amorcer le classifieur avec un nombre de groupes minimal.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>k-means</head><p>Le k-means <ref type="bibr" target="#b1">[2]</ref> exploite la représentation de classe en centroïde (moyenne des descripteurs de l'ensemble), l'application de cet algorithme au partitionnement d'un ensemble d'images représentées par des arbres quaternaires nécessite la définition du vecteur de descripteur et le représentant de classe.</p><p>Le vecteur de descripteur est construit à partir des arbres quaternaires, c'est un vecteur où chaque élément contient les descripteurs d'une feuille de sorte à avoir dans la même position dans le vecteur les feuilles homologue (du même identifiant). La  • En complétant à la structure maximale (le plus grand arbre représentant une image de la base), ce qui va produire des vecteurs de descripteur de très grande taille. • En fixant une profondeur maximale, les arbres n'ayant pas atteint cette profondeur seront complétés, ceux qui ont dépassé seront réduits, par conséquent, la taille de descripteur sera raisonnable avec une perte d'information.</p><p>D'après la nature de représentation des images (arbre quaternaire), la distance visuelle (V) est la mieux adaptée à ce type de situation, de plus, cette structure ne pose pas de problèmes lors du calcul de la distance v, puisque la structure est connue (arbre et descripteur), et donc les pondérations de chaque niveau sont connu.</p><p>Le représentant de classe est un vecteur de descripteur d'une image virtuelle, il sert à regrouper les images les plus similaires dans le même cluster, sa valeur est la moyenne des descripteurs appartenant au groupe lui-même. </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.3">Module de Stockage</head><p>Ce module utilise les deux modules décrit précédemment, pour accomplir sa tache, il est capable de gérer une base d'images organisée en plusieurs clusters en utilisant des méta-informations de l'ensemble de données.</p><p>Les méta-informations contiennent deux types d'informations, le premier concerne l'organisation de la base, il donne des informations sur le nombre des clusters utilisés et l'emplacement de chaque cluster, le deuxième type décrit les groupes, il diffère selon le type de la méthode de clustering utilisée.</p><p>Dans le cas du k-means nous avons besoin de connaître les représentants des clusters, ils sont stockés sous forme d'arbre quaternaire afin de pouvoir calculer la distance visuelle entre l'image<ref type="foot" target="#foot_1">2</ref> à classer et les différents représentants des groupes.</p><p>Le cas d'une méthode indépendante du type et de la structure de données tel que le PAM, les informations sont relativement plus simples, pour déterminer le groupe d'appartenance d'une image, il suffit de connaître l'identifiant de l'image medoïde de chaque groupe, et le type de distance utilisé pour le regroupement de la base (distance V, Q ou autre).</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2.4">Module de recherche</head><p>Le module de recherche fournit une interface qui permet aux utilisateurs de spécifier leurs requêtes, et restitue les résultats correspondants aux critères de la requête (images similaires). Dans notre prototype, on a opté pour les requêtes par l'exemple <ref type="bibr" target="#b6">[7]</ref>, nous proposant deux types de recherches, la première baptisée « N plus proches images » dont le résultat est un ensemble de N images similaires à la requête, le deuxième permet de restituer les images qui sont dissimilaire à x % de l'image requête. L'exécution d'une requête suit le processus suivant : Tout d'abord le module de présentation transforme l'image en arbre quaternaire il la transmet ensuite au module de classification pour la classer et déterminer le meilleur groupe qui fournit un bon résultat, enfin le module de recherche procède à un balayage de l'ensemble des descripteurs des images du cluster ciblé.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3">Évaluation et Expérimental</head><p>Notre expérimentation porte sur trois points principaux, évaluation de la structure de données utilisées par le module de classification où nous effectuons une comparaison entre l'usage d'un ensemble de vecteurs de descripteur et une ensemble de distances entre les objets à classer. Le deuxième point, évalue la qualité de la classification pour les deux algorithmes et l'apport de notre stratégie d'initialisation proposée. Enfin, le dernier point abordera le temps de réponse du système dans le cas d'une BDI organisée en mono ou multi clusters.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3.1">Évaluation du mode de représentation</head><p>Les images représenté par les arbres quaternaire peuvent se présenté a un classifieur sous deux formes : ensemble de vecteurs de descripteur, ceci nécessite que les arbres quaternaires de l'ensemble aient la même structure pour qu'on puisse les transformer en vecteurs de même dimension, ou un ensemble de distance, dans ce cas, on à besoin de calculer toutes les distances entre chaque pair d'image. Cette partie discute l'utilisation des deux modes (centroide pour représentation en vecteur ou medoide pour l'ensemble des distances).  Ce qui fait la différence entre les deux modes de représentation est la structure requise pour effectuer cette opération. Lorsqu'on travaille avec des centres, on est obligé de transformer l'arbre quaternaire en vecteur de même dimension que celui qui représente les centres des groupes, ce qui nécessite de garder la structure de l'arbre obtenu dans la phase hors ligne. Par contre l'utilisation des medoïdes, seul l'identifient de l'image medoïde (représentant du groupe) est requis.</p><p>La structure de données légères et la flexibilité de classer une nouvelle image sont deux arguments qui nous motivent et qui nous boutent à utiliser des algorithmes basés sur les mesures de similarité pour ce type données (image représentée en arbre quaternaire).</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3.2">Évaluation des classifications</head><p>Dans cette partie, nous validons l'apport de notre stratégie d'initialisation par l'application du k-means et PAM sur l'ensemble d'images. Rappelons qu'on ne peut utiliser que la distance visuelle V dans le cas des centres nous avons choisi appliqué le PAM en utilisant la distance visuelle afin de tester les deux algorithmes dans le même contexte.   Bien que les deux algorithmes ont procédé à l'optimisation de la même partition leurs résultats sont différents, cette différence est expliquée par le fait que la nature des deux algorithmes tel que le PAM qui regroupe au sein du mêmes ensembles les images dont la distance entre eux est minimale, alors que le k-means utilise des centres, qui représentent la moyenne de chaque groupe, ces centres changent de position (valeur) au cours de la classification et de fausse moyenne conduit à de faux résultats.  Le temps de recherche sur la même base d'images organisé en mono cluster est :</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="3.3">Temps de recherche</head><p>• Requête 1 : 57650,85 ms.</p><p>• Requête 2 : 51002.24 ms.</p><p>• Requête 3 : 49215,29 ms.</p><p>Dans un cluster le temps de recherche diminue lorsque le nombre de ces derniers augmente. Il est évident que lorsque le nombre de clusters augmente leurs cardinalités réduit, en conséquence l'espace de recherche est limité sur un sous ensemble ce qui explique la réduction du temps de recherche. Au contraire, lorsque le nombre de clusters augmente, l'image requête est comparée avec un nombre plus élevé de représentants des clusters est provoquera donc l'augmentation du temps requis pour l'affectation d'une image.</p><p>On augmentant le nombre de clusters, le temps de classification augmente et celui de la recherche diminue et influence le temps global de recherche, on observe sur le graphe de la Figure <ref type="figure" target="#fig_13">12</ref> que le temps global de recherche est décroissant sur la première partie du graphe et croissant dans la deuxième partie, ainsi que le taux de décroissance est supérieur à celui de croissance à cause des fortes changement des nombres d'images des clusters pour un nombre faible de clusters. Du point de vu temps de recherche, le nombre de clusters optimale est celui qui réduit au minimum le temps de recherche, malheureusement, il ne l'est pas forcément pour la classification de l'ensemble de la base d'image et peut produire une mauvaise classification entraînant une pauvre pertinence des résultats lors de la recherche.</p><p>Le temps global de recherche est moins prioritaire que la qualité des résultats pour cette raison notre solution au problème du nombre de classes a été : de fixer une dissimilarité maximale intra groupe, tel que tout groupe ayant un élément qui dépasse cette valeur doit construire son propre groupe, cette astuce permettra non seulement de préserver la qualité des résultats mais aussi d'équilibrer les clusters.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="4">Conclusion</head><p>Nous avons présenté dans ce document une architecture d'un système d'indexation et de recherche d'images par le contenu basé sur une indexation en clusters, nous avons abordé certains problèmes et difficultés rencontrés lors de la mise en oeuvre de cette architecture qui sont relié au module de classification (le coeur du système).</p><p>Notre système utilise des descripteurs locale basée sur les arbres quaternaires, pour la classification de cette structure de données, nous avons divisé les algorithmes de clustering en deux types : Méthodes basées sur représentation en centre et méthodes basées sur les distances entre les objets à classer, à des fins d'optimisation, l'utilisation des algorithmes basés sur les distances entre les objets est recommandé.</p><p>Le module de classification utilise deux mécanismes d'optimisation, le premier permet de déterminer le nombre optimal de clusters dans la phase indexation, et de contrôler les résultats d'une recherche dans la phase online, ceci en fixant la dissimilarité maximal entre une image est le représentant de son cluster. Le deuxième mécanisme est un algorithme d'initialisation qui permet d'améliorer les résultats du clustering, il est applicable avec tout algorithme de clustering nécessitant une initialisation (EM, PAM, …).</p></div><figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_0"><head>2</head><label></label><figDesc>Architecture d'un système d'indexation et de recherche d'imagesUn Système d'indexation et de recherche d'images permet aux utilisateurs de retrouver les images qui satisfont leurs besoins dans des bases de données d'images. Son fonctionnement est décomposé en deux étapes : l'étape d'indexation dit, hors ligne (offline) ou le système va extraire les caractéristiques des images de la base et les stocker dans une base de données. La deuxième étape consiste à extraire les descripteurs de l'image requête et la comparer avec les descripteurs existant dans la base de données afin de trouver les images similaires à celle désirée.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_1"><head>Figure. 1 .</head><label>1</label><figDesc>Figure. 1. Aperçu d'un système d'indexation et de recherche d'image.</figDesc><graphic coords="2,190.68,498.24,214.20,97.80" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_2"><head></head><label></label><figDesc>Figure suivante illustre ce principe.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_3"><head>Figure. 3 .</head><label>3</label><figDesc>Figure. 3. Principe de construction des descripteurs. Cependant, il est rare d'avoir la même structure d'arbre, cela nécessite de normaliser les arbres quaternaires pour avoir la même structure, cette procédure est réalisée soit :</figDesc><graphic coords="5,231.48,346.32,146.64,84.84" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_4"><head>Figure. 4 .</head><label>4</label><figDesc>Figure. 4. Les images sont affectées au centre le plus proche (la position moyenne des modèles).</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_5"><head>Figure. 5 .</head><label>5</label><figDesc>Figure. 5. Taille de la matrice de distance et un vecteur de descripteur en fonction du nombre d'images. Dans ce graphe nous remarquons que la taille d'un seul vecteur représentant un arbre quaternaire est plus grande que celle d'une matrice de similarité contenant toutes les mesures de similarité. Ajoutant à ce point, la complexité de la procédure d'affectation d'un nouvel élément, elle se fait suivant la même procédure dans les deux cas (présentation en centre ou medoïde) et ceci en suivant les mêmes étapes. Tout d'abord, les descripteurs</figDesc><graphic coords="7,202.56,494.16,204.36,73.20" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_6"><head>Figure. 6 .</head><label>6</label><figDesc>Figure. 6. Mécanisme d'affectation.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_7"><head>Figure. 7 .</head><label>7</label><figDesc>Figure. 7. Résultat de classification par la méthode PAM a gauche et k-means adroit (Distance V et initialisation aléatoire). Dans cette Figure, on remarque dans l'ensemble des médoïdes initiaux la présence de deux images similaires (16, 11), en conséquence la classification a été perturbée d'où la présence d'une image mal classée dans la classe 4 (image « 1 »). Dans le cas du k-means les choses sont encore pires. L'algorithme guidé par une partition initiale (initialisation aléatoire) doit donner en sortie une solution optimale, l'initialisation aléatoire ne couvre pas l'espace occupé par les données ce qui produit des résultats inacceptables comme dans le cas de la Figure précédente, on remarque que la classe 3 est vides alors que le contenu de la classe 1 et 4 n'est pas homogène.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_8"><head>Figure. 8 .</head><label>8</label><figDesc>Figure. 8. Les images choisies par l'algorithme d'initialisation. Nous avons utilisé l'algorithme proposé dans la section 2.2.1 pour sélectionner une partition initiale et d'améliorer les résultats du PAM et k-means, la Figure 8 présente les images qui représentent les groupes de la partition initiale. La Figure 9 affiche les résultats du PAM et k-means respectivement, on remarque que les résultats produits par les deux algorithmes sont bien améliorés grâce au bon choix de la partition initiale.</figDesc><graphic coords="9,203.28,438.84,203.04,104.88" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_9"><head>Figure. 9 .</head><label>9</label><figDesc>Figure. 9. Résultat de classification par le PAM et le k-means amélioré.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_10"><head></head><label></label><figDesc>Afin d'évaluer l'amélioration du temps de réponse apportée par l'architecture proposée nous avons mesuré le temps nécessaire pour exécuter une requête (temps global), temps d'affectation d'une image au groupe et le temps consommé pour la recherche dans ce groupe (dans le cas multi clusters), sur un ensemble de base d'image organisé en clusters et nous l'avons comparé avec celui consommé dans le cas d'une architecture mono cluster. La base d'image choisie contienne 147 images, pour chaque test, le nombre de clusters varie de 2 à 40, on exécute trois requêtes différentes, appartienne à différentes classes et donc les descripteurs des images requêtes et l'ensemble des images des clusters de différentes tailles (arbre quaternaire), on calcule pour l'ensemble la moyenne du temps consommer.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_11"><head>Figure. 10 .</head><label>10</label><figDesc>Figure.10. Les images requête. Nous avons remarqué que le temps de recherche et celui de la classification d'une image requête n'est pas le même pour chaque image requête, cette différence est expliquée par le fait que la taille des arbres quaternaires de chaque image en noeud et en feuille est différente, dans l'image 1 :38113 Noeuds dont 28 585 feuilles, Image2 : 6137 Noeuds dont 4603 feuilles, Image 3 :2061 Noeuds dont 1546 feuilles. Ce qui influence sur le temps de calcul des distances et donc le temps de recherche et de classification. Un autre facteur qui entre en jeu c'est le nombre d'images que contienne le cluster de recherche.Le temps de recherche sur la même base d'images organisé en mono cluster est :</figDesc><graphic coords="10,218.40,307.32,158.64,50.52" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_12"><head>Figure. 11 .</head><label>11</label><figDesc>Figure. 11. L'influence du nombre de clusters sur temps de recherche et le temps de d'affectation.</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_13"><head>Figure. 12 .</head><label>12</label><figDesc>Figure. 12. Le temps global de la recherche.</figDesc></figure>
			<note xmlns="http://www.tei-c.org/ns/1.0" place="foot" n="1" xml:id="foot_0">Un nombre de groupes plus grands que le nombre de regroupements existants dans les données.</note>
			<note xmlns="http://www.tei-c.org/ns/1.0" place="foot" n="2" xml:id="foot_1">Cette image peut-être soit une image requête ou bien une image à insérer lors d'une mise à jour.</note>
		</body>
		<back>
			<div type="references">

				<listBibl>

<biblStruct xml:id="b0">
	<analytic>
		<title level="a" type="main">Quantized CIELab* Space and Encoded Spatial Structure for Scalable Indexing of Large Color Image Archives</title>
		<author>
			<persName><forename type="first">E</forename><surname>Albuz</surname></persName>
		</author>
		<author>
			<persName><forename type="first">E</forename><surname>Kocalar</surname></persName>
		</author>
		<author>
			<persName><forename type="first">A</forename><surname>Khokhar</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">IEEE Conf. on Acoustics, Speech, and Signal Processing (ICASSP)</title>
				<imprint>
			<date type="published" when="2000-06">June 2000</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b1">
	<monogr>
		<title level="m" type="main">Clustering for Data Mining: A Data Recovery Approach</title>
		<author>
			<persName><forename type="first">Boris</forename><surname>Mirkin</surname></persName>
		</author>
		<imprint>
			<date type="published" when="2005">2005</date>
			<publisher>Chapman &amp; Hall/CRC</publisher>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b2">
	<analytic>
		<title level="a" type="main">Knowledge acquisition via incremental conceptual clustering</title>
		<author>
			<persName><forename type="first">H</forename><surname>Douglas</surname></persName>
		</author>
		<author>
			<persName><surname>Fisher</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Machine Learning</title>
				<imprint>
			<biblScope unit="volume">2</biblScope>
			<biblScope unit="page" from="139" to="172" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b3">
	<analytic>
		<title level="a" type="main">Statistical and structural approaches to texture</title>
		<author>
			<persName><forename type="first">R</forename><forename type="middle">M</forename><surname>Haralick</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proceedings of the IEEE</title>
				<meeting>the IEEE</meeting>
		<imprint>
			<date type="published" when="1979">1979</date>
			<biblScope unit="volume">67</biblScope>
			<biblScope unit="page" from="786" to="804" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b4">
	<analytic>
		<title level="a" type="main">An Extensible Hash for Multi-Precision Similarity Querying of Image Databases</title>
		<author>
			<persName><forename type="first">Lin</forename><forename type="middle">S</forename><surname>Tamer</surname></persName>
		</author>
		<author>
			<persName><forename type="first">M</forename><surname>Oria</surname></persName>
		</author>
		<author>
			<persName><forename type="first">V</forename><surname>Ng R</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proc of the 27th Int. Conf. on Very Large DataBase (VLDB&apos;2001)</title>
				<meeting>of the 27th Int. Conf. on Very Large DataBase (VLDB&apos;2001)<address><addrLine>Roma (Italy</addrLine></address></meeting>
		<imprint>
			<date type="published" when="2001">2001</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b5">
	<analytic>
		<title level="a" type="main">Efficient Image Retrieval by Color Contents</title>
		<author>
			<persName><forename type="first">H</forename><surname>Lu</surname></persName>
		</author>
		<author>
			<persName><surname>Ooi B.-C</surname></persName>
		</author>
		<author>
			<persName><surname>Tan K.-L</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Conf. on Applications of Database (ADB-94)</title>
				<meeting><address><addrLine>Vadstena (Sweden)</addrLine></address></meeting>
		<imprint>
			<date type="published" when="1994">juin 1994</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b6">
	<analytic>
		<title level="a" type="main">Query by image and video content: The QBIC system</title>
		<author>
			<persName><forename type="first">M</forename><surname>Flickner</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Intelligent Multimedia Information Retrieval</title>
				<editor>
			<persName><forename type="first">M</forename><forename type="middle">T</forename><surname>Maybury</surname></persName>
		</editor>
		<imprint>
			<date type="published" when="1997">1997</date>
			<biblScope unit="volume">1</biblScope>
			<biblScope unit="page" from="7" to="22" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b7">
	<monogr>
		<title level="m" type="main">Image processing : dealing with texture</title>
		<author>
			<persName><forename type="first">Maria</forename><surname>Petrou</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Pedro</forename><forename type="middle">Garcia</forename><surname>Sevilla</surname></persName>
		</author>
		<imprint>
			<date type="published" when="2006">2006</date>
			<publisher>John Wiley &amp; Sons</publisher>
			<pubPlace>Chichester</pubPlace>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b8">
	<analytic>
		<title level="a" type="main">Distances de similarité d&apos;images basées sur les arbres quaternaires</title>
		<author>
			<persName><forename type="first">Marta</forename><surname>Rukoz</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Maude</forename><surname>Manouvrier</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Geneviève</forename><surname>Jomier</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proceedings 18èmes Journées Bases de Données Avancées (BDA&apos;02)</title>
				<meeting>18èmes Journées Bases de Données Avancées (BDA&apos;02)</meeting>
		<imprint>
			<date type="published" when="2002">2002</date>
			<biblScope unit="page" from="307" to="326" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b9">
	<analytic>
		<title level="a" type="main">Color Indexing</title>
		<author>
			<persName><forename type="first">M</forename><forename type="middle">J</forename><surname>Swain</surname></persName>
		</author>
		<author>
			<persName><forename type="first">D</forename><forename type="middle">H</forename><surname>Ballard</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">International Journal of Computer Vision</title>
		<imprint>
			<biblScope unit="volume">7</biblScope>
			<biblScope unit="issue">1</biblScope>
			<biblScope unit="page" from="11" to="32" />
			<date type="published" when="1991">1991</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b10">
	<analytic>
		<title level="a" type="main">An Evaluation of Color-Spatial Retrieval Techniques for Large Image Databases</title>
		<author>
			<persName><forename type="first">Tan K.-L</forename><surname>Ooi</surname></persName>
		</author>
		<author>
			<persName><forename type="first">B</forename><forename type="middle">C</forename><surname>Yee C</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Multimedia Tools and Applications</title>
		<imprint>
			<biblScope unit="volume">14</biblScope>
			<biblScope unit="page" from="55" to="78" />
			<date type="published" when="2001">2001</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b11">
	<analytic>
		<title level="a" type="main">A Comparative Study of Curvature Scale Space and Fourier Descriptors</title>
		<author>
			<persName><forename type="first">G</forename><surname>Zhang</surname></persName>
		</author>
		<author>
			<persName><surname>Lu</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Journal of Visual Communication and Image Representation</title>
		<imprint>
			<biblScope unit="volume">14</biblScope>
			<biblScope unit="issue">1</biblScope>
			<biblScope unit="page" from="41" to="60" />
			<date type="published" when="2003">2003</date>
		</imprint>
	</monogr>
</biblStruct>

				</listBibl>
			</div>
		</back>
	</text>
</TEI>
