<?xml version="1.0" encoding="UTF-8"?>
<TEI xml:space="preserve" xmlns="http://www.tei-c.org/ns/1.0" 
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
xsi:schemaLocation="http://www.tei-c.org/ns/1.0 https://raw.githubusercontent.com/kermitt2/grobid/master/grobid-home/schemas/xsd/Grobid.xsd"
 xmlns:xlink="http://www.w3.org/1999/xlink">
	<teiHeader xml:lang="fr">
		<fileDesc>
			<titleStmt>
				<title level="a" type="main">Système Neuro-Markovien pour la reconnaissance de l&apos;écriture manuscrite arabe à vocabulaire limité</title>
			</titleStmt>
			<publicationStmt>
				<publisher/>
				<availability status="unknown"><licence/></availability>
			</publicationStmt>
			<sourceDesc>
				<biblStruct>
					<analytic>
						<author>
							<persName><forename type="first">Brahim</forename><surname>Farou</surname></persName>
							<email>fbrahim24@yahoo.fr</email>
							<affiliation key="aff0">
								<orgName type="department">Département d&apos;informatique</orgName>
								<orgName type="institution">Université</orgName>
								<address>
									<addrLine>08 mai 45</addrLine>
									<postBox>B. P. 401</postBox>
									<settlement>Guelma, Algérie</settlement>
								</address>
							</affiliation>
						</author>
						<author>
							<persName><forename type="first">Samir</forename><surname>Hallaci</surname></persName>
							<email>s.hallaci@yahoo.fr</email>
							<affiliation key="aff0">
								<orgName type="department">Département d&apos;informatique</orgName>
								<orgName type="institution">Université</orgName>
								<address>
									<addrLine>08 mai 45</addrLine>
									<postBox>B. P. 401</postBox>
									<settlement>Guelma, Algérie</settlement>
								</address>
							</affiliation>
						</author>
						<author>
							<persName><forename type="first">Hamid</forename><surname>Seridi</surname></persName>
							<email>seridi@yahoo.fr</email>
							<affiliation key="aff0">
								<orgName type="department">Département d&apos;informatique</orgName>
								<orgName type="institution">Université</orgName>
								<address>
									<addrLine>08 mai 45</addrLine>
									<postBox>B. P. 401</postBox>
									<settlement>Guelma, Algérie</settlement>
								</address>
							</affiliation>
							<affiliation key="aff1">
								<orgName type="department">EA 3804</orgName>
								<orgName type="laboratory">CResTIC</orgName>
								<orgName type="institution">Université de Reims</orgName>
								<address>
									<postBox>B.P 1035</postBox>
									<postCode>51687</postCode>
									<settlement>Reims</settlement>
									<region>Cedex</region>
									<country key="FR">France</country>
								</address>
							</affiliation>
							<affiliation key="aff2">
								<orgName type="institution" key="instit1">LAIG</orgName>
								<orgName type="institution" key="instit2">Université</orgName>
								<address>
									<addrLine>08 mai 45 Guelma</addrLine>
									<postBox>B. P. 401</postBox>
									<postCode>24000</postCode>
									<settlement>Guelma, Algérie</settlement>
								</address>
							</affiliation>
						</author>
						<title level="a" type="main">Système Neuro-Markovien pour la reconnaissance de l&apos;écriture manuscrite arabe à vocabulaire limité</title>
					</analytic>
					<monogr>
						<imprint>
							<date/>
						</imprint>
					</monogr>
					<idno type="MD5">AF3C759CF1C6C49B7670358BA5025CA5</idno>
				</biblStruct>
			</sourceDesc>
		</fileDesc>
		<encodingDesc>
			<appInfo>
				<application version="0.7.2" ident="GROBID" when="2023-03-24T00:20+0000">
					<desc>GROBID - A machine learning software for extracting information from scholarly documents</desc>
					<ref target="https://github.com/kermitt2/grobid"/>
				</application>
			</appInfo>
		</encodingDesc>
		<profileDesc>
			<textClass>
				<keywords>
					<term>Reconnaissance de l&apos;écriture manuscrite</term>
					<term>Segmentation et Classification</term>
					<term>MMC</term>
					<term>RN</term>
					<term>Viterbi</term>
					<term>Baum welch</term>
				</keywords>
			</textClass>
			<abstract>
<div xmlns="http://www.tei-c.org/ns/1.0"><p>Nous proposons une manière de coopérer des MMC et des réseaux neuronaux dans une architecture probabiliste en tirant avantage des deux outils : la génération d'une liste des N meilleures hypothèses de mots ainsi que leurs segmentations en caractères par un classifieur MMC et les propriétés de modélisation des réseaux neuronaux appliquées aux caractères. Le classifieur RN utilise la segmentation du classifieur MMC afin de retourner à l'image du mot et d'extraire les caractéristiques convenables à la reconnaissance de caractères isolés. Le classifieur RN réévalue chacune des N meilleures hypothèses des mots et les scores générés sont combinés avec ceux du classifieur MMC. Finalement, la liste des N meilleures hypothèses est réordonnée selon les nouveaux scores faisant ainsi ressortir la meilleure hypothèse. Nous avons utilisé deux bases de données. La première contient 14400 échantillons écrits sur du papier par 100 scripteurs différents et 3 occurrences pour chaque mot. Les mots de cette base constituent un lexique de 48 mots des wilayas algériennes. La deuxième contient 2800 caractères segmentés manuellement à partir des mots de la première base. Avec un taux de réussite de 91,77 %, le système proposé a montré une bonne performance.</p></div>
			</abstract>
		</profileDesc>
	</teiHeader>
	<text xml:lang="fr">
		<body>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="1">Introduction</head><p>Dans les dix dernières années, des progrès considérables ont été réalisés dans le domaine de la reconnaissance de l'écriture manuscrite. Ce progrès est du d'une part aux nombreux travaux effectués dans ce domaine et d'autre part a la disponibilité de bases de données internationales standards relatives à l'écriture manuscrite qui permettait aux chercheurs de rapporter de façon crédible les performances de leurs approches dans ce domaine, avec la possibilité de les comparer avec d'autres approches vu qu'ils utilisent les mêmes bases.</p><p>La langue arabe n'a pas eu cette chance, contrairement au latin, elle reste encore au niveau de la recherche et de l'expérimentation <ref type="bibr" target="#b0">[1]</ref>, c'est-à-dire que le problème reste encore un pari ouvert pour les chercheurs. L'écriture arabe étant par nature cursive, elle pose de nombreux problèmes aux systèmes de reconnaissance automatique. Le problème le plus difficile lors de la conception d'un système de reconnaissance de l'écriture manuscrite est la segmentation des mots manuscrits en vue de leur reconnaissance, qui n'est pas toujours triviale et demande beaucoup de temps et de calcul. D'autre part, les informations locales sont un peu négligées dans les systèmes se basant sur une analyse globale ce qui peut diminuer considérablement leurs performances <ref type="bibr" target="#b1">[2]</ref>. Pour remédier à ces problèmes, des approches hybrides ont été proposées pour la reconnaissance des mots arabes manuscrits dans un vocabulaire limité. Un tel système nécessite la prise en compte d'un nombre très important de variabilités.</p><p>Notre travail consiste à la conception d'un système de reconnaissance d'écriture manuscrite arabe dans un vocabulaire limité, nous proposons une approche hybride basée sur les réseaux de neurones et les modèles de Markov cachés comme outil de classification. Le schéma suivant illustre l'architecture de notre système. </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="2">Prétraitement</head><p>Les prétraitements appliqués sur l'image du mot permettent, d'une part, d'éliminer ou de réduire le bruit dans l'image, et d'autre part, de simplifier les traitements ultérieurs. Dans notre système nous avons utilisé la binarisation, le lissage, la normalisation, le cadrage, la squelettisation, la correction de la déformation des caractères et l'estimation de la ligne de base. Le but de la binarisation est de faire surgir l'information utile par rapport à l'arrière-plan, malheureusement à cause de la mauvaise qualité de l'image reçue en entrée (Niveau du gris de l'arrière-plan très élevé) nous étions obligés de tester plusieurs seuils afin de trouver un compromis entre les différentes images utilisées.</p><p>L'opération de lissage est appliquée afin d'éliminer les bruits introduits dans l'image à cause des systèmes d'acquisition, les effets de temps ou tout simplement à cause de la qualité du papier et du stylo utilisé, en vue de la décrire par une séquence de vecteurs de caractéristiques plus au moins stables.</p><p>La normalisation est une tache nécessaire lorsque l'acquisition n'est pas réalisée avec un scanner relié au système (image existante). En effet si l'entrée du système est une image externe par rapport au système (Notre Système par exemple), il faux impérativement ramener les caractères a la même taille, car à cause de la variation des fontes ou des opérations d'agrandissement ou de réductions de la taille des images, les caractères peuvent subir une légère déformation dans la taille ce qui complique les tâches de segmentation et influence sur la stabilité des paramètres.</p><p>L'opération de cadrage consiste à chercher la première et la dernière ligne / colonne signifiante (pixel &lt;&gt; de l'arrière-plan), ensuite créer une nouvelle image cadrée à partir de l'image mère.</p><p>La squelettisation est l'une des techniques les plus utilisées dans la reconnaissance des formes. Elle permet de diminuer l'information utile en ne gardant que le squelette de la forme. Le principe est de ramener l'image du mot à une écriture linéaire d'une épaisseur égale à un pixel, en préservant la forme, la connexité et la topologie du tracé.</p><p>Nous désirons de cette étape la correction de la déformation des caractères. En effet après la squelettisation du corps des caractères, plusieurs déformations de type concave et convexe ont apparu au niveau des lignes continues (supposées sans concave ni convexe). La fig. <ref type="figure" target="#fig_1">2</ref> montre quelques déformations détectées après l'étape de squelettisation. .   • Nombre de points de branchement.</p><p>• Nombre de points de croisement.</p><p>• Le nombre de composantes connexes Le résultat de cette étape est un vecteur de caractéristiques comportant 26 caractéristiques statistiques et structurelles.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="5">Classifieur MMC</head><p>Un modèle de Markov caché discret est un automate probabiliste à nombre d'états finis constitué de N états. C'est un processus aléatoire qui se déplace d'état en état à chaque instant, et on note q t le numéro de l'état atteint par le processus à l'instant t.</p><p>L'état réel q t du processus n'est pas directement observable, il est caché, mais peut être observé par un autre processus aléatoire qui émet après chaque changement d'état un symbole o t . Dans le cas d'un processus markovien d'ordre 1, la probabilité de passer de l'état i à l'état j à l'instant t et d'émettre o t ne dépend ni du temps, ni des états aux instants précédents <ref type="bibr" target="#b2">[3]</ref>.</p><p>La modélisation du classifieur nécessite la définition des observations émises par les états du modèle et l'architecture des modèles de mots <ref type="bibr" target="#b3">[4]</ref>.</p><p>Pour définir l'architecture du modèle, nous devons tenir compte de la topologie et le nombre d'états du modèle <ref type="bibr" target="#b4">[5]</ref>. La topologie adoptée dans notre système est de type droite-gauche conformément à l'écriture arabe avec saut inter-états et intra-état. Ce type de modèles a l'avantage de conserver la notion du temps dans la modélisation, s'approchant ainsi de la nature de l'écriture. En outre, c'est le type le moins gourmand en temps de calcul et en nombre de paramètres à estimer lors de l'apprentissage. Dans notre modélisation chaque état correspond à un caractère c.-à-d. le nombre d'états est différent d'un modèle a un autre, ce qui nécessite la création de 48 modèles représentant les 48 wilayas algériennes.</p><p>Nous avons considéré les caractéristiques statistiques et structurelles extraites à partir de l'image de mot comme des observations pour notre modèle. La quantification vectorielle garantit la transformation du vecteur de caractéristiques en une séquence discrète d'observation.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Quantification vectorielle</head><p>Les HMMs utilisés pour la modélisation des mots sont de nature discrète, leurs densités de probabilités d'observations sont discrètes, ce qui nécessite l'utilisation d'un quantifieur vectoriel pour faire correspondre chaque vecteur continu à un indice discret d'un dictionnaire de référence (CodeBook). Une fois le dictionnaire de référence obtenu, cette correspondance entre les vecteurs caractéristiques des trames et les indices du dictionnaire deviennent un simple calcul de type plus proche voisin.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Apprentissage et reconnaissance</head><p>L'apprentissage des paramètres des modèles HMMs (A, B, Π) correspondant aux classes de mots est réalisé par l'algorithme de Baum-Welch <ref type="bibr" target="#b4">[5]</ref> en appliquant les formules de Russel <ref type="bibr" target="#b6">[7]</ref> et <ref type="bibr">Levinson [8]</ref> pour estimer les paramètres des différentes distributions de probabilité d'état. Cet algorithme permet d'aligner les observations sur les états, et d'une façon générale, converge vers un minimum local du fait de manque de données <ref type="bibr" target="#b8">[9]</ref>. La reconnaissance est effectuée par la recherche du modèle discriminant, elle peut se faire simplement par le calcul des probabilités d'émission de la f o rme pa r le s mo dè le s que l'o n s uppo s e a prio ri é quip ro b ab le s . L a fo rme à reconnaître est affectée à la classe dont le modèle fournit la probabilité la plus importante.</p><formula xml:id="formula_0">λ * = argmax ∈ P( O λ )<label>(1)</label></formula><p>Où A désigne l'ensemble des modèles . L'évaluation de la probabilité de chaque modèle est réalisée grâce à une méthode à base de programmation dynamique qui est l'algorithme de Viterbi <ref type="bibr" target="#b9">[10]</ref>. </p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="6">Classifieur RN</head><p>La sortie du système (complet) est une liste des N meilleures hypothèses. Le choix du mot candidat est effectué par rapport à la probabilité la plus élevée.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="8">Tests et résultats</head><p>Pour construire notre système et évaluer ses performances, nous avons utilisé deux bases de données. La première contient 14400 échantillons écrits sur du papier par 100 scripteurs différents et 3 occurrences pour chaque mot. Les mots de cette base constituent un lexique de 48 mots des wilayas algériennes. Les échantillons de la base de données utilisée ont été collectés au sein du laboratoire de recherche en informatique d'Annaba. La deuxième contient 2800 caractères segmentés manuellement à partir des mots de la première base. Le choix des mots à segmenter est pris au hasard parmi les 14400 mots contenus dans la première base. Nous avons pris de chaque caractère 100 exemplaires qui n'appartiennent pas forcement au même scripteur. Nous avons construit la deuxième base pour éviter l'apprentissage collectif.</p><p>La base des caractères a permis simplement de réaliser l'apprentissage du Perceptron multicouche, tandis que la base des mots a servi pour l'apprentissage des modèles de Markov cachés et pour le test des performances du système. Nous avons divisé la base de mots en deux sous-bases, la première contient 75 % (10800 échantillons) des mots pour l'opération d'apprentissage et la deuxième contient 25 % (3600 échantillons) des mots pour les tests <ref type="bibr" target="#b15">[16]</ref>.</p><p>Nous allons dans ce qui suit montrer seulement les résultats finaux de la reconnaissance des mots manuscrits arabes de notre système c.-à-d. avec toutes les corrections effectuées au niveau des modules du système (version finale du système). La meilleure configuration de notre système a donné les résultats illustrés dans le Tableau 1.</p><p>Tableau 1 Résultats de la reconnaissance.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head>Wilayas</head><p>Taux de reconnaissance (en %) ) le taux de reconnaissance était nettement faible par rapport aux autres mots. En effet, nous avons effectué une recherche minutieuse au niveau de chaque étape du processus de reconnaissance et nous avons remarqué que les images de ces mots ont perdu de l'information au niveau de la binarisation. Donc c'est la qualité médiocre des images qui a perturbé le processus de reconnaissance.</p><p>Concernant le taux d'échec dans chaque classe, il est justifié par les erreurs commises au niveau des autres modules de notre système.</p><p>Malheureusement à cause de l'architecture de notre système nous n'avons pas pu tester chaque sous-système à part pour montrer l'influence de chaque sous-système sur l'autre. Pour cela nous avons essayé de comparer notre système avec celui de Benzenache dans <ref type="bibr" target="#b16">[17]</ref> basé sur les MMC et celui de Zaghdoudi dans <ref type="bibr" target="#b17">[18]</ref> basé sur le PMC. Nous estimons que la comparaison été crédible vu que nous avons utilisé la même base de mots.</p><p>Tableau 2 Comparaison des résultats de notre système avec celui de Benzenache <ref type="bibr" target="#b16">[17]</ref> et Zaghdoudi <ref type="bibr" target="#b17">[18]</ref> Notre Le tableau 2 montre que notre système a donné de meilleurs résultats par rapport aux deux systèmes de référence. Donc, l'apport de l'hybridation est très clair pour la phase de reconnaissance.</p></div>
<div xmlns="http://www.tei-c.org/ns/1.0"><head n="9">Conclusion</head><p>Nous avons présenté dans ce chapitre notre modélisation pour un système de reconnaissance de l'écriture manuscrite arabe à vocabulaire limité. Notre approche est basée sur l'hybridation des deux classifieurs les plus utilisés dans le domaine de la reconnaissance des formes et en particulier la reconnaissance de l'écriture et de la parole.</p><p>Malgré un taux de réussite de 91,77 % que nous estimons encourageant, notre système est loin d'atteindre la perfection. Les erreurs de classification sont dues d'une part à l'utilisation des MMCs discrets. En effet l'utilisation de la quantification vectorielle permet de représenter chaque classe par un vecteur unique (centroïde) ce qui influence sur la qualité de l'information véhiculée dans chaque vecteur. D'autre part, la qualité des images de la base est très médiocre ; la numérisation des images est une étape extrêmement importante dont il faut prendre le soin de le faire.</p></div><figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_0"><head>Fig. 1 .</head><label>1</label><figDesc>Fig.1. Architecture du système</figDesc></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_1"><head>Fig. 2 .</head><label>2</label><figDesc>Fig.2. Déformation des mots après la squelettisation (Création de concave et convexe non désirée) Pour remédier à ce problème, nous avons proposé un algorithme qui permet de redresser les lignes. Cet algorithme se base sur le principe de continuité c.-à-d. si deux segments horizontaux ou verticaux qui se trouvent sur la même ligne respectivement</figDesc><graphic coords="3,253.44,530.88,86.40,69.84" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" xml:id="fig_2"><head>Fig. 3 . 3 Segmentation</head><label>33</label><figDesc>Fig.3. Résultats de l'opération de correction de la déformation sur des mots manuscrits arabe</figDesc><graphic coords="4,126.96,502.80,104.16,51.60" type="bitmap" /></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_1"><head>4 Extraction des caractéristiques</head><label></label><figDesc>'identification directe du mot à partir de son image (matrice de pixels) est presque impossible à cause de la grande variabilité inhérente au style d'écriture utilisé et au bruit entachant l'image. D'où la nécessité d'extraire, à partir de la représentation en pixels du mot, un ensemble de caractéristiques permettant d'identifier facilement ce dernier. Ces primitives doivent être discriminatives et invariantes vis-à-vis les différentes transformations que peut subir l'image telle que la rotation, variation de la taille… etc.Nous avons utilisé dans notre système un mélange entre les caractéristiques statistiques et structurelles qui peut d'après la littérature donner de meilleurs résultats. Le choix des caractéristiques n'est pas une tâche simple, malheureusement il n'y a pas de théorie qui permet de choisir telle ou telle caractéristique. Après plusieurs tests, nous avons choisi les caractéristiques suivantes :</figDesc><table /><note>L• Les sept moments invariants. • Le nombre de boucles. • Le nombre et le type de chaque concave (vers la Gauche, vers la Droite, vers le Haut et vers le Bas). • Les hampes et les Jambes. • Le nombre, le type et la position des points diacritiques (Hamza, Madda et chapeau inclus). • Nombre de points extrêmes.</note></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_2"><head></head><label></label><figDesc>Le classifieur que nous avons utilisé est un PMC à rétro-propagation du gradient d'erreur à une couche cachée<ref type="bibr" target="#b10">[11]</ref>-<ref type="bibr" target="#b11">[12]</ref>. Les 26 caractéristiques statistiques et structurelles extraites à partir des segments de caractère isolés générés par le module de segmentation sont les entrées du réseau. La couche cachée est composée de 25 neurones. Les classes à discriminer sont les 28 caractères de l'alphabet arabe, d'où le choix de 28 neurones pour la couche de sortie. La fonction d'activation des neurones est la fonction sigmoïde unipolaire. Ce choix de classifieur est basé sur les critères suivant : sa rapidité, sa capacité à traiter des données hétérogènes et le plus important, s'il est bien entraîné, un PMC estime des probabilités bayésiennes a posteriori[14]  [15]. Ce dernier point est très important dans notre modélisation vu que nous avons utilisé les modèles de Markov cachés et que ce dernier génère aussi des probabilités a posteriori. Donc la mise en oeuvre de la combinaison des résultats va être simplifiée.Nous voulons de cette étape la correction des inconvenances générées par les modèles de Markov cachés. En effet, malgré le progrès réalisé au niveau de la reconnaissance de la parole et de l'écriture manuscrite par les MMCs, nous leur reprochons de négliger un peu les informations locales. De plus, la condition d'indépendance imposée par le modèle de Markov (chaque observation doit être indépendante des observations voisines) rend les MMC incapable de tirer avantage de la corrélation qui existe réellement parmi les observations d'un même caractère, mais le faible pouvoir discriminatif reste l'inconvénient majeur des MMCs.Pour effectuer la combinaison des résultats, nous avons calculé un nouveau score des mots à partir des probabilités a posteriori de chaque classifieur. En effet étant donné que les deux classificateurs estiment des probabilités a posteriori en sortie, nous pouvons calculer un score composé P * par combinaison des sorties des classificateurs.</figDesc><table><row><cell>7 Combinaison des résultats</cell><cell></cell></row><row><cell>P  *  = log(P</cell><cell>) + log(P )</cell></row></table></figure>
<figure xmlns="http://www.tei-c.org/ns/1.0" type="table" xml:id="tab_3"><head></head><label></label><figDesc>les résultats du Tableau 1 nous remarquons que le meilleur taux de reconnaissance est de 94,62 % et le mauvais taux de reconnaissance et de 88,06 % avec un taux de réussite globale de 91.77 % et un taux de rejet de 08,23 %. Nous voulons de cette présentation montrer que malgré la simplicité du script de quelques</figDesc><table><row><cell>‫اﻟﺒﯿﺾ‬</cell><cell></cell><cell>94,62</cell><cell>05,38</cell></row><row><cell>‫اﻟﯿﺰي‬</cell><cell></cell><cell>93,34</cell><cell>06,66</cell></row><row><cell cols="2">‫ﺑﻮﻋﺮﯾﺮﯾﺞ‬ ‫ﺑﺮج‬</cell><cell>90,64</cell><cell>09,36</cell></row><row><cell>‫اﻟﻄﺎرف‬</cell><cell></cell><cell>93,61</cell><cell>06,39</cell></row><row><cell cols="2">‫س‬ ‫ﺑﻮﻣﺮدا‬</cell><cell>93,62</cell><cell>06,38</cell></row><row><cell>‫وف‬ ‫ﺗﻨﺪ‬</cell><cell></cell><cell>90,37</cell><cell>09,63</cell></row><row><cell>‫ﺗﺴﻤﺴﯿﻠﺖ‬</cell><cell></cell><cell>91,03</cell><cell>08,97</cell></row><row><cell>‫اﻟﻮادي‬</cell><cell></cell><cell>88,29</cell><cell>11,71</cell></row><row><cell>‫ﺧﻨﺸﻠﺔ‬</cell><cell></cell><cell>91,08</cell><cell>08,92</cell></row><row><cell cols="2">‫أھﺮاس‬ ‫ﺳﻮق‬</cell><cell>92,74</cell><cell>07,26</cell></row><row><cell>‫ﺗﯿﺒﺎزة‬</cell><cell></cell><cell>92,66</cell><cell>07,34</cell></row><row><cell>‫ﻣﯿﻠﺔ‬</cell><cell></cell><cell>89,12</cell><cell>10,88</cell></row><row><cell cols="2">‫اﻟﺪﻓﻠﺔ‬ ‫ﻋﯿﻦ‬ ‫اﻟﻨﻌﺎﻣﺔ‬ ‫درار‬ ‫أ‬ ‫ﻏﻠﯿﺰان‬ ‫اﻟﺸﻠﻒ‬ ‫ﻏﺮداﯾﺔ‬ ‫ط‬ ‫اﻷﻏﻮا‬ ‫ﺗﯿﻤﻮﺷﻨﺖ‬ ‫ﻋﯿﻦ‬ ‫اﻟﺒﻮاﻗﻰ‬ ‫أم‬ Taux Moyen en %</cell><cell>94,23 92,10 94,54 94,32 88,37 92,13 89,71 92,50 88,06 91,77</cell><cell>05,77 Taux de rejet 07,90 (en %) 05,68 05,46 07,87 11,63 07,50 10,29 11,94 08,23</cell></row><row><cell>‫ﺑﺎﺗﻨﺔ‬ ‫ﺑﺠﺎﯾﺔ‬ ‫ﺑﺴﻜﺮة‬ ‫ﺑﺸﺎر‬ ‫اﻟﺒﻠﯿﺪة‬ ‫اﻟﺒﻮﯾﺮة‬ ‫ﺑﺸﺎر‬ , ‫ﻗﺎﻟﻤﺔ‬ D'après mots ( , ‫ﻣﯿﻠﺔ‬</cell><cell>‫اﻟﺸﻠﻒ‬ ,</cell><cell>92,32 91,71 90,24 88,43 94,32 91,18</cell><cell>07,68 08,29 09,76 11,57 05,68 08,82</cell></row><row><cell>‫ﺗﺒﺴﺔ‬</cell><cell></cell><cell>93,42</cell><cell>06,58</cell></row><row><cell>‫ﺗﻤﻨﺮاﺳﺖ‬</cell><cell></cell><cell>88,37</cell><cell>11,63</cell></row><row><cell>‫ﺗﻠﻤﺴﺎن‬</cell><cell></cell><cell>90,44</cell><cell>09,56</cell></row><row><cell>‫ﺗﯿﺎرت‬</cell><cell></cell><cell>93,75</cell><cell>06,25</cell></row><row><cell cols="2">‫وزو‬ ‫ﺗﯿﺰي‬</cell><cell>94,25</cell><cell>05,75</cell></row><row><cell>‫اﻟﺠﺰاﺋﺮ‬</cell><cell></cell><cell>93,51</cell><cell>06,49</cell></row><row><cell>‫اﻟﺠﻠﻔﺔ‬</cell><cell></cell><cell>89,18</cell><cell>10,82</cell></row><row><cell>‫ﺟﯿﺠﻞ‬</cell><cell></cell><cell>92,46</cell><cell>07,54</cell></row><row><cell>‫ﺳﻄﯿﻒ‬</cell><cell></cell><cell>93,72</cell><cell>06,28</cell></row><row><cell>‫ﺳﻌﯿﺪة‬</cell><cell></cell><cell>94,38</cell><cell>05,62</cell></row><row><cell>‫ﺳﻜﯿﻜﺪة‬</cell><cell></cell><cell>92,31</cell><cell>07,69</cell></row><row><cell cols="2">‫ﺑﻠﻌﺒﺎس‬ ‫ﺳﯿﺪي‬</cell><cell>90,54</cell><cell>09,46</cell></row><row><cell>‫ﻋﻨﺎﺑﺔ‬</cell><cell></cell><cell>94,10</cell><cell>05,90</cell></row><row><cell>‫ﻗﺎﻟﻤﺔ‬</cell><cell></cell><cell>88,81</cell><cell>11,19</cell></row><row><cell>‫ﻗﺴﻨﻄﯿﻨﺔ‬</cell><cell></cell><cell>90,87</cell><cell>09,13</cell></row><row><cell>‫اﻟﻤﺪﯾﺔ‬</cell><cell></cell><cell>93,84</cell><cell>06,16</cell></row><row><cell>‫ﻣﺴﺘﻐﺎﻧﻢ‬</cell><cell></cell><cell>93,03</cell><cell>06,97</cell></row><row><cell>‫ﻣﺴﯿﻠﺔ‬</cell><cell></cell><cell>92,17</cell><cell>07,83</cell></row><row><cell>‫ﻣﻌﺴﻜﺮ‬</cell><cell></cell><cell>89,36</cell><cell>10,64</cell></row><row><cell>‫ورﻗﻠﺔ‬</cell><cell></cell><cell>89,58</cell><cell>10,42</cell></row><row><cell>‫وھﺮان‬</cell><cell></cell><cell>91,86</cell><cell>08,14</cell></row></table></figure>
		</body>
		<back>
			<div type="references">

				<listBibl>

<biblStruct xml:id="b0">
	<analytic>
		<title level="a" type="main">Problématique et orientations en reconnaissance de l&apos;écriture arabe</title>
		<author>
			<persName><forename type="first">Essoukhri</forename><surname>Ben</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Amara</forename></persName>
		</author>
		<author>
			<persName><forename type="first">N</forename></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Colloque International Francophone sur l&apos;Ecrit et le Document</title>
				<meeting><address><addrLine>Hammamet, Tunisie</addrLine></address></meeting>
		<imprint>
			<date type="published" when="2002-10">2002. Octobre 2002</date>
			<biblScope unit="page" from="1" to="10" />
		</imprint>
	</monogr>
	<note>CIFED&apos;</note>
</biblStruct>

<biblStruct xml:id="b1">
	<analytic>
		<title level="a" type="main">Utilisation des modèles markoviens en reconnaissance de l&apos;écriture arabe: Etat de l&apos;art</title>
		<author>
			<persName><forename type="first">Essoukhri</forename><surname>Ben</surname></persName>
		</author>
		<author>
			<persName><forename type="first">Amara</forename></persName>
		</author>
		<author>
			<persName><forename type="first">N</forename><surname>Belaïd</surname></persName>
		</author>
		<author>
			<persName><forename type="first">A</forename><surname>Ellouze</surname></persName>
		</author>
		<author>
			<persName><forename type="first">N</forename></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Colloque International Francophone sur l&apos;Ecrit et le Document</title>
				<meeting><address><addrLine>Lyon, France</addrLine></address></meeting>
		<imprint>
			<date type="published" when="2000">2000. 2000</date>
			<biblScope unit="page" from="181" to="191" />
		</imprint>
	</monogr>
	<note>CIFED&apos;</note>
</biblStruct>

<biblStruct xml:id="b2">
	<analytic>
		<title level="a" type="main">Continuous speech recognition by connectionist statistical methods</title>
		<author>
			<persName><forename type="first">H</forename><surname>Bourlard</surname></persName>
		</author>
		<author>
			<persName><forename type="first">N</forename><surname>Morgan</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">IEEE Trans. on Neural Networks</title>
		<imprint>
			<date type="published" when="1993">1993</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b3">
	<monogr>
		<title level="m" type="main">Reconnaissance hors-ligne des mots arabes manuscrits par les modèles de Markov cachés</title>
		<author>
			<persName><forename type="first">A</forename><surname>Benzenache</surname></persName>
		</author>
		<imprint>
			<date type="published" when="2007">08 mai 45. 2007</date>
			<pubPlace>Guelma, Algérie</pubPlace>
		</imprint>
		<respStmt>
			<orgName>Département Génie Electrique ; Université</orgName>
		</respStmt>
	</monogr>
	<note type="report_type">Mémoire de magister</note>
</biblStruct>

<biblStruct xml:id="b4">
	<analytic>
		<title level="a" type="main">A tutorial on hidden Markov models and selected applications in speech recognition</title>
		<author>
			<persName><forename type="first">L</forename><forename type="middle">R</forename><surname>Rabiner</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proc. IEEE</title>
				<meeting>IEEE</meeting>
		<imprint>
			<date type="published" when="1989-08">August 1989</date>
			<biblScope unit="volume">77</biblScope>
			<biblScope unit="page" from="336" to="349" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b5">
	<analytic>
		<title level="a" type="main">HMM Based Approach for Handwritten Arabic Word Recognition Using the IFN/ENIT-Database</title>
		<author>
			<persName><forename type="first">M</forename><surname>Pechwitz</surname></persName>
		</author>
		<author>
			<persName><forename type="first">V</forename><surname>Maergner</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">ICDAR (Proceedings of the Seventh International Conference on Document Analysis and Recognition)</title>
				<imprint>
			<date type="published" when="2003">2003</date>
			<biblScope unit="page" from="890" to="894" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b6">
	<analytic>
		<title level="a" type="main">Explict Modeling of State Occupancy in Hidden Markov Models for Speech Recognition</title>
		<author>
			<persName><forename type="first">M</forename><forename type="middle">J</forename><surname>Russel</surname></persName>
		</author>
		<author>
			<persName><forename type="first">R</forename><forename type="middle">K</forename><surname>Moore</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proceeding of ICASSP (International Conference on Acoustic, Speech and Signal Processing)</title>
				<meeting>eeding of ICASSP (International Conference on Acoustic, Speech and Signal essing)</meeting>
		<imprint>
			<date type="published" when="1985">1985</date>
			<biblScope unit="page" from="5" to="8" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b7">
	<analytic>
		<title level="a" type="main">Continuously Variable Duration Hidden Markov Models for Automatic Speech Recognition</title>
		<author>
			<persName><forename type="first">S</forename><forename type="middle">E</forename><surname>Levinson</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Computer, Speech &amp; Language</title>
		<imprint>
			<biblScope unit="volume">1</biblScope>
			<biblScope unit="issue">1</biblScope>
			<biblScope unit="page" from="29" to="45" />
			<date type="published" when="1986">1986</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b8">
	<monogr>
		<author>
			<persName><forename type="first">G</forename><surname>Saon</surname></persName>
		</author>
		<title level="m">Modèles Markoviens uni-bidimensionnels pour la reconnaissance de l&apos;écriture manuscrite hors-ligne</title>
				<imprint>
			<date type="published" when="1998">1998</date>
			<biblScope unit="volume">1</biblScope>
		</imprint>
		<respStmt>
			<orgName>Université Henri Poincaré Nancy</orgName>
		</respStmt>
	</monogr>
	<note type="report_type">Thèse de doctorat</note>
</biblStruct>

<biblStruct xml:id="b9">
	<analytic>
		<title level="a" type="main">The Viterbi Algorithm</title>
		<author>
			<persName><forename type="first">G</forename><forename type="middle">D</forename><surname>Forney</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">Proc IEEE</title>
				<meeting>IEEE</meeting>
		<imprint>
			<date type="published" when="1973-03">March 1973</date>
			<biblScope unit="volume">61</biblScope>
			<biblScope unit="page" from="268" to="278" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b10">
	<monogr>
		<title level="m" type="main">Large vocabulary off-line handwritten word rocognition</title>
		<author>
			<persName><forename type="first">A</forename><surname>Koerich</surname></persName>
		</author>
		<imprint>
			<date type="published" when="2002">2002</date>
		</imprint>
		<respStmt>
			<orgName>Ecole de Technologie Supérieur</orgName>
		</respStmt>
	</monogr>
	<note type="report_type">Thèse de Docteur</note>
</biblStruct>

<biblStruct xml:id="b11">
	<analytic>
		<title level="a" type="main">Un système neuro-flou pour la reconnaissance de montants numériques de cheques arabes</title>
		<author>
			<persName><forename type="first">M</forename><surname>Cheriet</surname></persName>
		</author>
		<author>
			<persName><forename type="first">C</forename><forename type="middle">Y</forename><surname>Suen</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Pattern Recognition letters</title>
		<imprint>
			<biblScope unit="volume">14</biblScope>
			<biblScope unit="page" from="1009" to="1017" />
			<date type="published" when="1993">1993</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b12">
	<monogr>
		<title level="m" type="main">Des réseaux de neurones</title>
		<author>
			<persName><forename type="first">E</forename><surname>Davalo</surname></persName>
		</author>
		<author>
			<persName><forename type="first">P</forename><surname>Naim</surname></persName>
		</author>
		<imprint>
			<date type="published" when="1993">1993</date>
			<publisher>Eyrolles</publisher>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b13">
	<analytic>
		<title level="a" type="main">Neural Network Classifiers Estimate Bayesian a Posteriori Probabilities</title>
		<author>
			<persName><forename type="first">M</forename><forename type="middle">D</forename><surname>Richard</surname></persName>
		</author>
		<author>
			<persName><forename type="first">R</forename><forename type="middle">P</forename><surname>Lippmann</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Neural Computation</title>
		<imprint>
			<biblScope unit="volume">3</biblScope>
			<biblScope unit="page" from="461" to="483" />
			<date type="published" when="1991">1991</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b14">
	<analytic>
		<title level="a" type="main">Arabic Word Recognition by Classifiers and Context, JCST</title>
		<author>
			<persName><forename type="first">N</forename><surname>Farah</surname></persName>
		</author>
		<author>
			<persName><forename type="first">L</forename><surname>Souici</surname></persName>
		</author>
		<author>
			<persName><forename type="first">M</forename><surname>Sellami</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="j">Journal of Computer Science and Technology</title>
		<imprint>
			<biblScope unit="volume">20</biblScope>
			<biblScope unit="issue">3</biblScope>
			<biblScope unit="page" from="402" to="410" />
			<date type="published" when="2005-05">May 2005</date>
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b15">
	<analytic>
		<title level="a" type="main">H M M B a s c W o r d Recognition Using the IFN/ENIT-Database</title>
		<author>
			<persName><forename type="first">M</forename><surname>P E C H W I T Z</surname></persName>
		</author>
		<author>
			<persName><forename type="first">V</forename><surname>M A E R G N E R</surname></persName>
		</author>
	</analytic>
	<monogr>
		<title level="m">ICDAR (Proceedings of the Seventh International Conference on Document Analysis and Recognition)</title>
				<imprint>
			<date type="published" when="2003">2003</date>
			<biblScope unit="page" from="890" to="894" />
		</imprint>
	</monogr>
</biblStruct>

<biblStruct xml:id="b16">
	<monogr>
		<title level="m" type="main">Reconnaissance hors-ligne des mots arabes manuscrits par les modèles de Markov cachés</title>
		<author>
			<persName><forename type="first">A</forename><surname>Benzenache</surname></persName>
		</author>
		<imprint>
			<date type="published" when="2007">08 mai 45. 2007</date>
			<pubPlace>Guelma, Algérie</pubPlace>
		</imprint>
		<respStmt>
			<orgName>Département Génie Electrique ; Université</orgName>
		</respStmt>
	</monogr>
	<note type="report_type">Mémoire de magister</note>
</biblStruct>

<biblStruct xml:id="b17">
	<monogr>
		<author>
			<persName><forename type="first">R</forename><surname>Zaghdoudi</surname></persName>
		</author>
		<title level="m">Reconnaissance hors-ligne des mots arabes manuscrits par les réseaux de neurones</title>
				<meeting><address><addrLine>Guelma, Algérie</addrLine></address></meeting>
		<imprint>
			<date type="published" when="2008">08 mai 45. 2008</date>
		</imprint>
		<respStmt>
			<orgName>Département Génie Electrique ; Université</orgName>
		</respStmt>
	</monogr>
	<note type="report_type">Mémoire de magister</note>
</biblStruct>

				</listBibl>
			</div>
		</back>
	</text>
</TEI>
