<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Archiving and Interchange DTD v1.0 20120330//EN" "JATS-archivearticle1.dtd">
<article xmlns:xlink="http://www.w3.org/1999/xlink">
  <front>
    <journal-meta />
    <article-meta>
      <title-group>
        <article-title>Intégration des connaissances en neurosciences dans un environnement multi-centrique</article-title>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <string-name>Alban Gaignard</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>Johan Montagnat</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>s.unice.fr johan@i</string-name>
        </contrib>
        <contrib contrib-type="author">
          <string-name>s.unice.fr</string-name>
        </contrib>
      </contrib-group>
      <pub-date>
        <year>2010</year>
      </pub-date>
      <abstract>
        <p>Résumé : Dans le cadre d'études de cohortes de patients, les neurosciences computationnelles sont confrontées à la manipulation de volumes de données toujours plus importants et généralement distribués, ainsi qu'à la complexité de leurs traitements. De plus, il est en général difficile de remonter à la source des événements ayant conduit à l'échec d'une expérimentation. Les méthodes d'ingénierie des connaissances peuvent être appliquées dans le domaine des neurosciences pour enrichir la représentation des données et des chaînes de traitement par des connaissances spécifiques au domaine. Elles peuvent également être appliquées pour générer automatiquement l'information de provenance ainsi que de nouvelles connaissances, résultant de l'exploitation d'un environnement sémantique de flots de calculs. Ce papier décrit un cas d'utilisation de cet environnement ainsi que des moyens permettant l'acquisition, l'exploitation et l'extension de connaissances en neurosciences.</p>
      </abstract>
    </article-meta>
  </front>
  <body>
    <sec id="sec-1">
      <title>-</title>
      <p>Nous souhaitons nous appuyer sur les ontologies développées, et les travaux
existants autours des services web sémantiques, afin d’assister les neuroscientifiques dans
leur travail quotidien. L’information sémantique capturée par la plateforme peut ainsi
être utilisée (i) lors de la description de nouvelles expériences pour valider leur
cohérence (adéquation des données et des outils de traitement utilisés), et (ii) pour faciliter
la recherche de ressources neuro-informatiques selon des critères avancés. A ces fins, la
plateforme doit acquérir, pérenniser mais aussi étendre les connaissances liées à son
exploitation. Des connaissances sont ainsi générées au cours de la réalisation de nouvelles
expériences, par exemple en produisant de nouvelles informations à partir de règles
sémantiques spécifiques portant sur les traitements réalisés et identifiées par les experts
du domaine.</p>
      <p>Etat de l’art</p>
      <p>Le support des méthodologies et technologies liées à l’ingénierie des connaissances
est très prometteur pour la communauté des sciences biomédicales. En effet de
nombreux projets partagent des objectifs similaires en termes d’assistance lors
d’expérimentations in silico ou encore de provenance afin d’appréhender leur complexité.</p>
      <p>Basé sur l’ontologie myGrid [Wolstencroft et al.] de services et de données en
bioinformatique, FETA [Lord et al.] est un environnement léger de découverte de services
impliquant spécialistes de l’ingénierie des connaissances, développeurs de services et
utilisateurs scientifiques. Un annuaire de service UDDI est couplé à des descripteurs
XML pour mettre en correspondance la description des services et les éléments de
l’ontologie de domaine. Dû aux contraintes de légèreté de l’environnement, seules des
requêtes RDF prédéfinies sont proposées, mais les auteurs soulignent que les
raisonnements en logique de description sont nécessaires dans un contexte réel d’utilisation
bioinformatique.</p>
      <p>L’environnement Taverna [Belhajjame et al.] est également un cadre d’application
de l’ingénierie des connaissances. L’objectif principal est d’exploiter les méta-données
décrivant les chaînes de traitement, mais également leurs exécutions. Les bénéfices de
l’annotation des services de traitement sont attendus au niveau de la recherche de
services dans le catalogue. L’environnement permet également d’automatiser la génération
de données de test afin de prévenir les régressions et de garantir la disponibilité et le
bon fonctionnement des services. Ces expérimentations sont pour le moment en cours
dans la plateforme Taverna.</p>
      <p>Le projet BioMOBY [Gordon &amp; Sensen] est une initiative favorisant l’interopérabilité
des centres de données biologiques et les centres d’analyse de ces données. C’est un des
premier projet à exploiter en pratique le standard SAWSDL pour mettre en
correspondance des descriptions syntactiques de services, avec des ontologies de domaine.</p>
      <p>[Lebreton et al.] proposent l’utilisation d’ontologies de domaine (myGrid), de
format et de tâches afin d’améliorer l’intégration de services web sous la forme de flots
de services, en particulier les activités de découverte, de sélection et de composition
de services. La sélection de services est supportée par OWLS-MX ; la planification et
l’exécution d’un flot de services est supportée par le moteur de composition SAREK.</p>
      <p>Basé sur le moteur de recherche sémantique CORESE [Corby et al.], [Lo &amp; Gandon]
proposent une solution pour l’intégration d’applications d’entreprise au travers de
services web sémantiques. L’annotation des services s’appuie sur l’ontologie OWL-S
[Martin et al.]. Le moteur CORESE est intégré à un portail web pour permettre la découverte
de services. La composition est envisagée de manière interactive, mais également
automatique par la découverte de séquences de services candidats entre deux services non
composables directement. La composabilité de services est alors calculée par CORESE
et son moteur de règles de production.</p>
      <p>La traçabilité des données et des traitements dans les plateformes biomédicales est
une préoccupation largement partagée par la communauté des sciences biomédicales.
L’initiative OPM [Moreau et al.] est née de cet intérêt croissant et vise à standardiser la
représentation des informations de provenance dans les environnements de flots de
calculs avec pour principal objectif l’amélioration de leur inter-opérabilité. Notre approche
se base pour l’instant sur un modèle simple de provenance à des fins de prototypage,
mais bénéficierait à terme d’un standard établi.</p>
      <p>De nombreux travaux ont été réalisés par la communauté bioinformatique dans le
domaine des services web sémantiques, notamment pour faciliter les échanges de données
et l’inter-operabilité d’outils de traitement. Les neurosciences, qui nécessitent le
traitement de cohortes de données de plus en plus grandes et le partage de ressources entre
centres, peuvent bénéficier aujourd’hui du même type de techniques. Une illustration
est donnée dans la section 2. La section 3 présente la plateforme technique NeuroLOG
pour les neurosciences. Les sections 4 et 5 exposent notre proposition pour acquérir et
pérenniser l’information sémantique mise en jeu dans les expérimentations, mais
également comment nous envisageons la production de nouvelles connaissances au travers
de l’usage de la plateforme.
2</p>
    </sec>
    <sec id="sec-2">
      <title>Motivations et cas d’utilisation</title>
      <p>La figure 1 représente un exemple simple de chaîne de traitement qui peut être mis en
oeuvre dans le cadre d’une expérimentation en neurosciences. Les technologies de
l’ingénierie des connaissances sont un support pour valider la cohérence de l’expérience,
et pour étendre un entrepôt de données sémantiques par génération automatique
d’annotations au cours de l’analyse de données.</p>
      <p>Cette chaîne de traitement représente un processus de recalage d’images qui consiste
à superposer deux ensembles de données dans le même système de coordonnées. Ce
processus est composé de deux étapes. Dans un premier temps, le recalage lui-même
consiste à calculer, à partir des deux entrées, une IRM de cerveau et un atlas (IRM
de cerveau considérée comme référence), une matrice de transformation géométrique.
Dans un second temps, l’IRM de cerveau à recaler est effectivement re-échantillonée
par application de la matrice de transformation.
2.1</p>
      <p>Assistance lors de la conception et l’exécution de chaînes de
traitement</p>
      <p>Considérons par exemple un service de recalage. D’un point de vue syntaxique, ou
technique, ce service peut être mis en oeuvre à partir d’un fichier binaire exécutable
consommant en entrée deux fichiers de données et produisant en sortie un fichier texte
contenant la matrice de recalage. Mais d’un point de vue sémantique, le service peut
mettre en oeuvre un type particulier d’algorithme caractérisant la méthode d’estimation
des paramètres de transformation. Le bon fonctionnement du service peut être contraint
par un format particulier pour chacune de ses entrées, ou encore une modalité
d’acquisition spécifique, par exemple une image ultrasonore ou acquise par résonance
magnétique.</p>
      <p>Supposons que les données à traiter et le service mis en jeu dans le processus de
traitement aient été décrits au préalable avec les termes du vocabulaire de l’ontologie
de domaine. Nous envisageons d’étendre l’environnement de conception et d’exécution
de chaînes de traitement afin de réaliser, en s’appuyant sur l’ontologie de domaine,
différentes validations garantissant une meilleure cohérence de la chaîne de traitement.
Par exemple, nous souhaitons valider que la modalité d’acquisition des données à traiter
est conforme à celle attendue par le service de recalage, ou de valider que le service de
re-échantillonnage peut être connecté comme successeur du service de recalage via un
type sémantique compatible comme par exemple une matrice de transformation affine.</p>
      <p>D’un point de vue utilisateur, dès lors qu’un neuroscientifique a planifié son
expérience sous forme de flot de calcul, et dès lors que chaque service de calcul a été décrit
sémantiquement, un raisonneur ou un moteur d’inférence peut-être invoqué pour
proposer une liste de services candidats compatibles pour l’étape suivante du flot. Dans la
figure 1 lorsque l’utilisateur sélectionne le service de recalage au cours de la conception
du flot de calcul, le système peut être interrogé pour proposer les services successeurs
candidats capables de consommer la matrice produite, en exploitant les relations de
subsomption entre les ports de sortie et d’entrée des services.</p>
      <p>On peut également envisager, lors de l’exécution, que le moteur de flots de calcul
vérifie l’adéquation des données poussées en entrée de chacun des services, en s’appuyant
sur les méta-données décrivant, et ce service, et ces données.
2.2</p>
      <sec id="sec-2-1">
        <title>Enrichissement de la base de connaissances</title>
        <p>Couplé à un moteur d’inférences et à un entrepôt de données sémantiques, nous
envisageons une extension de l’environnement de flots de calcul permettant la production
et la déduction de nouveaux faits. Par exemple, dans un environnement clinique, des
procédures qualité peuvent nécessiter une certaine traçabilité des données produites au
cours de l’analyse. Dans notre processus de recalage (figure 1) il est intéressant de
pouvoir reconstruire l’information de provenance liée au résultat du recalage. Cela
permettrait de lier l’atlas qui a servi de référence pour le ré-alignement spatial aux données
recalées, ainsi que l’image source non ré-alignée. De plus nous souhaiterions pouvoir
propager l’effet d’un service (et plus généralement d’une partie d’un chaîne de
traitement) sur les données produites. Dans ce sens, nous voudrions automatiser la
génération d’annotations signifiant par exemple “cette donnée a été recalée avec cette donnée
source et cet atlas”, car dans certains cas, des outils de traitement peuvent nécessiter
que les données soient positionnées dans le même repère spatial.</p>
        <p>isProcessedBy
process isProducedBy
produce
hasForRegistrationTemplate
hasForRegistrationMatrix
isProcessedBy</p>
        <p>process
Recalage
process
isProcessedBy</p>
        <p>La figure 2 illustre des relations sémantiques établies entre services de traitement et
données. Les flèches pleines sont des relations créées à la volée par le moteur de flots de
calcul. Elles représentent des connaissances sur la production de données. Nous
souhaitons nous appuyer sur les ontologies de domaine et de services pour inférer de nouvelles
connaissances. Les flèches en pointillés fins représentent des relations de provenance
génériques process/produce, alors que les flèches en pointillés longs représentent des
connaissances spécifiques au domaine, et notamment les informations sur le processus
de recalage. Il faut également noter que ces informations ne sont pas uniquement
dépendantes d’une invocation de service unitaire mais de l’enchaînement des deux étapes
de recalage et re-échantillonnage.
3</p>
      </sec>
    </sec>
    <sec id="sec-3">
      <title>Architecture de la plateforme</title>
      <p>Les spécialistes du traitement de l’information et des neurosciences impliqués dans
le projet NeuroLOG ont pour objectif de développer une plateforme collaborative afin
de fédérer des centres de recherche en neurosciences et ainsi faciliter la mise en oeuvre
d’études multi-centriques. Nos objectifs sont guidés par les besoins cliniques et
bénéficient du support de l’ingénierie des connaissances pour l’acquisition, la réutilisation et
l’extension des connaissances liées à la pratique des neurosciences. La figure 3 illustre
la plateforme NeuroLOG déployée sur deux sites partenaires, “Site A” et “Site B”. La
plateforme n’impose pas de modification des bases de données spécifiques à chacun des
sites. Cependant ils doivent fournir la mise en correspondance de leurs schémas
spécifiques avec le schéma fédéré au travers du composant de médiation/adaptation
DataFederator. La conception de l’ontologie NeuroLOG est une activité centrale dans le projet
et permet de dériver le schéma relationnel utilisé comme schéma de référence global.
Ce schéma fédéré est utilisé dans la couche de médiation pour transformer et pousser
les requêtes vers les bases spécifiques de chacun des sites partenaires et proposer ainsi
une vue unifiée sur les résultats collectés.</p>
      <p>Site A</p>
      <p>Intergiciel
(NeuroLOG)
Moteur sémantique
(CORESE)</p>
      <p>Ontology
(OntoNeuroLOG)
Schéma fédéré
(DataFederator)
Base de Conteneur
données de services</p>
      <p>Application cliente</p>
      <p>Interface de
requêtes sur les</p>
      <p>données
relationnelles ou Conception et exécution
sémantiques de(Mwootrekuflro2w)s</p>
      <p>Encapsulation de
services (jGASW)
Registre de la fédération
Base de données Entrepôt
administratives sémantique</p>
      <p>Site B</p>
      <p>Intergiciel
(NeuroLOG)
Moteur sémantique
(CORESE)</p>
      <p>Ontology
(OntoNeuroLOG)
Schéma fédéré
(DataFederator)
Base de Conteneur
données de services</p>
      <p>Infrastructure distribuée de calcul et de stockage (grille EGEE)</p>
      <p>Outre le gestionnaire de données, la plateforme intègre un moteur de flots de calcul
dédié à la distribution des calculs à grande échelle (infrastructures de grilles).
L’utilisation de la plateforme ne nécessite pas d’adapter les outils de traitement de données mais
propose jGASW (Java Grid Application Service Wrapper), un service d’encapsulation
et d’instrumentation d’outils sous forme de services web prenant en charge l’invocation
sur grille de calcul et les transferts de données nécessaires. Les procédures d’analyse de
données sont conduites par le moteur de flots de calcul Moteur2.</p>
      <p>Les données sémantiques sont stockées dans un entrepôt centralisé et accessibles par
toute la fédération. Cet entrepôt est peuplé avec les ontologies de domaine et de
services et toutes les annotations produites au cours de l’usage de la plateforme, que ce
soit lors du déploiement et de l’annotation des services, ou bien lors de la génération
automatique d’annotations lors de l’analyse des données. Cet entrepôt est couplé au
moteur sémantique de requêtes et d’inférences CORESE permettant la recherche
d’informations sémantiques et la production d’annotations dans l’entrepôt.
4
4.1</p>
      <p>Représentation et acquisition des connaissances</p>
      <sec id="sec-3-1">
        <title>Ontologies du projet NeuroLOG</title>
        <p>L’ontologie de domaine [Temal et al.] vise à formaliser et à capitaliser les
connaissances du domaine des neurosciences. Elle décrit principalement les données
manipulées dans la plateforme et leurs traitements. Les concepts centraux sont les Dataset,
DatasetProcessing, Subject et Study. Un effort particulier a été apporté à l’obtention
d’une description et classification précise (i) des données à traiter (Dataset) notamment
en termes de modalité d’acquisition, d’expression (format, mode inscription dans un
ou plusieurs fichiers sur disque, en mémoire), et (ii) des traitements réalisés sur ces
données, par exemple la restauration de données bruitées, le recalage, ou bien la
segmentation.</p>
        <p>Une ontologie de services, plus technique et destinée à décrire les services web est
en cours de développement. Elle vise à représenter la description du service, en terme
de fonctionnalités et de paramètres, mais également à décrire son invocation afin de
construire l’information de provenance.
4.2</p>
        <p>Acquisition de connaissances sur les outils de traitement
L’annotation d’un service consiste à mettre en correspondance des concepts
techniques (éléments de description du service) avec des concepts spécifiques au domaine
d’application au travers d’une ontologie. Nous considérons cette activité comme un
processus manuel et sensible car il nécessite une connaissance précise du domaine
d’application (ontologie des neurosciences), et de la description technique du service
(ontologie des services). En effet, l’expert responsable de l’annotation doit arbitrer parmi des
choix de concepts justes mais ayant des niveaux d’abstraction différents, ce qui
impactera la précision des requêtes sémantiques et donc les possibilités de raisonnement.</p>
        <p>Afin de réaliser cette tâche d’annotation manuelle, nous proposons un prototype
permettant de traduire un descripteur de service jGASW en une instance RDF mettant en
jeu des concepts de l’ontologie de domaine et de services NeuroLOG. L’ontologie de
services a été utilisée pour représenter les services de traitement de donnée jGASW. Ce
prototype a été développé en Java et s’appuie sur l’interface de programmation JENA
API. Le descripteur jGASW pouvant facilement être mis en correspondance avec les
concepts de WebService, Input et Output, la génération de l’annotation RDF du service
jGASW est entièrement automatisée. Une interface graphique représentant le service
permet à l’utilisateur de glisser et déposer des éléments de la taxonomie de domaine
afin de typer sémantiquement la fonctionnalité du service, ses entrées ainsi que ses
sorties. Le service annoté peut par la suite être enregistré dans l’entrepôt de données
sémantiques et chargé dans le moteur d’inférences.
jgasw:register-1.0.0
a nlogService:web-service;
nlogService:performs nlogDomain:affine-registration;
nlogService:hasInput jgasw:inputImage, jgasw:inputTemplate;
nlogService:hasOutput jgasw:registrationMatrix.
jgasw:inputImage
a nlogService:Input, nlogDomain:T1-weighted-MR-dataset,
nlogDomain:floatingdataset.
jgasw:inputTemplate</p>
        <p>a nlogService:Input, nlogDomain:reference-dataset.
jgasw:registrationMatrix</p>
        <p>a nlogService:Output, nlogDomain:registration-dataset.</p>
        <p>FIGURE 4 – Service annoté mêlant annotations techniques et spécifiques au domaine.</p>
        <p>La figure 4 montre une syntaxe N3 de la description sémantique d’un service de
recalage annoté. Deux types sémantiques sont affectés au service : le type
nlogService:webservice de l’ontologie de services et le type nlogDomain :affine-registration
représentant un certain type d’algorithme de recalage dans l’ontologie de domaine. Ce service a
pour paramètres d’entrée jgasw :inputImage et jgasw :inputTemplate et pour paramètre
de sortie jgasw:registrationMatrix.
4.3</p>
      </sec>
      <sec id="sec-3-2">
        <title>Pérennisation des connaissances acquises</title>
        <p>Afin d’être exploitées, soit au cours de la conception d’une chaîne de traitement, soit
directement au cours de son exécution, les données sémantiques doivent être stockées
de manière pérenne dans un entrepôt. D’un point de vue pratique, cela consiste à créer
des individus (ou instances) des classes techniques, ou spécifiques au domaine, et de
les lier par des propriétés (ou relations) définies dans les ontologies. Ces instances sont
décrites avec le formalisme RDF qui peut-être considéré comme un graphe dirigé avec
des transitions labellisées. Chaque transition représente des liens nommés entre les
ressources, elles-mêmes identifiées par des URIs.</p>
        <p>Un premier prototype d’entrepôt de données a été implémenté avec l’interface de
programmation JENA API et son support de la persistance afin de stocker et rapatrier
de tels graphes au moyen d’une base de donnée relationnelle MySQL.
5
5.1</p>
      </sec>
    </sec>
    <sec id="sec-4">
      <title>Exploitation des données sémantiques</title>
      <sec id="sec-4-1">
        <title>Interrogation sémantique de l’entrepôt</title>
        <p>L’interrogation sémantique de l’entrepôt permet d’utiliser le vocabulaire spécifique
à la communauté des neurosciences et les relations liant les données sémantiques afin
de rechercher les données ou outils de traitements adéquats. Nous nous appuyons sur le
moteur sémantique de recherche d’information et d’inférences CORESE pour interroger
l’entrepôt à partir du langage de requêtes SPARQL (standard du W3C permettant de
rechercher des ressources RDF en spécifiant un patron de graphe).</p>
        <p>La figure 5 illustre une requête SPARQL ayant pour objectif de chercher des couples
de services potentiellement enchaînables dans un flot de calcul au travers de types
d’entrée et de sortie sémantiquement compatibles. Cette contrainte de compatibilité est
vérifiée ligne 7 et 8. La requête signifie que nous cherchons deux services A et B pour
lesquels le port de sortie de A est de même type (ou sous-type) que le port d’entrée du
service B. Une bonne maîtrise des ontologies sous-jacentes est nécessaire afin d’écrire
ce type de requête. C’est pourquoi nous envisageons de proposer des requêtes
préassemblées à l’utilisateur final via une interface graphique adaptée.
5.2</p>
        <p>Enrichissement de l’entrepôt de données sémantiques</p>
        <p>Bien que ce travail soit à un stade préliminaire, nous proposons un prototype
permettant de reconstruire l’information de provenance des données analysées dans une chaîne
de traitement. Ce prototype simule l’exécution du processus de traitement de données
présenté dans la figure 1. Chaque étape du processus génère de nouvelles annotations
qui sont chargées dans le moteur d’inférences afin de déduire de nouveaux faits
(ressources et propriétés RDF) via l’interface de programmation CORESE Java API.
1 select distinct ?serviceA ?serviceB where {
2 ?serviceA rdf:type nlogService:web-service .
3 ?serviceB rdf:type nlogService:web-service .
4 ?serviceA nlogService:hasOutput ?serviceA_output .
5 ?serviceB nlogService:hasInput ?serviceB_input .
6 ?serviceB_input rdf:type ?serviceB_inputType .
7 ?serviceA_output rdf:type ?serviceA_outputType .
8 ?serviceA_output rdf:type ?serviceB_inputType .
9 FILTER (?serviceA != ?serviceB)</p>
        <p>Autant que possible, nous essayons de découpler le traitement sémantique des
données de leur traitement effectif. Le mécanisme de chaînage avant de CORESE permet
de déduire de nouveaux faits de manière déclarative (à partir de règles de production).
Nous proposons deux règles permettant de reconstruire l’information de provenance
associée aux données traitées.
&lt;cos:rule&gt;
&lt;cos:if&gt;</p>
        <p>PREFIX neurolog: &lt;&amp;neurolog;&gt;
{ ?port neurolog:produce ?data .</p>
        <p>?service_invoc neurolog:involve ?data . }
&lt;/cos:if&gt;
&lt;cos:then&gt;
{ ?data neurolog:isProducedBy ?port .</p>
        <p>?data neurolog:isInvolvedIn ?service_invoc . }
&lt;/cos:then&gt;
&lt;/cos:rule&gt;</p>
        <p>La figure 6 représente une règle permettant de générer des relations dirigées depuis
les données produites vers le port de sortie d’un traitement et son invocation. Le bloc
&lt;cos:if&gt; réalise une requête SPARQL sur la base de connaissances afin de chercher un
sous-graphe liant une invocation de service, une donnée produite et le port de sortie par
lequel la donnée a été effectivement produite. Pour chacun des sous-graphes résultats, le
bloc &lt;cos:then&gt; réalise la création des relations isProducedBy entre les variables data
et port, et isInvolvedIn entre les variables data et service_invocation. La génération de
l’information de provenance pour les données d’entrée est réalisée de façon similaire.
6</p>
      </sec>
    </sec>
    <sec id="sec-5">
      <title>Conclusion</title>
      <p>Ce papier décrit un environnement multi-centrique dédié aux neurosciences dans
lequel l’ingénierie des connaissances est appliquée pour supporter les neuroscientifiques
et pérenniser les connaissances mises en jeu depuis les phases de conception des
expérimentations jusqu’aux phases de réalisation.</p>
      <p>Adossé au moteur sémantique CORESE, un prototype est en cours de développement.
Il valide la faisabilité de l’interrogation et de l’extension d’un entrepôt de données
sémantiques permettant la sélection d’outils de traitement, l’assistance dans leur
composition, ainsi que la construction d’information de provenance au cours de l’exécution
de chaînes de traitement. Une intégration plus fine de ce travail dans la plateforme
permettra de mesurer la plus-value de ce type d’approche auprès de la communauté des
neuroscientifique. Cette intégration permettra aussi de raffiner la conceptualisation des
services de traitement en neurosciences ainsi que leurs assemblages sous la forme de
chaînes de traitement.</p>
    </sec>
  </body>
  <back>
    <ref-list>
      <ref id="ref1">
        <mixed-citation>
          <string-name>
            <given-names>BELHAJJAME K.</given-names>
            ,
            <surname>WOLSTENCROFT</surname>
          </string-name>
          <string-name>
            <surname>K.</surname>
          </string-name>
          ,
          <string-name>
            <surname>CORCHO O.</surname>
          </string-name>
          , OINN T., TANOH F.,
          <string-name>
            <given-names>WILLIAM A.</given-names>
            &amp;
            <surname>GOBLE C.</surname>
          </string-name>
          <article-title>A</article-title>
          . (
          <year>2008</year>
          ).
          <article-title>Metadata management in the taverna workflow system</article-title>
          .
          <source>In International Conference on Computational Science</source>
          (
          <volume>4</volume>
          ) : IEEE Computer Society.
        </mixed-citation>
      </ref>
      <ref id="ref2">
        <mixed-citation>
          <string-name>
            <given-names>CORBY O.</given-names>
            ,
            <surname>DIENG-KUNTZ</surname>
          </string-name>
          <string-name>
            <given-names>R</given-names>
            . &amp;
            <surname>FARON-ZUCKER</surname>
          </string-name>
          <string-name>
            <surname>C.</surname>
          </string-name>
          (
          <year>2004</year>
          ).
          <article-title>Querying the semantic web with corese search engine</article-title>
          .
          <source>In ECAI</source>
          , p.
          <fpage>705</fpage>
          -
          <lpage>709</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref3">
        <mixed-citation>
          <string-name>
            <surname>GORDON P. M. K</surname>
          </string-name>
          . &amp;
          <string-name>
            <surname>SENSEN C. W.</surname>
          </string-name>
          (
          <year>2008</year>
          ).
          <article-title>Creating bioinformatics semantic web services from existing web services : A real-world application of sawsdl</article-title>
          .
          <source>In ICWS</source>
          , p.
          <fpage>608</fpage>
          -
          <lpage>614</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref4">
        <mixed-citation>
          <string-name>
            <given-names>LEBRETON N.</given-names>
            ,
            <surname>BLANCHET</surname>
          </string-name>
          <string-name>
            <surname>C.</surname>
          </string-name>
          ,
          <string-name>
            <surname>CHABALIER J. &amp; DAMERON O.</surname>
          </string-name>
          (
          <year>2009</year>
          ).
          <article-title>Utilisation d'ontologies de tâches et de domaine pour la composition semi-automatique de services web bioinformatiques</article-title>
          .
          <source>In Journées Ouvertes Biologie</source>
          , Informatique et Mathé- matiques
          <source>(JOBIM</source>
          <year>2009</year>
          ). in press.
        </mixed-citation>
      </ref>
      <ref id="ref5">
        <mixed-citation>
          <string-name>
            <surname>LO M. &amp; GANDON F.</surname>
          </string-name>
          (
          <year>2005</year>
          ).
          <article-title>Integrating dynamic resources in corporate semantic web : an approach to enterprise application integration using semantic web services</article-title>
          .
          <source>Rapport interne 5663</source>
          , INRIA.
        </mixed-citation>
      </ref>
      <ref id="ref6">
        <mixed-citation>
          <string-name>
            <given-names>LORD P.</given-names>
            , ALPER P.,
            <surname>WROE</surname>
          </string-name>
          <string-name>
            <given-names>C.</given-names>
            &amp;
            <surname>GOBLE</surname>
          </string-name>
          <string-name>
            <surname>C.</surname>
          </string-name>
          (
          <year>2005</year>
          ).
          <article-title>Feta : A light-weight architecture for user oriented semantic service discovery</article-title>
          .
          <source>In European Semantic Web Conference</source>
          , p.
          <fpage>17</fpage>
          -
          <lpage>31</lpage>
          : Springer Berlin / Heidelberg.
        </mixed-citation>
      </ref>
      <ref id="ref7">
        <mixed-citation>
          <string-name>
            <surname>MARTIN D.</surname>
          </string-name>
          ,
          <string-name>
            <surname>BURSTEIN M.</surname>
          </string-name>
          ,
          <string-name>
            <given-names>MCDERMOTT D.</given-names>
            ,
            <surname>MCILRAITH</surname>
          </string-name>
          <string-name>
            <surname>S.</surname>
          </string-name>
          ,
          <string-name>
            <surname>PAOLUCCI M.</surname>
          </string-name>
          ,
          <string-name>
            <surname>SYCARA K.</surname>
          </string-name>
          ,
          <string-name>
            <surname>MCGUINNESS D. L.</surname>
          </string-name>
          ,
          <string-name>
            <surname>SIRIN E. &amp; SRINIVASAN N.</surname>
          </string-name>
          (
          <year>2007</year>
          ).
          <article-title>Bringing semantics to web services with owl-s</article-title>
          .
          <source>World Wide Web</source>
          ,
          <volume>10</volume>
          (
          <issue>3</issue>
          ),
          <fpage>243</fpage>
          -
          <lpage>277</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref8">
        <mixed-citation>
          <string-name>
            <surname>MONTAGNAT J.</surname>
          </string-name>
          , GAIGNARD A.,
          <string-name>
            <surname>LINGRAND D.</surname>
          </string-name>
          , ROJAS BALDERRAMA J.,
          <string-name>
            <surname>COLLET P. &amp; LAHIRE P.</surname>
          </string-name>
          (
          <year>2008</year>
          ).
          <article-title>NeuroLOG : a community-driven middleware design</article-title>
          . In HealthGrid, p.
          <fpage>49</fpage>
          -
          <lpage>58</lpage>
          , Chicago : IOS Press.
        </mixed-citation>
      </ref>
      <ref id="ref9">
        <mixed-citation>
          <string-name>
            <given-names>MOREAU L.</given-names>
            ,
            <surname>CLIFFORD</surname>
          </string-name>
          <string-name>
            <surname>B.</surname>
          </string-name>
          , FREIRE J., GIL Y.,
          <string-name>
            <surname>GROTH P.</surname>
          </string-name>
          , FUTRELLE J., KWASNIKOWSKA N., MILES S.,
          <string-name>
            <surname>MISSIER P.</surname>
          </string-name>
          , MYERS J., SIMMHAN Y.,
          <string-name>
            <given-names>STEPHAN E.</given-names>
            &amp;
            <surname>DEN BUSSCHE J. V.</surname>
          </string-name>
          (
          <year>2009</year>
          ).
          <article-title>The open provenance model - core specification (v1.1). Future Generation Computer Systems</article-title>
          .
        </mixed-citation>
      </ref>
      <ref id="ref10">
        <mixed-citation>
          <string-name>
            <given-names>TEMAL L.</given-names>
            ,
            <surname>DOJAT</surname>
          </string-name>
          <string-name>
            <surname>M.</surname>
          </string-name>
          ,
          <string-name>
            <surname>KASSEL G.</surname>
          </string-name>
          &amp;
          <article-title>GIBAUD B</article-title>
          . (
          <year>2008</year>
          ).
          <article-title>Towards an ontology for sharing medical images and regions of interest in neuroimaging</article-title>
          .
          <source>J. of Biomedical Informatics</source>
          ,
          <volume>41</volume>
          (
          <issue>5</issue>
          ),
          <fpage>766</fpage>
          -
          <lpage>778</lpage>
          .
        </mixed-citation>
      </ref>
      <ref id="ref11">
        <mixed-citation>
          <string-name>
            <surname>WOLSTENCROFT K.</surname>
          </string-name>
          ,
          <string-name>
            <surname>ALPER P.</surname>
          </string-name>
          , HULL D.,
          <string-name>
            <surname>WROE C.</surname>
          </string-name>
          ,
          <string-name>
            <given-names>LORD P. W.</given-names>
            ,
            <surname>STEVENS R. D</surname>
          </string-name>
          . &amp;
          <string-name>
            <surname>GOBLE C.</surname>
          </string-name>
          <article-title>A</article-title>
          . (
          <year>2007</year>
          ).
          <article-title>The mygrid ontology : bioinformatics service discovery</article-title>
          .
          <source>IJBRA</source>
          ,
          <volume>3</volume>
          (
          <issue>3</issue>
          ),
          <fpage>303</fpage>
          -
          <lpage>325</lpage>
          .
        </mixed-citation>
      </ref>
    </ref-list>
  </back>
</article>