Programme de la réunion du 27 mars 2008

Système complexe haut niveau


Présentation

L'augmentation de la quantité de données numériques disponibles et de leur complexité nécessitent la mise en place d'outils permettant de les gérer efficacement, d'extraire les informations pertinentes ou d'assister la prise de décision. Les sytèmes de vision, ont pour vocation de fournir une représentation normalisée des données, symbolique ou quantitative. Des techniques d'analyse d'images et de décision statistique ou logique, l'exploitation de la sémantique des images soit de manière directe par le biais d'ontologie par exemple, soit de manière indirecte par le biais d'un expert sont des moyens utilisés pour affiner un résultat. Nous voyons donc ici l'intérêt de disposer d'environnements de production de logiciels de vision pour conduire vers des systèmes plus robustes et plus adaptatifs en s'appuyant fortement sur la réutilisation.

Programme de la journée

Comme à son habitude, le groupe SCATI propose d'une part le matin, deux exposés de séniors, d'autre part des exposés juniors l'après-midi. Dans le cadre de cette journée, il s'agit :

  • 16H00 : Discussion

    RESUMES

    Lionel VALET & Didier COQUIN - LISTIC - Annecy

    Titre : Coopération et interaction homme/système en imagerie tridimensionnelle

    Présentation au format pdf

    Résumé : L'imagerie tridimensionnelle est aujourd'hui une approche de plus en plus utilisée comme outil de mesure pour la compréhension de phénomènes complexes (exploitation pétrolière, analyse médicale, contrôle qualité...). Ces images contiennent un important volume de données que seule une personne experte et très expérimentée est en mesure d'analyser. Les systèmes d'aide à la décision, basés sur le traitement de l'information, apportent une aide précieuse aux experts sans les remplacer totalement. L'analyse de données nécessite plusieurs étapes dont les principales sont l'extraction d'information, la fusion d'information et l'évaluation des détections obtenues. Dans un contexte où l'expert joue un rôle primordial, tout système d'aide à la décision basé sur des techniques de traitement de l'information doit être coopératif. La coopération et l'interaction Homme/Système est une notion très subjective et difficile à quantifier. Quel que soit les outils mathématiques utilisés, aussi poussés et performants soient-ils, leur mise en oeuvre nécessite des outils logiciels et matériels adaptés aux utilisateurs. Le paramétrage des méthodes est également important et seuls les paramètres compréhensibles par les experts peuvent être utilisés dans la coopération. Les autres doivent être appris et fixés de façon automatique. Nous présentons une manière de guider l'expert dans l'utilisation de ce système coopératif.


    Augustin LUX - Equipe Prima - Laboratoire LIG/Inria Grenoble

    Titre : Imalab: un atelier de programmation en vision

    Présentation au format pdf

    Résumé : Imalab est un ensemble de logiciels utilisés dans l'équipe Prima depuis quelques années, avec lequel nous avons l'ambition de fournir un bon outil pour les thésards et les chercheurs, un outil qui soit utile à la fois pour le développement d'algorithmes et d'applications, pour l'expérimentation, et pour l'intégration de modules de type "vision" avec d'autres modules "d'intelligence artificielle" Ca fait beaucoup, il faut donc éviter de construire une usine à gaz.

    Notre système est construit à partir d'une librairie de type traitement d'images, d'un shell interactif, et d'un ensemble d'interfaces et de scripts. En plus, il comporte des outils pour sa propre construction: on peut l'étendre, ou le refaire, avec d'autres librairies, d'autres interfaces. Sur le plan technique, il y a de la vision, mais aussi une machine virtuelle (type Lisp/Scheme), des outils de métaprogrammation, des interpréteurs (au pluriel).

    Nous comparons Imalab avec des logiciels existants: OpenCV, Matlab, aussi avec Python. Et aussi avec Pandore - en fait, la question à l'origine de cet exposé était de savoir comment pourrait se faire une intégration avec Pandore.

    L'exposé est illustré avec des démonstrations.


    Vincent MARTIN - Equipe Pulsar - INRIA Sophia Antipolis

    Titre : La segmentation d'image et de vidéo dans le cadre de la vision cognitive

    Présentation au format pdf

    Résumé : La configuration de la segmentation d'image dans les système de vision est une tâche délicate et périlleuse. Cela nécessite du temps et une bonne expertise sur les algorithmes utilisés. Il est aussi essentiel de pouvoir adapter dynamiquement la segmentation aux différentes situations (comme des changements d'éclairage) afin de garder un bon niveau de robustesse.

    Dans cette exposé, nous abordons le problème de la segmentation d'image et de vidéo dans le cadre de la vision cognitive. Plus précisement, nous étudions deux problèmes majeurs dans les systèmes de vision : la sélection d'un algorithme de segmentation et le réglage de ses paramètres selon le contenu de l'image et les besoins de l'application. Nous proposons une méthodologie reposant sur des techniques d'apprentissage pour faciliter la configuration des algorithmes et adapter en continu la tâche de segmentation aux données. Nous illustrerons notre méthode sur deux applications : la détection d'objets biologiques (images statiques) et la détection d'objets mobiles dans de longues séquences de vidéo surveillance.


    Jean-Yves RAMEL, N JOURNET (LI - Tours)

    Titre : AGORA : un système interactif et incrémental d'analyse d'images de documents

    Présentation au format pdf

    Résumé :

    Le logiciel AGORA émane d'une collaboration entre le CESR et le Laboratoire Informatique de l'Université de Tours et vise à faciliter l'indexation des documents anciens grâce à une plus grande interactivité entre l'usager et le systeme.

    Ainsi, l'originalité d'AGORA réside dans sa fléxibilité et dans l'opportunité qu'il offre aux utilisateurs de pouvoir construire de manière interactive des scénarios d'analyse structurelle d'images. Partant d'une segmentation initiale, le but est de pouvoir faire évoluer la représentation des images de manière progressive pour aboutir à une caractérisation la plus fine possible de son contenu (méta-données) en fonction des objectifs visés et du type d'images à analyser.

    L'utilisateur peut sauvegarder, modifier, adapter ses scénarios d'indexation en réordonnant ou supprimant certains traitements. Une fois le scénario considéré comme correct, celui-ci peut être archivé et appliqué sur un ensemble plus conséquent d'images (un ouvrage complet) lors d'un traitement par lot. Seul quatre types d'actions sont nécessaires pour effectuer l'analyse incrémentale :

    Actuellement les critères utilisables pour classifier les éléments de contenus concernent :

    AGORA constitue un outil d'analyse convivial pouvant être utilisé simplement et rapidement par les experts de l'histoire du livre et par les organismes désireux de mettre en place une bibliothèque virtuelle.


    Stéphane CAUCHIE (LI - Tours)

    Titre : COYOTE: solveur de problèmes de reconnaissance de formes

    Présentation au format pdf

    Résumé :

    Le logiciel Coyote vise à automatiser le processus de construction de solutions pour des problèmes de reconnaissance de formes (*). La construction de chaînes de traitements (pré-traitement, extraction de caractéristiques et classification) adaptée est guidée par l'expérience acquises sur des problèmes passés. Pour cela, COYOTE utilise des techniques inspirées du meta-learning. Un moteur formel permet la génération de solutions dont l'apprenabilité et l'exécution est certifié conforme aux exigences du problème traité.

    Le processus de résolution d'un nouveau problème s'inscrit dans le domaine du Raisonnement à base de Cas:

    1. Rapatriement : COYOTE rapatrie les solutions des problèmes connexes par l'utilisation des techniques issues du meta-learning.
    2. Ré utilisation : COYOTE modifie les solutions rapatriés afin de produire un ensemble de solutions (certifiées conformes).
    3. Révision : COYOTE évalue l'ensemble des solutions conformes par ordre d'adéquation avec le problème courant.
    4. Mémorisation : COYOTE met à jour sa base de connaissances à partir de la meilleure solution déterminée afin de résoudre plus facilement des problèmes ultérieurs.

    COYOTE constitue un environnement de développement de solutions à des problèmes de Reconnaissance de formes. Nous en sommes à l'état de prototype mais les résultats sont réellement prometteurs: Nous avons constitué la base de connaissance de COYOTE avec 13 problèmes (breast cancer, echoli,CASIA,...). Enfin nous avons évalué COYOTE sur quatre problèmes réels :

    1. Authentification de Signatures Manuscrites
    2. Identification d'un signal biométrique (TACTIM)
    3. Identification de textures
    4. Reconnaissance de lettrines.

    En une semaine, COYOTE a trouvé des solutions compétitives pour les problèmes (1,4)** et a proposé des solutions dépassant les solutions connues pour les problèmes (2,3).

    *: Les problèmes de reconnaissance de formes traitables sont les problèmes dont le système d'évaluation est connu.

    **: La solution connue pour le problème de l'authentification de signature est basée sur un processus de fusion. COYOTE n'est pas encore capable de géré ce type d'architecture, mais il a trouvé un chaîne d'extraction dont la performance est comparable à la solution connue (EER < 2%).


    Sébastien LEF&EGRAVE;VRE, Sébastien DERIVAUX (LSIIT - Strasbourg)

    Titre : Segmentation morphologique guidée par des exemples

    Présentation au format pdf

    Résumé :

    Dans un processus d'analyse et d'interprétation d'image, la segmentation est naturellement une étape-clé puisqu'elle permet de passer des données brutes (images composées de pixels) aux régions ou objets, qui pourront par la suite être caractérisés, classés et interprétés. La phase de segmentation, souvent associée à la notion de traitement d'image de bas-niveau, n'utilise que très rarement des connaissances sur les objets à extraire. Le plus souvent, l'utilisateur peut guider le processus de segmentation au travers de paramètres qu'il est nécessaire de régler (seuils, critères d'homogénéité, etc). Nous présentons ici une approche alternative où l'utilisateur guide la segmentation à l'aide de zones exemples étiquetées (c'est-à-dire associées à une classe prédéfinie). Plus précisément, nous considérons l'algorithme de segmentation morphologique par ligne de partage des eaux, et introduisons plusieurs solutions pour tenir compte de ces exemples lors du processus de segmentation morphologique : pré-traitement, modification interne de l'algorithme, encapsulation de l'algorithme dans un cadre d'optimisation supervisée. Nous illustrons les résultats obtenus principalement dans le domaine de la télédétection.


    Sylvie Jullien (Annecy)

    Titre : Un outil d'aide à la présélection de films d'animation

    Présentation au format pdf

    Résumé :

    Le Festival International du Film d'Animation a lieu chaque année à Annecy et récompense les meilleurs films d'animation. En amont du festival, un jury de spécialistes du domaine de l'animation se réunit pour présélectionner les films qui seront diffusés durant le festival.

    Il visionne plus de 500 films (ayant une durée moyenne de 12 minutes) et doivent en retenir seulement 70. Chaque année, le nombre de films et la qualité des films croient; et les présélections ne peuvent excéder une semaine. Pour aider le jury dans cette tâche délicate, un système d'aide à la sélection a été développé. Il permet, via une plate-forme matérielle et logicielle adaptée, de recueillir le jugement proposé par chaque juge (oui, non peut-être) ainsi que des évaluations de la qualité des films au travers de quatre critères (Scénario, Esthétique, Animation et Bande son). Ces évaluations ont un format linguistique du type ``Très satisfaisant'', ``Satisfaisant''. Un opérateur de fusion de type moyenne généralisée conservant le format symbolique discret est ensuite identifié pour relier le jugement global aux évaluations des critères, et ce pour chaque juge. Le modèle préférentiel de chaque juge peut être ainsi établi et les évaluations paradoxales détectées. Ces fonctionnalités sont intégrées dans le système de fusion qui produit également des visualisations aidant au consensus entre les juges: paradoxes, critères les plus importants et ceux ayant les plus grandes interactions.