Programme de la réunion du 28 septembre 2006

Journée Bilan SCATI : Image et Vision


Présentation

Jounée bilan.

Programme de la journée

RESUMES

Vincent Bombardier - CRAN- Nancy

Titre : Intégration de connaissances métiers dans un système de reconnaissance de formes par règles linguistiques floues

Présentation au format PDF

Résumé :

Nous développons une démarche de modélisation et d'intégration de connaissances expertes visant à améliorer un système de reconnaissance de formes basés sur un mécanisme d'inférence par règles linguistiques floues. Nos travaux s'appuient sur une collaboration Université-Entreprise avec la société LUXSCAN TEHCNOLOGIE, et s'appliquent dans le cadre du développement de deux capteurs Vision dans le domaine du bois, l'un pour l'identification défauts sur des planches de bois, l'autre sur l'appariement couleur de pièces de bois.

Les connaissances sur lesquelles nous nous basons sont issues de deux domaines d'expertise : l'expertise du métier du bois et l'expertise de la vision industrielle. L'extraction et la modélisation de ces connaissances sont basées sur la méthode NIAM/ORM, les formalisant à partir de leur expression en langage naturel. Pour améliorer le système de reconnaissance existant, nous proposons d'intégrer ces connaissances métiers pour construire en partie le modèle numérique qui effectue concrètement la reconnaissance de formes (défauts ou couleur).

Ce modèle est créé selon une structure arborescente où chaque noeud est un moteur d'inférence constitué d'un Système d'Inférences Floues reposant sur un mécanisme à base de règles linguistiques. Pour l'application mise en oeuvre, nous avons choisi de retenir un mécanisme de règles conjonctives et plus particulièrement des règles à possibilité où l'inférence est une pseudo implication réalisée par une T-Norme. Ces règles sont particulièrement bien adaptées au problème d'analyse de données. Chaque règle de l'ensemble est activée en parallèle et les résultats partiels sont ensuite combinés par un opérateur flou de disjonction T-Conorme : ^(x, y) = max(x, y). L'inférence repose sur le modèle de Larsen qui utilise comme opérateur de pseudo implication floue la T-Norme produit : T(x, y) = x * y.

Les connaissances expertes précédemment modélisées permettent de configurer chaque noud de l'arborescence ainsi créée.

L'intérêt de l'intégration par un Système d'Inférences Floues basé sur un système de règles linguistiques floues réside en la possibilité d'interpréter linguistiquement chaque inférence du modèle. Il est alors possible de comprendre le comportement du modèle numérique et ainsi vérifier que, d'une part, les connaissances expertes ont bien été intégrées dans le modèle, et d'autre part, qu'il existe bien une cohérence entre les données présentées au modèle et les connaissances utilisées pour le construire. Une différence entre les données et les connaissances peut signifier que les données utilisées ne sont pas réellement représentatives du domaine ou que les connaissances expertes exprimées initialement sont insuffisantes ou incomplètes.

Par ailleurs, le capteur, contrairement au domaine de la commande, délivre une sortie qualitative (non defuzzifiée) qui peut être ensuite fusionnée avec la sortie d'autres capteurs du même type. Les essais réalisés sur des lots tests réels montrent une amélioration des taux de reconnaissance par rapport aux méthodes utilisées actuellement sur sites.


Bertrand Zavidovique et R. Reynaud - IEF Université Paris XI

Titre : La vision située : un concept pour faciliter l'autonomie des systèmes

Présentation au format PDF

Résumé :

Cette présentation porte sur la manière dont la vision contribue à l'autonomie d'un système. Des tâches ambitieuses doivent s'appuyer sur des descriptions et un contrôle plus abstraits. La tendance dénommée vision active fait apparaître la nécessité d'anticiper, conduisant à une première définition de la vision située. Nous montrons à partir de quelques exemples comment les descriptions architecturales s'adaptent aux caractéristiques du système, i.e. comment un modèle émerge progressivement au service d'un contrôle efficace vers plus d'intelligence. Notre philosophie est de dire que les flots de communication internes apparaissent plus utiles à contrôler que les tâches locales, supposées accomplies de manière satisfaisante. Un schéma de système est présenté, schéma que nous avons commencé d'expérimenter dans des situations nécessitant une certaine autonomie. Un des enjeux est de savoir si ce schéma peut aussi servir de base à un système d'apprentissage en ligne.


P. Bonnin, A. de Cabrol, K. Boucheffra, P. Blazevic, V. Hugel, T. Garcia, M. Chetto - Laboratoire de Robotique de Versailles

Titre : Système de Vision Dynamiquement Reconfigurable et Evaluation pour la Robotique Mobile et Autonome

Présentation au format PDF

Résumé :

Nous présentons un exemple de « chaîne de pilotage de traitements » au travers d'un Système de Vision Dynamiquement Reconfigurable, reconfiguré par l'OS Temps Réel, pour la Robotique mobile et autonome, développé dans le cadre du « COST Vision » du projet RNTL CLEOPATRE. Ainsi nous préciserons le cadre du projet :

Puis les travaux réalisés : le système de vision, et notamment l'évaluation et le choix des opérateurs de vision, ainsi que des extension possibles de ces travaux.

Nous aborderons ensuite notre « vision » de « l'évaluation dans les systèmes de traitement d'images », mais dédiés à la Robotique : c'est- à-dire « l'Evaluation en Vision Robotique ».

Nous reviendrons sur les difficultés spécifiques en robotique à pattes, comment sont exploitées les informations de Vision. Nous présenterons plusieurs exemples d'Evaluations « Tâches », incluant la vision, ainsi que la difficulté d'avoir une métrique réaliste.

Enfin, nous détaillons la Méthodologie d'Evaluation Boîte Claire que nous avons développé, et l'utilisation que nous en avons faite. L'évaluation « Boîte Claire » comporte une évaluation « Boîte Noire », Entrée / Sorties, c'est-à-dire de la qualité des résultats en fonction des images traitées, que l'on cherche en plus à corréler avec les caractéristiques internes aux opérateurs, d'où le terme de « Boîte Claire ». L'intérêt est ensuite de créer de nouveaux opérateurs, plus performant, par améliorations / hybridations en gardant les caractéristiques intéressantes. Nous présentons à titre d'exemple la Conception et de Réalisation d'une nouvelle Segmentation en Régions Couleurs, Temps Réel, à partir de l'évaluation « Boîte Claire » de segmentations bien connues.

Ressources associées


Nicolas Grosdenier - L3I La Rochelle

Titre : Apprentissage de connaissances et de savoir-faire en Traitement d'Image

Présentation au format PDF

Résumé :

Dans cet exposé, nous positionnerons le problème de l'apprentissage de prototypes d'applications de traitement d'images à partir d'applications de Traitement d'Images (exemples) produites par différents experts répondant à différents objectifs. Notre apprentissage consiste à découvrir des sous séquences de traitements communes aux différentes applications. La découverte de tels points communs dans les séquences devrait permettre de synthétiser des prototypes (de portions) d'applications mais également de mettre en relation des connaissances de plus haut niveau (objectifs, contraintes, décomposition hiérarchique, etc.). Comme premier élément de réponse, nous proposerons la construction d'arbres de suffixes dont l'objectif est de mettre en évidence des motifs communs à plusieurs séquences. A partir d'une adaptation de l'algorithme des arbres de suffixes généralisés, nous sommes capables de trouver des motifs communs en fonction d'un niveau de granularité choisi. Enfin, nous conclurons sur les perspectives d'utilisations de ce type d'apprentissage pour la capitalisation de connaissances et l'assistance à la conception d'applications de Traitement d'Images.


Nesrine Chehata - Institut EGID (Environnement, Géo-ingénierie et Développement), EA 2957, équipe Image - Université Bordeaux 3

Titre : Evaluation de produits cartographiques: Un système opérationnel à différents niveaux de contrôles

Présentation au format PDF

Résumé :

Cette présentation porte sur la définition d'un protocole d'évaluation pour les produits cartographiques et la présentation d'un système opérationnel. La première partie de cet exposé présente le contexte: les différents produits cartographiques à étudier et les besoins d'évaluations. La deuxième partie présente une plateforme d'évaluation opérationnelle. Le système est générique, ouvert et permet l'intervention d'un opérateur humain dans la chaîne de traitement. La plateforme propose trois niveaux de contrôle; ponctuel, vectoriel 2D et vectoriel 3D permettant de gérer les différents types de produits cartographiques. Elle permet de réaliser des évaluations intrinsèques, extrinsèques et propose des outils de jugement qualitatifs et quantitatifs.


S. Jullien, G. Mauris, L. Valet - LISTIC Annecy

Titre : Système de fusion pour l'interprétation d'images tomographiques 3D

Présentation au format PDF

Résumé :

Le système de fusion conçu en partenariat avec Schneider Electric, a pour but d' évaluer la qualité de pièces électrotechniques en matériaux composites (mélange de résine et de fibres de verre). La tomographie `a rayons X permet de connaître l'organisation des fibres à l'intérieur du matériau.

Certaines zones de la pièce ont une organisation spécifique des fibres qui influe sur la qualité de la pièce. Le but de l'application est de détecter ces zones `a partir de prototypes pointés par l'expert sur l'image tomographique.

Un ensemble de mesures est extrait de l'image tomographique afin de caractériser l'organisation des fibres dans l'image. Ces attributs étudiés séparément permettent seulement une détection partielle des zones d'intérêt. Le système que nous proposons, fusionne ces attributs afin d'obtenir une cartographie des zones d'intérêt. Pour connaître l'importance de chaque attribut dans l'obtention du résultat, le système s'appuie sur des prototypes pointés par les experts. Les attributs sont fusionnés par l'intermédiaire de l'intégrale de Choquet. Pour affiner la cartographie, les experts interagissent avec le système en ajoutant de la connaissance via de nouveaux pointés de référence.


Rémi Landais, J.M. Jolion - LIRIS Lyon

Titre : Analyse d'un système de détection d'objets en vue de son adaptation

Présentation au format PDF

Résumé :

L'extraction d'objets tels que les visages ou les textes constitue une tâche particulièrement intéressante dans le contexte applicatif de l'aide à la documentation. Les systèmes d'extraction d'objets sont malheureusement mis à mal par la diversité de ces derniers. Leur adaptation est donc nécessaire pour maintenir des performances équivalentes quel que soit la nature des objets sur lesquels ceux-ci sont appliqués. S'attachant plus particulièrement, dans l'optique de cette adaptation, à la tâche d'optimisation du paramétrage de ces systèmes, nous avons défini une méthode originale de ciblage de l'optimisation aux seuls paramètres des modules du système estimés responsables des différentes catégories d'erreurs produites par le système.

A la différence des méthodes basées sur l'utilisation de connaissances a priori qui modélisent la nature des modifications à effectuer sur les systèmes en fonction de catégories d'erreur établies a priori par des experts, nous choisissons ici d'appliquer le principe d'autonomie consistant à limiter les connaissances disponibles aux seules entrées-sorties du système. Cette méthode s'appuie alors sur deux analyses distinctes. La première porte sur les performances du système considéré et permet d'extraire les différentes catégories d'erreur déjà mentionnées. Elle repose donc essentiellement sur la définition d'un ensemble de règles d'évaluation adéquat. La seconde concerne le fonctionnement des différents modules composant le système et donne lieu à la détermination d'un module responsable pour chaque catégorie d'erreur. La méthodologie produite est finalement évaluée sur un système de détection de textes dans les vidéos.


Yves Lucas, Hazem Wannous, Antonio Domingues, Sylvie Treuillet - Laboratoire Vision et Robotique EA 2078 Université d'Orléans

Titre : Evaluation et réglage d'une chaîne de traitement d'images routières

Présentation au format PDF

Résumé :

Le contexte de ces travaux est celui de la sécurité automobile, dans le cadre du projet REACTIR (REglage Automatique d'une Chaîne de Traitement d'Images Rapide) mené d'abord au sein du programme PREDIT. La détection d'obstacles routiers par système de vision embarqué est utilisée pour la configuration d'air-bags intelligents en situation de pré-crash.

Le réglage d'une chaîne de traitement d'images sur un véhicule se heurte ici à deux difficultés : une très grande versatilité des scènes routières et des conditions météorologiques et un temps de réaction ne devant pas dépasser 100 ms. Alors que beaucoup de travaux se sont focalisés sur le réglage d'algorithmes isolés, nous proposons une optimisation globale d'une chaîne de traitement. Elle repose sur la modélisation statistique de celle-ci par des plans d'expérience, afin d'identifier d'abord les paramètres influents, leurs interactions et de les initialiser.

Des valeurs optimales pour ces paramètres peuvent alors être recherchées par la méthode du simplexe pour chacune des images d'une base de scènes routières urbaines et autoroutières, qui servira ensuite à l'apprentissage d'un réseau neuronal. Le réglage impose une double évaluation : la sortie de la chaîne de traitement doit bien sûr être évaluée afin d'apprécier la qualité d'un réglage notamment pendant la modélisation; l'entrée doit aussi être évaluée afin d'adapter en temps réel les paramètres de traitement à chaque image brute.

Une mesure d'homogénéité, calculée sur une fenêtre d'intérêt, repérée par un télémètre laser également embarqué, a d'abord été utilisée comme descripteur d'entrée sur une base de 200 images extraites d'une séquence de 30 000. Ces résultats ont été améliorés par le calcul de coefficients d'ondelette sur l'image entière, se passant d'une localisation de l'obstacle dans l'image.

De nouvelles expérimentations sur d'autres séquences d'images routières acquises avec des moyens différents ont permis ensuite de donner une plus grande valeur statistique aux résultats obtenus.