Programme de la réunion du 02 avril 2009

Les Systèmes de Vision: de l'acquisition à l'interprétation

La société TRIXELL est co-organisatrice de cette réunion, et une présentation sera faite durant la matinée sur ce thème.


Présentation

Les systèmes de vision sont de plus en plus complexes, et bien souvent il est difficile de trouver les bons paramètres pour régler de tels systèmes. Cela va de

Programme de la journée

RESUMES

Jena-Michel VIGNOLLE (Trixell - Thales)

Titre : Paramétrage d'un logiciel de mesure automatique de la qualité d'image dans le contexte des détecteurs numériques pour la radiologie médicale: exemple et difficultés


Alain KATTNIG (ONERA)

Titre : Critère de Qualité-Mission : une échelle de caractérisation de la qualité d'un système d'imagerie vis-à-vis d'un besoin d'observation explicitement formulé.

Présentation au format pdf

Résumé: La conception des systèmes d’imagerie est un domaine peu formalisé où règnent des règles semi-empiriques. En particulier, résolutions spatiale et radiométrique sont traitées de façon indépendantes, ce qui rend les comparaisons objectives des différentes solutions difficiles. Au lieu de chercher à résoudre ce problème en absolu, nous nous sommes intéressés à la détermination de la meilleure image vis-à-vis d'une mission précise d'observation. Nous sommes alors partis de la mesure classique de la Fidélité dont l'expression a été modifiée pour exclure les informations non-utiles au besoin d'observation.
Nous avons ensuite considéré que la Fidélité ne doit pas être évaluée à partir d'hypothèses "moyennes" faites sur les propriétés de la scène globale, mais à partir du besoin d'observation. Dans le cadre de la photo-interprétation militaire, ce besoin a été synthétisé sous la forme d'une longueur minimale à observer. Nous avons alors considéré que la caractérisation des dégradations subies par la transmission d'un disque de diamètre égal à cette longueur dans le système d'imagerie permet l'évaluation du système vis-à-vis du besoin d'observation. Les dégradations de l'image sont estimées à partir d'une modélisation du système d'imagerie prenant en compte Fonction de transfert, échantillonnage et bilan radiométrique complet.
Le critère a été étalonné sur une série d'images associées à la mission de reconnaissance de véhicules terrestres ; les notes données par des photo-interprètes professionnels ont alors permis d'associer une échelle de performance claire à l'échelle numérique fournie par le critère de Qualité-Mission.
Cette démarche permet, entre autres, de démontrer rigoureusement la règle de conception consistant à ignorer en pratique les effets du repliement de spectre. Elle permet également la comparaison de systèmes d'imagerie en compétition pour un même besoin mais basés sur des longueurs d'onde différentes ainsi que des résolutions spatiales et radiométriques différentes.


Patrick BONNIN (LISV) - Joel MORILLON (Thales)

Titre : Systèmes de Vision pour la Robotique Mobile et Autonome à usage de non spécialistes : Conception / Evaluation / Utilisation

Présentation au format pdf


Joel MORILLON (Thales)

Titre : Scalable autonomy for UGVs3

Présentation au format pdf

Résumé: Nous proposons une application de la problématique du groupe SCATI : choix des algorithmes, choix des réglages des paramètres (comment les automatiser) interprétation ou auto évaluation des résultats, dialogue Système de Vision - Opérateur non spécialiste ... dans le cadre de la robotique mobile, et notamment de l'Autonomie Ajustable. L'exposé joint (Thales / LISV) sera articulé en deux parties

  1. La présentation de l'Autonomie Ajustable (Joel Morillon): Concept et Application

  2. La présentation d'un opérateur de Vision (Patrick Bonnin), implanté dans ce cadre.

L'opérateur de Vision proposé, réalise la poursuite d'objet pour deux fonctionnalités différentes:

dans des scènes non structurées : paysages de campagne. Basé sur la corrélation, il permet de suivre la cible, en ajustant sa taille au cours de la poursuite. Nous insisterons sur l'interfacage homme système de vision, ainsi que l'auto-évaluation des résultats.


Stéphane Sochacki, Noël Richard, Anne-Sophie Capelle-Laizé - Laboratoire XLIM-SIC (Futuroscope)

Titre : Mesurer la qualité de l'information pour décider correctement en traitement d'images : vers la gestion dynamique d'une chaîne de traitement d'images

Présentation au format pdf

Résumé : En dehors d'une exploitation strictement de type acquisition/stockage/visualisation dans un cadre multimédia grand-public, le contenu numérique acquis doit être valorisé par la segmentation, le rehaussement, l'amélioration qualitative du contenu ou par des mesures ou statistiques sur les éléments contenus dans l'image. Dès lors l'exploitation de l'image fait plus appel à des procédés issus de la métrologie que du traitement uniquement matriciel.

Dans ce cadre, nous proposons de définir pour quelques attributs une mesure de qualité ou de précision associée à la valeur scalaire ou vectorielle liée à l'attribut. Nous montrons comment cette mesure est intégrée dans le formalisme de la théorie de l'évidence. Nous montrons également comment étendre cette mesure de qualité/précision aux outils de classification dans une sélection dynamique de ceux-ci. Nous concluons sur notre point de vue concernant la gestion dynamique de chaînes de traitements d'images et la généralisation du propos au niveau des attributs et de la chaîne de décision.


Alice Porebski, Laurent Busin, Nicolas Vandenbroucke, Ludovic Macaire - Laboratoire : EIPC-LAGIS (Lille)

Titre : La sélection d'attributs dans les applications d'imagerie couleur

Présentation au format pdf

Résumé: L'imagerie couleur offre aujourd'hui la possibilité de répondre à de nouvelles et nombreuses applications dans des secteurs d'activité très variés. Dans la plupart des systèmes d'analyse d'images couleur, il s'agit d'abord d'acquérir une image, puis de coder l'information couleur dans un espace de représentation adéquat. L'étape suivante consiste alors à extraire l'information utile au regard de l'application considérée. Cette étape peut être d'abord une étape de segmentation de limage à partir de laquelle des régions sont déterminées avant d'être interprétées. Lorsque les propriétés des pixels sont analysées dans l'espace couleur, cette étape de segmentation est alors réalisée par classification des pixels suivie dune analyse en composantes connexes. Ainsi chaque pixel est caractérisé, soit directement par ses composantes couleur, soit par d'autres attributs évalués dans son voisinage. Les classes en présence peuvent alors être définies dans l'espace d'attributs choisi. Dans d'autres applications d'analyse d'images couleur, il s'agit de classer directement tout ou partie de limage acquise sans procéder nécessairement à une étape de segmentation puis de procéder à l'étape de décision.

Cependant, il existe de nombreux espaces de représentation de la couleur et de nombreux attributs pour décrire les relations entre les pixels. Les résultats d'un traitement dépendent du choix de cet espace couleur et des attributs utilisés pour définir les classes en présence. Dès lors, plusieurs questions peuvent se poser : Quel espace couleur choisir ? Comment le sélectionner automatiquement dans un contexte supervisé ou non ? Comment choisir des attributs pertinents au regard de l'application considérée et comment les sélectionner automatiquement ?

Cet exposé tentera de donner des éléments de réponses à ces questions au travers de trois problématiques: la sélection d'un espace couleur hybride pour la classification supervisée de pixels, la sélection automatique d'espaces couleur pour la classification non supervisée de pixels, la sélection d'attributs de texture couleur pour la classification supervisée d'images couleur.


Hazem Wannous, Yves Lucas, Sylvie Treuillet - Laboratoire PRISME (Bourges)

Titre : Conception d'un outil complet d'aide au diagnostic clinique: de l'application à la classification couleur multi-vues

Présentation au format pdf

Résumé: La surveillance clinique des plaies chroniques fait encore essentiellement appel à une inspection visuelle ou plus rarement à des pratiques manuelles fastidieuses et coûteuses, qui ne permettent pas d'obtenir des mesures objectives et quantitatives sur l'évaluation de la cicatrisation. A partir d'images couleur prises à main levée avec un appareil photo numérique, nous avons développé un outil dévaluation complet associant des mesures géométriques, issues de la description locale du relief (périmètre, surface, volume) et une analyse des couleurs pour une cartographie tissulaire. Un modèle 3D de la plaie peut être reconstruit à partir de plusieurs vues par stéréovision. L'intérêt principal de l'approche multi-vues est de pouvoir combiner les classifications couleur 2D obtenues dans chaque vue sur ce modèle 3D. La conception de la chaîne de traitement comprend plusieurs étapes, pour lesquelles il a fallu faire de nombreux choix (sélection parmi les méthodes existantes, réglages des paramètres ).

S'appuyant sur une vérité terrain établie par des cliniciens, une base d'échantillons cutanés a été constituée, à partir dune segmentation non supervisée en régions de couleur homogène. L'indépendance aux conditions d'éclairage, aux changements de point de vue et d'appareil est assurée par une correction colorimétrique. Puis, grâce à un apprentissage supervisé, un classifieur réussit à identifier 4 catégories de tissus, par des attributs de couleur et de texture. Enfin, la fusion multi-vues permet de lever les ambiguïtés de discrimination (occultations, reflets,) et d'améliorer le processus de la classification. Les mesures de surface exactes sont obtenues par projection des régions tissulaires sur le modèle 3D. Réciproquement, l'analyse couleur, par l'identification des tissus de la zone lésée, permet le détourage automatique de la plaie sur le maillage 3D et d'accéder ainsi à une mesure volumétrique de la cavité sans contact.


John KLEIN - Laboratoire : LITIS (Rouen)

Titre : Suivi visuel d'objets par fusion de sources

Présentation au format pdf

Résumé: Nous présentons une approche de suivi d'objet reposant sur un filtrage particulaire et une fusion de données par fonctions de croyance. Une des voies principales d'amélioration des algorithmes de suivi est constituée par la fusion de données, car les approches ne reposant que sur une seule source sont trop dépendantes de la fiabilité de cette source. Les fonctions de croyance forment un outil puissant de fusion d'informations. Elles permettent notamment d'opérer différentes natures de fusion. En utilisant des ponts entre la théorie des probabilités et la théorie des fonctions de croyance, il est possible d'incorporer l'information de fusion dans un filtre particulaire.


Yannick BENEZETH - Laboratoire : PRISME (Bourges)

Titre :Détection d'humains avec un système de stéréo-vision multi-capteurs

Présentation au format pdf

Résumé: Nous proposons un système de détection d'humains en utilisant des caméras dans le spectre visible et Infrarouge (IR) montées en stéréo-vision. Nous expliquerons comment les 2 caméras peuvent collaborer pour réduire le nombre de faux-positifs inhérent à leur utilisation individuel. Notre méthode de détection est basée sur 2 étapes distinctes. Tout d'abord, la détection des humains est réalisée dans les deux spectres indépendamment en utilisant une cascade de classifieurs boostés. Ensuite, les résultats sont fusionnés à partir des informations géométriques obtenues par la calibration.


David GOMEZ - Laboratoire: Institut des Télécoms,

Titre : Acquisition 3D de gestes par vision artificiel et restitution virtuel

Présentation au format pdf

Résumé: Les environnements virtuels collaboratifs permettent une forme intuitive d'interaction gestuelle entre utilisateurs. Dans ces environnements, les utilisateurs peuvent être représentés par des avatars humanoïdes 3D, pour donner la sensation de présence. Toutefois, l?interaction est alors limitée à quelques animations prédéfinies. L?acquisition des gestes et leur restitution en temps réel par un avatar permet une interaction plus intuitive car les gestes de l?utilisateur peuvent être reproduits directement.

Nous nous intéressons à l'acquisition 3D des gestes en temps réel par vision monoscopique et sans marqueur. Notre méthode consiste en recaler un modèle 3D articulé du corps humain sur des séquences vidéo. Des primitives (régions, contours) sont extraites pour chaque image capturée d'un part et de la projection du modèle 3D d?autre part. Le recalage consiste en mettre en correspondance ces primitives de façon optimale en utilisant, d?abord, un recalage sur les régions et après un recalage sur les contours.

Ce travail de thèse consiste à améliorer la précision et la robustesse de cette approche à partir de l'utilisation des différents primitives avec des algorithmes plus précis pour estimer la pose 3D à partir des images monoculaires.


Baptiste Hemery, Hélène Laurent, Christophe Rosenberger - Laboratoire: GREYC (Caen)

Titre : Méthode dévaluation globale d'algorithmes d'interprétation d'images

Présentation au format pdf

Résumé: L'interprétation d'images concerne de nombreuses applications, notamment la détection de cibles, l'imagerie médicale ou la vidéo-surveillance. Il est encore difficile dévaluer la qualité d'un résultat d'interprétation d'image, en termes de détection, localisation et reconnaissance d'objets d'intérêts dans une image. Plusieurs compétitions, telles le Pascal VOC Challenge, le projet Robin, le projet ETISEO ou bien la conférence TRECVID, ont pour objectif de déterminer les meilleurs algorithmes de localisation et de classification pour des applications données. Pour une vérité terrain donnée, ces compétitions utilisent des métriques afin dévaluer et de comparer les résultats obtenus par différents algorithmes. Si ces métriques font a priori appel à des caractérisations relevant du bon sens, aucune ne met en avant les mêmes caractéristiques.

Nous nous sommes donc intéressés à la définition d'une méthode permettant d'évaluer les performances d'algorithmes d'interprétation en prenant en compte à la fois la qualité de la localisation, de la reconnaissance et de la détection. Notre algorithme d'évaluation est capable de faire face aux différents types d'altération possible dans un résultat d'interprétation : la sous-détection, la sur-détection, la mauvaise reconnaissance et enfin, la mauvaise localisation.