FR2952216A1 - Procede et dispositif d'analyse d'images hyper-spectrales - Google Patents

Procede et dispositif d'analyse d'images hyper-spectrales Download PDF

Info

Publication number
FR2952216A1
FR2952216A1 FR0957625A FR0957625A FR2952216A1 FR 2952216 A1 FR2952216 A1 FR 2952216A1 FR 0957625 A FR0957625 A FR 0957625A FR 0957625 A FR0957625 A FR 0957625A FR 2952216 A1 FR2952216 A1 FR 2952216A1
Authority
FR
France
Prior art keywords
pixels
image
hyper
spectral
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0957625A
Other languages
English (en)
Other versions
FR2952216B1 (fr
Inventor
Sylvain Meriadec Prigent
Xavier Descombes
Josiane Zerubia
Didier Zugaj
Laurent Petit
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Galderma Research and Development SNC
Institut National de Recherche en Informatique et en Automatique INRIA
Original Assignee
Galderma Research and Development SNC
Institut National de Recherche en Informatique et en Automatique INRIA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Galderma Research and Development SNC, Institut National de Recherche en Informatique et en Automatique INRIA filed Critical Galderma Research and Development SNC
Priority to FR0957625A priority Critical patent/FR2952216B1/fr
Priority to PCT/EP2010/066341 priority patent/WO2011051382A1/fr
Priority to CA2778682A priority patent/CA2778682A1/fr
Priority to JP2012535824A priority patent/JP2013509629A/ja
Priority to US13/505,249 priority patent/US20120314920A1/en
Priority to EP10771118A priority patent/EP2494520A1/fr
Publication of FR2952216A1 publication Critical patent/FR2952216A1/fr
Application granted granted Critical
Publication of FR2952216B1 publication Critical patent/FR2952216B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Dispositif d'analyse d'une image hyper-spectrale, comprenant au moins un capteur (1) apte à produire une série d'images dans au moins deux longueurs d'ondes, un moyen de calcul (2) apte à classer les pixels d'une image selon une relation de classement à deux états, l'image étant reçue d'un capteur (1) et un moyen d'affichage (3) apte à afficher au moins une image résultante du traitement des données reçues du moyen de calcul (2). Le moyen de calcul (2) comprend : un moyen de détermination (4) de pixels d'apprentissage recevant des données d'un capteur (1), un moyen de calcul (5) d'une poursuite de projection apte à procéder à un découpage automatique du spectre de l'image hyper-spectrale , et un moyen de réalisation (6) d'une séparation à vaste marge. Le moyen de calcul (2) est apte à produire des données dans lesquelles sont distinguables les pixels classés.

Description

B09-3904FR
Société en Nom Collectif dite : Galderma Research & Development Etablissement Public dit : Institut National de Recherche en Informatique et en Automatique Procédé et dispositif d'analyse d'images hyper-spectrales Invention de : Procédé et dispositif d'analyse d'images hyper-spectrales
La présente invention concerne l'analyse d'images et plus particulièrement la classification statistique des pixels d'une image. Elle concerne plus particulièrement la classification statistique des pixels d'une image en vue de la détection de lésions cutanées, telles que l'acné, le mélasma et la rosacée. Les matériaux et éléments chimiques réagissent plus ou moins différemment lors de l'exposition à un rayonnement d'une longueur d'onde donnée. En balayant la gamme des rayonnements, il est possible de différencier des matériaux intervenant dans la composition d'un objet de part leur différence d'interaction. Ce principe peut être généralisé à un paysage, ou à une partie d'un objet.
L'ensemble des images issues de la photographie d'une même scène à des longueurs d'onde différentes est appelé image hyperspectrale ou cube hyper-spectral. Une image hyper-spectrale est constituée d'un ensemble d'images dont chaque pixel est caractéristique de l'intensité de l'interaction de la scène observée avec le rayonnement. En connaissant les profils d'interaction des matériaux avec différents rayonnements, il est possible de déterminer les matériaux présents. Le terme matériau doit être compris dans un sens large, visant aussi bien les matières solides, liquides et gazeuses, et aussi bien les éléments chimiques purs que les assemblages complexes en molécules ou macromolécules. L'acquisition d'images hyper-spectrales peut être réalisée selon plusieurs méthodes. La méthode d'acquisition d'images hyper-spectrales dite de scan spectral consiste à utiliser un capteur de type CCD, pour réaliser des images spatiales, et à appliquer des filtres différents devant le capteur afin de sélectionner une longueur d'onde pour chaque image. Différentes technologies de filtres permettent de répondre aux besoins de tels imageurs. On peut par exemple citer les filtres à cristaux liquides qui isolent une longueur d'onde par stimulation électrique des cristaux, ou les filtres acousto-optique qui sélectionnent une longueur d'onde en déformant un prisme grâce à une différence de potentiel électrique (effet de piézo-électricité). Ces deux filtres présentent l'avantage de ne pas avoir de parties mobiles qui sont souvent source de fragilité en optique. La méthode d'acquisition d'images hyper-spectrales dite de scan spatial vise à acquérir ou « imager » simultanément toutes les longueurs d'ondes du spectre sur un capteur de type CCD. Pour réaliser la décomposition du spectre, un prisme est placé devant le capteur. Ensuite, pour constituer le cube hyperspectral complet, on réalise un balayage spatial ligne par ligne. La méthode d'acquisition d'images hyper-spectrales dite de scan temporel consiste à réaliser une mesure d'interférence, puis de reconstituer le spectre en faisant une transformée de Fourrier rapide (acronyme anglais : FFT) sur la mesure d'interférence. L'interférence est réalisée grâce à un système de type Michelson, qui fait interférer un rayon avec lui-même décalé temporellement. La dernière méthode d'acquisition d'images hyper-spectrales vise à combiner le scan spectral et le scan spatial. Ainsi, le capteur CCD est partitionné sous forme de blocs. Chaque bloc traite donc la même région de l'espace mais avec des longueurs d'ondes différentes. Puis, un balayage spectral et spatial permet de constituer une image hyper-spectrale complète. Plusieurs méthodes existent pour analyser et classer des images hyper-spectrales ainsi obtenues, en particulier pour la détection des lésions ou maladies d'un tissu humain. Le document WO 99 44010 décrit une méthode et un dispositif d'imagerie hyper-spectrale pour la caractérisation d'un tissu de la peau. I1 s'agit, dans ce document, de détecter un mélanome. Cette méthode est une méthode de caractérisation de l'état d'une région d'intérêt de la peau, dans laquelle l'absorption et la diffusion de la lumière dans différentes zones de fréquence sont fonction de l'état de la peau. Cette méthode comprend la génération d'une image numérique de la peau incluant la région d'intérêt dans au moins trois bandes spectrales. Cette méthode met en oeuvre une classification et une caractérisation de lésions. Elle comprend une étape de segmentation servant à réaliser une discrimination entre les lésions et le tissu normal en fonction de l'absorption différente des lésions en fonction de la longueur d'onde, et une identification des lésions par analyse de paramètres tels que la texture, la symétrie, ou le contour. Enfin, la classification proprement dite est réalisée à partir d'un paramètre de classification L. Le document US 5,782,770 décrit un appareil de diagnostic de tissus cancéreux et une méthode de diagnostic comprenant la génération d'une image hyper-spectrale d'un échantillon de tissu et la comparaison de cette image hyper-spectrale à une image de référence afin de diagnostiquer un cancer sans introduire d'agents spécifiques facilitant l'interaction avec les sources lumineuses.
Le document WO 2008 103918 décrit l'utilisation de la spectrométrie d'imagerie pour la détection d'un cancer de la peau. I1 propose un système d'imagerie hyper-spectrale permettant d'acquérir rapidement des images à haute résolution en évitant le recalage d'images, les problèmes de distorsion d'images ou le déplacement des composants mécaniques. I1 comprend une source de lumière multispectrale qui illumine la zone de la peau à diagnostiquer, un capteur d'images, un système optique recevant la lumière de la zone de peau et élaborant sur un capteur d'image une cartographie de la lumière délimitant les différentes régions, et un prisme de dispersion positionné entre le capteur d'image et le système optique afin de projeter le spectre des régions distinctes sur le capteur d'image. Un processeur d'image reçoit le spectre et l'analyse afin d'identifier des anomalies cancéreuses. Le document WO 02/057426 décrit un appareil de génération d'une carte histologique bidimensionnelle à partir d'un cube de données hyper-spectrales tridimensionnelles représentant l'image scannée de col de l'utérus d'une patiente. I1 comprend un processeur d'entrée normalisant les signaux spectraux fluorescents collectés du cube de données hyper-spectrales et extrayant les pixels des signaux spectraux indiquant la classification des tissus cervicaux. I1 comprend également un dispositif de classification qui fait correspondre une catégorie de tissu à chaque pixel et un processeur d'image en lien avec le dispositif de classification qui génère une image bidimensionnelle du col de l'utérus à partir des pixels incluant des régions codées à l'aide de code couleurs représentant les classifications des tissus du col de l'utérus. Le document US 2006/0247514 décrit un instrument médical et une méthode de détection et d'évaluation d'un cancer à l'aide d'images hyper-spectrales. L'instrument médical comprend notamment un première étage optique illuminant le tissu, un séparateur spectral, un ou plusieurs polarisateurs, un détecteur d'image, un processeur de diagnostic et une interface de contrôle de filtre. La méthode peut être utilisée sans contact, à l'aide d'une caméra, et permet d'obtenir des informations en temps réel. Elle comporte notamment un prétraitement de l'information hyper-spectrale, la construction d'une image visuelle, la définition d'une région d'intérêt du tissu, la conversion des intensités des images hyper-spectrales en unités de densité optique, et la décomposition d'un spectre pour chaque pixel dans plusieurs composantes indépendantes. Le document US 2003/0030801 décrit une méthode permettant l'obtention d'une ou plusieurs images d'un échantillon inconnu en éclairant l'échantillon cible avec une distribution spectrale de référence pondérée pour chaque image. La méthode analyse la ou les images résultantes et identifie les caractéristiques cibles. La fonction spectrale pondérée ainsi générée peut être obtenue à partir d'un échantillon d'images de référence et peut par exemple être déterminée par une analyse de sa composante principale, par poursuite de projection ou par analyse de composantes indépendantes ACI. La méthode est utilisable pour l'analyse d'échantillons de tissus biologiques. Ces documents traitent les images hyper-spectrales soit comme des collections d'images à traiter individuellement, soit en réalisant une coupe du cube hyper-spectral afin d'obtenir un spectre pour chaque pixel, le spectre étant alors comparé à une base de référence. L'homme du métier perçoit clairement les déficiences de ces méthodes tant sur le plan méthodologique que sur le plan de la vitesse de traitement.
Par ailleurs, on peut citer les méthodes basées sur le système de représentation CIEL*a*b, et les méthodes d'analyse spectrale, notamment les méthodes fondées sur la mesure de réflectance, et celles fondées sur l'analyse du spectre d'absorption. Cependant ces méthodes ne sont pas adaptées aux images hyper-spectrales et à la quantité de données les caractérisant. I1 a donc été constaté que la combinaison d'une poursuite de projection et d'une séparation à vaste marge permettait d'obtenir une analyse fiable d'images hyper-spectrales dans un temps de calcul suffisamment court pour être industriellement exploitable.
Selon l'état de la technique, lorsque l'on utilise la poursuite de projection, le partitionnement des données est réalisé à pas constant. Ainsi, pour un cube hyper-spectral, on choisit la taille du sous-espace dans lequel on souhaite projeter les données spectrales puis, on découpe le cube de telle sorte qu'il y ait le même nombre de bandes dans chaque groupe. Cette technique présente l'inconvénient de réaliser un découpage arbitraire, qui ne suit donc pas les propriétés physiques du spectre. Dans son manuscrit de thèse (G. Rellier. Analyse de texture dans l'espace hyper-spectral par des méthodes probabilistes. Thèse de Doctorat, Université de Nice Sophia Antipolis, Novembre 2002.), G. Rellier propose un découpage à pas variable. Ainsi, on choisit toujours le nombre de groupes de bandes, mais cette fois-ci, les bornes des groupes sont choisies à pas variables de manière à minimiser la variance interne à chaque groupe.
Dans la même publication, il est proposé un algorithme itératif qui, à partir d'un découpage à pas constant, minimise la fonction Is pour chacun des groupes. Cette méthode permet de réaliser un partitionnement suivant les propriétés physiques du spectre, mais reste le choix du nombre de groupes, fixé par l'utilisateur.
Cette méthode n'est pas adaptée aux cas où les images à traiter sont d'une grande diversité, aux cas où il est difficile de fixer le nombre de groupes K, ou aux cas où l'utilisateur n'est pas en mesure de choisir le nombre de groupes.
I1 existe donc un besoin pour une méthode capable de fournir une analyse fiable d'images hyper-spectrales dans un temps de calcul suffisamment court, et capable de réduire automatiquement une image hyper-spectrale en images hyper-spectrales réduites avant le classement.
L'objet de la présente demande de brevet est un procédé d'analyse d'images hyper-spectrales. Un autre objet de la présente demande de brevet est un dispositif d'analyse d'images hyper-spectrales. Un autre objet de la présente demande de brevet est l'application du dispositif d'analyse à l'analyse de lésions cutanées. Le dispositif d'analyse d'une image hyper-spectrale comprend au moins un capteur apte à produire une série d'images dans au moins deux longueurs d'ondes, un moyen de calcul apte à classer les pixels d'une image selon une relation de classement à deux états, l'image étant reçue d'un capteur et un moyen d'affichage apte à afficher au moins une image résultante du traitement des données reçues du moyen de calcul. Le moyen de calcul comprend un moyen de détermination de pixels d'apprentissage liés à la relation de classement à deux états recevant des données d'un capteur, un moyen de calcul d'une poursuite de projection recevant des données du moyen de détermination de pixels d'apprentissage et étant apte à procéder à un découpage automatique du spectre de l'image hyper-spectrale, et un moyen de réalisation d'une séparation à vaste marge recevant des données du moyen de calcul d'une poursuite de projection, le moyen de calcul étant apte à produire des données relatives à au moins une image améliorée dans laquelle sont distinguables les pixels obtenus à l'issue de la séparation à vaste marge en fonction de leur classement selon la relation de classement à deux états.
Le dispositif d'analyse peut comprendre une cartographie de pixels classés reliée au moyen de détermination de pixels d'apprentissage.
Le moyen de calcul d'une poursuite de projection peut comprendre un premier moyen de découpage, un deuxième moyen de découpage et un moyen de recherche de vecteurs de projection. Le moyen de réalisation d'une séparation à vaste marge peut comprendre un moyen de détermination d'un hyperplan, et un moyen de classement des pixels en fonction de leur distance à l'hyperplan. Le moyen de calcul peut être apte à produire une image affichable par le moyen d'affichage en fonction de l'image hyperspectrale reçue d'un capteur et des données reçues du moyen de réalisation d'une séparation à vaste marge.
Selon un autre aspect, on définit un procédé d'analyse d'une image hyper-spectrale, provenant d'au moins un capteur apte à produire une série d'images dans au moins deux longueurs d'ondes, comprenant une étape d'acquisition d'une image hyper-spectrale par un capteur, une étape de calcul du classement des pixels d'une image hyper-spectrale reçue d'un capteur selon une relation de classement à deux états, l'affichage d'au moins une image améliorée résultante du traitement des données de l'étape d'acquisition d'une image hyperspectrale et des données de l'étape de calcul du classement des pixels d'une image hyper-spectrale.
L'étape de calcul comprend une étape de détermination de pixels d'apprentissage liés à la relation de classement à deux états, une étape de calcul d'une poursuite de projection de l'image hyperspectrale comprenant les pixels d'apprentissage, comprenant un découpage automatique du spectre de ladite image hyper-spectrale, et une étape de séparation à vaste marge, l'étape de calcul étant apte à produire au moins une image améliorée dans laquelle sont distinguables les pixels obtenus à l'issue de la séparation à vaste marge en fonction de leur classement selon la relation de classement à deux états.
L'étape de détermination de pixels d'apprentissage peut comprendre la détermination de pixels d'apprentissage en fonction de données d'une cartographie, l'étape de détermination de pixels d'apprentissage comprenant en outre l'introduction desdits pixels d'apprentissage dans l'image hyper-spectrale reçue d'un capteur.
L'étape de calcul d'une poursuite de projection peut comprendre une première étape de découpage portant sur les données issues de l'étape de détermination de pixels d'apprentissage et une étape de recherche de vecteurs de projection. L'étape de calcul d'une poursuite de projection peut comprendre une deuxième étape de découpage si la distance entre deux images issues de la première étape de découpage est supérieure à un premier seuil ou si la valeur maximale de la distance entre deux images issues de la première étape de découpage est supérieure à un deuxième seuil. L'étape de séparation à vaste marge peut comprendre une étape de détermination d'un hyperplan, et une étape de classement des pixels en fonction de leur distance à l'hyperplan, l'étape de détermination d'un hyperplan portant sur les données issues de l'étape de calcul de poursuite de projection. Selon un autre aspect, le dispositif d'analyse est appliqué à la détection de lésions cutanées d'un être humain, l'hyperplan étant déterminé en fonction de pixels d'apprentissage issus de clichés préalablement analysés. D'autres buts, caractéristiques et avantages apparaîtront à la lecture de la description suivante donnée uniquement en tant qu'exemple non limitatif et faite en référence en référence aux figures annexées sur lesquelles : -la figure 1 illustre le dispositif d'analyse d'images hyperspectrales ; et -la figure 2 illustre le procédé d'analyse d'images hyperspectrales.
Comme indiqué précédemment, il existe plusieurs façons d'obtenir une image hyper-spectrale. Toutefois, quelle que soit la méthode d'acquisition, il n'est pas possible de réaliser un classement directement sur l'image hyper-spectrale telle qu'acquise.
On rappelle à l'occasion qu'un cube hyper-spectral est un ensemble d'images réalisées chacune à une longueur d'onde donnée. Chaque image est à deux dimensions, les images étant empilées selon une troisième direction en fonction de la variation de la longueur d'onde leur correspondant. De part la structure tridimensionnelle obtenue, on appelle l'ensemble un cube hyper-spectral. L'appellation image hyper-spectrale peut également être employée pour désigner la même entité. Un cube hyper-spectral contient une quantité importante de données. Cependant, dans de tels cubes, on retrouve de grands espaces vides en terme d'information et des sous-espaces contenant beaucoup d'information. La projection des données dans un espace de dimension inférieure permet donc de regrouper l'information utile dans un espace réduit en n'engendrant que très peu de perte d'information. Cette réduction est alors importante pour la classification.
On rappelle que le but de la classification est de déterminer parmi l'ensemble des pixels composant l'image hyper-spectrale, ceux qui répondent favorablement ou défavorablement à une relation de classement à deux états. I1 est ainsi possible de déterminer les parties d'une scène présentant une caractéristique ou une substance.
La première étape est d'intégrer des pixels d'apprentissage dans l'image hyper-spectrale. En effet, pour réaliser une classification, on utilise une méthode dite supervisée. Ainsi, pour classer l'ensemble de l'image, cette méthode supervisée consiste à utiliser un certain nombre de pixels que l'on associe à une classe. Ce sont les pixels d'apprentissage. Puis, un séparateur de classe est calculé sur ces pixels, pour ensuite classer l'ensemble de l'image. Les pixels d'apprentissage sont en très petit nombre, comparé à la quantité d'information que contient une image hyper-spectrale. Ainsi, si l'on fait une classification directement sur le cube de données hyper-spectrales avec un petit nombre de pixels d'apprentissage, le résultat de la classification a de fortes chances d'être mauvais, conformément au phénomène de Hughes. On a donc intérêt à réduire la dimension de l'image hyper-spectrale analysée.
Un pixel d'apprentissage correspond à un pixel dont le classement est déjà connu. A ce titre, le pixel d'apprentissage reçoit une classe y,=1 ou y,=-1 qui servira lors de la séparation à vaste marge à déterminer le plan hyper-spectral. En d'autres termes, si on cherche à déterminer si une partie d'une image est relative à l'eau, le critère de classement sera « eau », une distribution sera caractéristique des zones sans « eau », une autre distribution sera caractéristique des zones avec « eau », toutes les zones de l'image étant dans une ou dans l'autre de ces distributions. Afin d'initialiser la méthode de classement, il sera nécessaire de présenter une distribution de pixels d'apprentissage caractéristique d'une zone avec « eau », et une distribution de pixels d'apprentissage caractéristique d'une zone sans « eau ». Le procédé sera alors ensuite capable de traiter tous les autres pixels de l'image hyper-spectrale afin de trouver les zones avec ou sans « eau ». I1 est également possible d'extrapoler l'apprentissage réalisé pour une image hyper spectrale à d'autres images hyper-spectrales présentant des similitudes. Les pixels de l'image hyper-spectrale appartiennent à l'une des deux distributions possibles. Une reçoit la classe y,=1 et l'autre reçoit la classe y,=-1, selon que leur classement répond positivement ou non au critère de classement à deux états choisie pour l'analyse. La poursuite de projection présentée ici vise donc une réduction du cube hyper-spectral permettant de garder un maximum d'informations induites par le spectre pour ensuite appliquer une classification adaptée au contexte par séparateur à vaste marge (SVM).
La poursuite de projection vise à produire une image hyperspectrale réduite comprenant des vecteurs de projection partitionnant le spectre de l'image hyper-spectrale. Plusieurs méthodes de partitionnement peuvent être employées. Cependant, dans tous les cas il s'agit d'optimiser la distance entre les pixels d'apprentissage. Pour cela il est nécessaire de pouvoir déterminer une distance statistique. L'indice I permet de déterminer cette distance statistique entre deux distributions de points. L'indice I choisi est l'indice de Kullback-Leibler I =DKL = 2(µl ù)T(E11+Ez1)' lai ûlaz)+tr(E- 1 •Ez+Ezl •E1 -2Id) (Eq. 1) Avec µi et 1.12, les moyennes des deux distributions, E1 et E2 les matrices de covariance des deux distributions et E12 = E1 2 Ez ; tr(M) correspondant à la trace de la matrice M, MT correspondant à la 10 matrice M transposée et Id la matrice identité. La méthode de poursuite de projection comprend un partitionnement du spectre en groupes, suivie de la détermination d'un vecteur de projection au sein de chaque groupe et la projection des vecteurs du groupe sur le vecteur de projection correspondant. 15 Le partitionnement du spectre est réalisé par une technique de découpage automatique, grâce à une fonction FI qui mesure la distance I entre bandes consécutives. Par analyse de cette fonction FI, on va rechercher les discontinuités du spectre au sens de l'indice de projection I, et ainsi, choisir ces points de discontinuité comme 20 frontières des différents groupes. La fonction FI est une fonction discrète, qui, pour chaque indice k allant de 1 à Nb-1, avec Nb le nombre de bandes du spectre, prend la valeur de la distance entre deux bandes consécutives. Les discontinuités du spectre vont donc apparaître comme étant les maxima 25 locaux de cette fonction FI. FI (k) = I (image(k ), image(k + 1)) (Eq. 2) Avec I la distance, ou l'indice, entre deux images. Une première étape du découpage du spectre est de rechercher les maxima locaux significatifs, c'est-à-dire ceux supérieurs à un 30 certain seuil. Ce seuil est alors égal à un pourcentage de la valeur moyenne de la fonction FI. Ce premier découpage permet, ainsi, de créer un nouveau groupe à chaque discontinuité du spectre.
Cependant, l'analyse des maxima locaux est insuffisante pour faire un découpage du spectre à la fois fin et fiable, le but de la seconde étape est d'analyser les groupes issus du premier découpage. On va donc s'intéresser aux groupes contenant un nombre de bandes trop élevé de manière à, soit les découper en plusieurs groupes, soit les garder tels qu'ils sont. Un exemple de la nécessité de cette deuxième étape est illustré par l'exemple d'une image hyper-spectrale contenant un pas d'échantillonnage spectral fin. A cause de ce pas d'échantillonnage, les propriétés physiques entre les bandes vont évoluer lentement. Par conséquent, la fonction FI va avoir tendance à être inférieure au seuil du premier découpage sur un grand nombre de bandes consécutives. Des bandes contenant des propriétés physiques différentes risquent donc de se retrouver dans un même groupe. I1 est alors nécessaire de redécouper les groupes définis à l'issue de la première étape. Par contre, dans le cas d'un pas d'échantillonnage plus important, il n'est pas nécessaire d'avoir recourt à un tel redécoupage. La manière de découper les groupes est connue en soi par l'homme du métier. Faire le choix de redécouper ou non un groupe a plusieurs intérêts. Le but initial est de récupérer de l'information non sélectionnée par le premier découpage, en ajoutant une dimension à l'espace de projection chaque fois que l'on scinde un groupe en deux. Cependant, on peut faire le choix de ne pas découper certains groupes en deux, de manière à ne pas privilégier de l'information d'une zone par rapport à une autre, et de ne pas avoir un découpage qui contient trop de groupes. Afin de contrôler le deuxième découpage, on définit un deuxième seuil en dessus duquel on procédera à un deuxième découpage.
Selon le comportement de la fonction FI, le découpage est réalisé différemment. Si la fonction FI est monotone et présente un point où la courbure est maximale sur l'intervalle considéré, alors le découpage intervient au point de courbure maximale de l'intervalle, si I(image(a),image(b))> seuill . Si la fonction FI est monotone et linéaire sur l'intervalle considéré, alors le découpage intervient au milieu de l'intervalle, si I(image(a),image(b))> seuill . Si la fonction FI n'est pas monotone et ne présente pas de maximum local sur l'intervalle considéré, alors le découpage intervient au milieu de l'intervalle, si I(image(a),image(b))> seuill . Si la fonction FI n'est pas monotone et présente un maximum local sur l'intervalle considéré, et si max(I(image(a),image(b)))> seuil2, [a,b]
alors le découpage intervient au niveau de ce maximum local. On définit seuill = moy(Fj)*C avec C généralement égal à deux. On définit seuil2 =seuill * C'avec C' généralement égal à deux tiers.
Le premier et le deuxième découpages permettent d'obtenir une partition du spectre en groupe contenant chacun plusieurs images de l'image hyper-spectrale.
La recherche des vecteurs de projection permet de calculer les vecteurs de projection à partir d'un découpage de l'espace initial en sous groupes. Pour rechercher des vecteurs de projection, on procède à une initialisation arbitraire des vecteurs de projection VkO. Pour cela, au sein de chaque groupe k, on choisit pour vecteur de projection Vk0 le vecteur correspondant au maximum local du groupe.
On calcule ensuite le vecteur V1 qui minimise un indice de projection I en maintenant les autres vecteurs constants. Ainsi V1 est calculé en maximisant l'indice de projection. On fait ensuite de même pour les K-1 autres vecteurs. I1 en résulte donc un ensemble de vecteurs Vkl avec 0<k<K.
On réitère le processus décrit précédemment, jusqu'à ce que les nouveaux vecteurs calculés n'évoluent plus au delà d'un seuil préalablement fixé.
Un vecteur de projection est homogène à une image d'une longueur d'onde donnée comprise dans l'image hyper-spectrale.
A l'issue du procédé de recherche des vecteurs de projection, chaque vecteur de projection peut être exprimé comme étant égal à la combinaison linéaire des images comprises dans l'image hyperspectrale adjacentes au vecteur de projection considéré.
L'ensemble des vecteurs de projection forme l'image hyper- spectrale réduite. On propose d'utiliser un séparateur à vaste marge (SVM) pour classer les pixels de l'image hyper-spectrale réduite. Comme illustré précédemment, on va chercher au sein d'une image les parties vérifiant un critère de classement et les parties ne vérifiant pas ce même critère de classement. Une image hyper-spectrale réduite correspond à un espace à K dimensions. Une image hyper-spectrale réduite est ainsi assimilable à un nuage de points dans un espace à K dimensions. On va appliquer à ce nuage de points la méthode de classification par SVM qui consiste à séparer un nuage de points en deux classes. Pour ce faire, on recherche un hyperplan qui sépare l'espace du nuage de points en deux. Les points se trouvant d'un cote de l'hyperplan sont associés à une classe et ceux se trouvant de l'autre coté sont associés à l'autre classe.
La méthode de SVM se décompose donc en deux étapes. La première étape, l'apprentissage, consiste à déterminer l'équation de l'hyperplan séparateur. Ce calcul nécessite d'avoir un certain nombre de pixels d'apprentissage dont la classe (y,) est connue. La seconde étape est l'association à chaque pixel de l'image d'une classe suivant sa position par rapport à l'hyperplan calculé lors de la première étape. La condition pour une bonne classification est donc de trouver l'hyperplan optimal, de manière à séparer au mieux les deux nuages de points. Pour ce faire, on cherche à optimiser la marge entre l'hyperplan séparateur et les points des deux nuages d'apprentissage.
Ainsi, si la marge à maximiser est notée 2 2 , alors l'équation de l'hyperplan séparateur s'écrit cW.x + b = 0, w et b étant les inconnues à déterminer. Finalement, en introduisant une classe (y,=+l et y1=-1), la recherche de l'hyperplan séparateur se résume ainsi à
c i ) w . + b +1 si yi = +1 minimiser tel que 2 [w•x+bù1 siyi =ù1 Le problème d'optimisation de l'hyperplan tel que présenté par l'équation (Eq. 3) n'est pas implantable en tant que tel. En 5 introduisant les polynômes de Lagrange, on obtient le problème dual: max W (X) = • • + 2, N
avec EX, • yi =0,X;>0, Vie [1,n] Avec N le nombre de pixels d'apprentissage. L'équation (Eq. 4)
10 représente un problème d'optimisation quadratique non spécifique aux SVM, et donc bien connu des mathématiciens. I1 existe divers algorithmes permettant d'effectuer cette optimisation.
S'il n'existe pas d'hyperplan linéaire entre deux classes de pixels, ce qui est souvent le cas lorsque l'on traite des données réelles,
15 on plonge le nuage de point dans un espace de dimension supérieure grâce à une fonction (ID. Dans ce nouvel espace, il devient alors possible de déterminer un hyperplan séparateur. La fonction (ID introduite est une fonction très complexe. Mais si l'on revient à l'équation d'optimisation dans l'espace dual, alors, on ne calcule pas
20 (ID mais le produit scalaire de (ID en deux points différents: maxW(X)=--E•X X. i=1 N avec EX, • yi =0,X;>0, Vie [1,n] i=1 Ce produit scalaire est appelé fonction noyau et noté 25 K(xi, x1)= (J(xi) t(x1)) . Dans la littérature, il existe de nombreuses fonctions noyaux. Pour notre application, nous utiliserons un noyau gaussien, qui est très utilisé en pratique, et donne de bons résultats (Eq. 3) (Eq. 4) 2 i=1 (Eq. 5) O2 zl ù z~ 2.62
6 apparaît alors comme un paramètre de réglage.
Lors du calcul de l'hyperplan séparateur, pour chaque pixel d'apprentissage, on calcule un coefficient a, (cf. (Eq. 5)). Pour la majeure partie des pixels d'apprentissage, ce coefficient a, est nul. Les pixels d'apprentissage pour lesquels a, est non nul sont nommés vecteurs support, car ce sont ces pixels qui définissent l'hyperplan séparateur: N (Eq. 7) Z=~ Lorsque l'algorithme parcourt l'ensemble des pixels d'apprentissage pour calculer le X, correspondant à chaque x;, le paramètre 6 du noyau gaussien, qui correspond à la largeur du noyau gaussien, permet de déterminer la taille du voisinage du pixel x; considéré, pris en compte pour le calcul du X, correspondant.
L'inconnue b de l'hyperplan est en suite déterminée en
résolvant: Xi [y, •(w•+b)û1]=0 (Eq. 8) Lorsque l'hyperplan est déterminé, il reste à classer l'ensemble de l'image en fonction de la position de chaque pixel vis-à-vis de l'hyperplan séparateur. Pour ce faire, on utilise une fonction de décision: N .Î (x)=•+b=• yl •~(xl) 4(.z)+b (Eq. 9) Cette relation permet de déterminer la classe y, associée à chaque pixel en fonction de sa distance à l'hyperplan. Les pixels sont alors considérés classés.
Comme les pixels de l'image hyper-spectrale réduite ne correspondent plus aux pixels de l'image hyper-spectrale produite par le capteur, on ne peut pas aisément reconstituer une image affichable. Cependant, les coordonnées spatiales de chaque pixel de l'image hyper-spectrale réduite correspondent toujours aux coordonnées de ( K(x~ , x1) = exp (Eq. 6) l'image hyper-spectrale produite par le capteur. I1 est alors possible de transposer la classification des pixels de l'image hyper-spectrale réduite à l'image hyper-spectrale produite par le capteur. L'image améliorée présentée à l'utilisateur est alors générée en intégrant des parties du spectre afin de déterminer une image affichable informatiquement, par exemple en déterminant des coordonnées RVB. Si le capteur fonctionne au moins en partie dans le spectre visible, il est possible d'intégrer des longueurs d'ondes discrètes afin de déterminer de façon fidèle les composantes R, V et B, et permettant d'avoir une image proche d'une photographie. Si le capteur fonctionne en dehors du spectre visible, ou dans une fraction du spectre visible, il est possible de déterminer des composantes R, V et B qui permettront d'obtenir une image en fausses couleurs.
La figure 1 présente les principaux éléments d'un dispositif d'analyse d'une image hyper-spectrale. On peut voir un capteur 1 hyper-spectral, un moyen de calcul 2 et un dispositif d'affichage 3. Le moyen de calcul 2 comprend un moyen de détermination 4 de pixels d'apprentissage relié en entrée à un capteur hyper-spectral et relié en sortie à un moyen de calcul 5 d'une poursuite de projection. Le moyen de calcul 5 d'une poursuite de projection est relié en sortie à un moyen de réalisation 6 d'une séparation à vaste marge relié à son tour en sortie au dispositif d'affichage 3. Par ailleurs, le moyen de détermination 4 de pixels d'apprentissage est relié en entrée à une cartographie 7 de pixels classés. Le moyen de réalisation 6 d'une séparation à vaste marge comprend un moyen de détermination 12 d'un hyperplan, et un moyen de classement 13 des pixels en fonction de leur distance à l'hyperplan. Le moyen de détermination 12 d'un hyperplan est relié en entrée à l'entrée du moyen de réalisation 6 d'une séparation à vaste marge et en sortie au moyen de classement 13 des pixels. Le moyen de classement 13 des pixels est relié en sortie à la sortie du moyen de réalisation 6 d'une séparation à vaste marge. Le moyen de calcul 5 d'une poursuite de projection comprend un premier moyen 10 de découpage, relié lui-même à un deuxième moyen 11 de découpage et un moyen de recherche 8 de vecteurs de projection. Lors de son fonctionnement, le dispositif d'analyse produit des images hyper-spectrales grâce au capteur 1. On notera que par capteur 1, on entend un capteur hyper-spectral unique, une collection de capteurs mono-spectraux, ou une combinaison de capteurs multispectraux. Les images hyper-spectrales sont reçues par le moyen de détermination 4 de pixels d'apprentissage qui insère dans chacune quelques pixels d'apprentissage en fonction d'une cartographie 7 de pixels classés. Pour ces pixels d'apprentissage, l'information de classement est remplie par la valeur présente dans la cartographie. Les pixels de l'image hyper-spectrale qui ne sont pas des pixels d'apprentissage n'ont à ce stade pas d'information relative au classement. Par cartographie 7 de pixels classés, on entend un ensemble d'images de forme similaire à une image comprise dans une image hyper-spectrale, et dans laquelle tout ou partie des pixels est classée dans une ou l'autre de deux distributions répondant à une relation de classement à deux états. Les images hyper-spectrales munies de pixels d'apprentissage sont ensuite traitées par le moyen de calcul 5 d'une poursuite de projection. Le premier moyen 10 de découpage et le deuxième moyen 11 de découpage compris dans le moyen de calcul 5 d'une poursuite de projection vont découper l'image hyper-spectrale selon la direction relative au spectre afin de former des ensembles d'images réduites comprenant chacune une partie du spectre. Pour cela, le premier moyen 10 de découpage applique l'équation (Eq. 2). Le deuxième moyen 11 de découpage réalise un nouveau découpage des données reçues du premier moyen 10 de découpage selon les règles précédemment décrites en relation avec les valeurs seuill et seuil2, sinon le deuxième moyen 11 de découpage est inactif.
Le moyen de recherche 8 de vecteurs de projection compris dans le moyen de calcul 5 d'une poursuite de projection, initialise arbitrairement l'ensemble des vecteurs de projection en fonction des données reçues du premier moyen 10 de découpage et/ou du deuxième moyen 11 de découpage, puis détermine les coordonnées d'un vecteur de projection qui minimise la distance I entre ledit vecteur de projection et les autres vecteurs de projection en appliquant l'équation (Eq. 1). Le même calcul est effectué pour les autres vecteurs de projection. On réitère les étapes de calcul précédentes jusqu'à ce que les coordonnées de chaque vecteur n'évoluent plus au delà d'un seuil prédéterminé. L'image hyper-spectrale réduite est alors formée des vecteurs de projection. L'image hyper-spectrale réduite est ensuite traitée par le moyen de détermination 12 d'un hyperplan, puis par le moyen de classement 13 des pixels en fonction de leur distance à l'hyperplan. Le moyen de détermination 12 d'un hyperplan applique les équations (Eq. 4) à (Eq. 8) afin de déterminer les coordonnées de l'hyperplan. Le moyen de classement 13 des pixels en fonction de leur distance à l'hyperplan applique l'équation (Eq. 9). Suivant la distance à l'hyperplan, les pixels sont classés, et reçoivent la classe y,=-1 ou y,=+l. En d'autres termes, les pixels sont classés selon une relation de classement à deux états, généralement la présence ou l'absence d'un composé ou d'une propriété.
Les données comportant les coordonnées (x ; y) et la classe des pixels sont ensuite traitées par le moyen d'affichage 3 qui est alors apte à distinguer les pixels selon leur classe, par exemple en fausses couleurs, ou en délimitant le contour délimitant les zones comprenant les pixels portant l'une ou l'autre des classes.
Dans le cas d'une application dermatologique, les capteurs 1 hyper-spectraux sont caractéristiques de la gamme de fréquence visible et infrarouge. De plus, la relation de classement à deux états peut être relative à la présence de lésions cutanées d'un type donné, la cartographie 7 de pixels classés est alors relative à ces dites lésions.
Selon le mode de réalisation, la cartographie 7 est constituée de pixels d'images hyper-spectrales de peau de patient analysées par des dermatologues afin de déterminer les zones lésées. La cartographie 7 peut comprendre uniquement des pixels de l'image hyper-spectrale classée ou des pixels d'autres images hyper-spectrales classées ou une combinaisons des deux. L'image améliorée produite correspond à l'image du patient en superposition de laquelle se trouvent affichées les zones lésées. La figure 2 illustre le procédé d'analyse et comprend une étape d'acquisition 14 d'images hyper-spectrales, suivie d'une étape de détermination 15 de pixels d'apprentissage, suivie d'une étape de poursuite 16 de projection, une étape de réalisation 17 d'une séparation à vaste marge et une étape d'affichage 18. L'étape de détermination 16 de vecteurs de projection comprend des étapes successives de premier découpage 20, de deuxième découpage 21 et de détermination 19 de vecteurs de projection. L'étape de réalisation 17 d'une séparation à vaste marge comprend les sous-étapes successives de détermination 22 d'un hyperplan, et de classement 23 des pixels en fonction de leur distance à l'hyperplan.

Claims (11)

  1. REVENDICATIONS1. Dispositif d'analyse d'une image hyper-spectrale, comprenant au moins un capteur (1) apte à produire une série d'images dans au moins deux longueurs d'ondes, un moyen de calcul (2) apte à classer les pixels d'une image selon une relation de classement à deux états, l'image étant reçue du capteur (1) et un moyen d'affichage (3) apte à afficher au moins une image résultante du traitement des données reçues du moyen de calcul (2) caractérisé en ce que le moyen de calcul (2) comprend : un moyen de détermination (4) de pixels d'apprentissage liés à la relation de classement à deux états recevant des données d'un capteur (1), un moyen de calcul (5) d'une poursuite de projection recevant des données du moyen de détermination (4) de pixels d'apprentissage et étant apte à procéder à un découpage automatique du spectre de l'image hyper-spectrale, et un moyen de réalisation (6) d'une séparation à vaste marge recevant des données du moyen de calcul (5) d'une poursuite de projection, le moyen de calcul (2) étant apte à produire des données relatives à au moins une image améliorée dans laquelle sont distinguables les pixels obtenus à l'issue de la séparation à vaste marge en fonction de leur classement selon la relation de classement à deux états.
  2. 2. Dispositif d'analyse selon la revendication 1, comprenant une cartographie (7) de pixels classés reliée au moyen de détermination (4) de pixels d'apprentissage.
  3. 3. Dispositif d'analyse selon l'une des revendications 1 ou 2, dans lequel le moyen de calcul (5) d'une poursuite de projection comprend un premier moyen (10) de découpage, un deuxième moyen(11) de découpage et un moyen de recherche (8) de vecteurs de projection.
  4. 4. Dispositif d'analyse selon l'une des revendications 1 à 3, dans lequel le moyen de réalisation (6) d'une séparation à vaste marge comprend un moyen de détermination (12) d'un hyperplan, et un moyen de classement (13) des pixels en fonction de leur distance à l'hyperplan.
  5. 5. Dispositif d'analyse selon l'une des revendications 1 à 4, dans lequel le moyen de calcul (2) est apte à produire une image affichable par le moyen d'affichage (3) en fonction de l'image hyperspectrale reçue d'un capteur (1) et des données reçues du moyen de réalisation (6) d'une séparation à vaste marge.
  6. 6. Procédé d'analyse d'une image hyper-spectrale, provenant d'au moins un capteur (1) apte à produire une série d'images dans au moins deux longueurs d'ondes, comprenant : une étape d'acquisition d'une image hyper-spectrale par un capteur (1), une étape de calcul du classement des pixels d'une image hyper-spectrale reçue d'un capteur (1) selon une relation de classement à deux états, l'affichage d'au moins une image améliorée résultante du traitement des données de l'étape d'acquisition d'une image hyperspectrale et des données de l'étape de calcul du classement des pixels d'une image hyper-spectrale, caractérisé en ce que l'étape de calcul comprend : une étape de détermination de pixels d'apprentissage liés à la relation de classement à deux états, une étape de calcul d'une poursuite de projection de l'image hyper-spectrale comprenant les pixels d'apprentissage, comprenant un découpage automatique du spectre de ladite image hyper-spectrale, et une étape de séparation à vaste marge, l'étape de calcul étant apte à produire au moins une image améliorée dans laquelle sont distinguables les pixels obtenus à l'issuede la séparation à vaste marge en fonction de leur classement selon la relation de classement à deux états.
  7. 7. Procédé d'analyse selon la revendication 6, dans lequel l'étape de détermination de pixels d'apprentissage comprend la détermination de pixels d'apprentissage en fonction de données d'une cartographie, l'étape de détermination de pixels d'apprentissage comprenant en outre l'introduction desdits pixels d'apprentissage dans l'image hyper-spectrale reçue d'un capteur.
  8. 8. Procédé d'analyse selon l'une des revendications 6 ou 7, dans lequel l'étape de calcul d'une poursuite de projection comprend une première étape de découpage portant sur les données issues de l'étape de détermination de pixels d'apprentissage et une étape de recherche (8) de vecteurs de projection.
  9. 9. Procédé d'analyse selon la revendication 8, dans lequel l'étape de calcul d'une poursuite de projection comprend une deuxième étape de découpage si la distance entre deux images issues de la première étape de découpage est supérieure à un premier seuil ou si la valeur maximale de la distance entre deux images issues de la première étape de découpage est supérieure à un deuxième seuil.
  10. 10. Procédé d'analyse selon l'une des revendications 6 à 9, dans lequel l'étape de séparation à vaste marge comprend une étape de détermination d'un hyperplan, et une étape de classement des pixels en fonction de leur distance à l'hyperplan, l'étape de détermination d'un hyperplan portant sur les données issues de l'étape de calcul de poursuite de projection.
  11. 11. Application d'un dispositif d'analyse selon l'une des revendications 1 à 5, à la détection de lésions cutanées d'un être humain, l'hyperplan étant déterminé en fonction de pixels d'apprentissage issus de clichés préalablement analysés.
FR0957625A 2009-10-29 2009-10-29 Procede et dispositif d'analyse d'images hyper-spectrales Expired - Fee Related FR2952216B1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR0957625A FR2952216B1 (fr) 2009-10-29 2009-10-29 Procede et dispositif d'analyse d'images hyper-spectrales
PCT/EP2010/066341 WO2011051382A1 (fr) 2009-10-29 2010-10-28 Procede et dispositif d'analyse d'images hyper-spectrales.
CA2778682A CA2778682A1 (fr) 2009-10-29 2010-10-28 Procede et dispositif d'analyse d'images hyper-spectrales
JP2012535824A JP2013509629A (ja) 2009-10-29 2010-10-28 ハイパースペクトル画像を解析するための方法および装置
US13/505,249 US20120314920A1 (en) 2009-10-29 2010-10-28 Method and device for analyzing hyper-spectral images
EP10771118A EP2494520A1 (fr) 2009-10-29 2010-10-28 Procede et dispositif d'analyse d'images hyper-spectrales.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0957625A FR2952216B1 (fr) 2009-10-29 2009-10-29 Procede et dispositif d'analyse d'images hyper-spectrales

Publications (2)

Publication Number Publication Date
FR2952216A1 true FR2952216A1 (fr) 2011-05-06
FR2952216B1 FR2952216B1 (fr) 2011-12-30

Family

ID=42102245

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0957625A Expired - Fee Related FR2952216B1 (fr) 2009-10-29 2009-10-29 Procede et dispositif d'analyse d'images hyper-spectrales

Country Status (6)

Country Link
US (1) US20120314920A1 (fr)
EP (1) EP2494520A1 (fr)
JP (1) JP2013509629A (fr)
CA (1) CA2778682A1 (fr)
FR (1) FR2952216B1 (fr)
WO (1) WO2011051382A1 (fr)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8571325B1 (en) * 2011-03-31 2013-10-29 Raytheon Company Detection of targets from hyperspectral imagery
US9031354B2 (en) 2011-03-31 2015-05-12 Raytheon Company System and method for post-detection artifact reduction and removal from images
US9064308B2 (en) 2011-04-13 2015-06-23 Raytheon Company System and method for residual analysis of images
JP6001245B2 (ja) * 2011-08-25 2016-10-05 株式会社 資生堂 皮膚評価装置、皮膚評価方法、及び皮膚評価プログラム
US8805115B2 (en) 2012-11-02 2014-08-12 Raytheon Company Correction of variable offsets relying upon scene
CN103235872A (zh) * 2013-04-03 2013-08-07 浙江工商大学 一种基于粒子群算法的多维指标的投影寻踪动态聚类方法
CN105979853A (zh) * 2013-12-13 2016-09-28 莱文尼尔研究有限公司 医学成像
CN103679539A (zh) * 2013-12-25 2014-03-26 浙江省公众信息产业有限公司 多层次指标的投影寻踪动态聚类方法与装置
EP3529591B1 (fr) * 2016-10-20 2021-08-04 Optina Diagnostics, Inc. Procédé et système de détection d'une anomalie dans un tissu biologique
US11071459B2 (en) * 2016-12-08 2021-07-27 Koninklijke Philips N.V. Surface tissue tracking
US10580130B2 (en) * 2017-03-24 2020-03-03 Curadel, LLC Tissue identification by an imaging system using color information
WO2019230356A1 (fr) 2018-05-31 2019-12-05 パナソニックIpマネジメント株式会社 Dispositif d'apprentissage, dispositif d'inspection, procédé d'apprentissage et procédé d'inspection
CN113624691B (zh) * 2020-05-07 2022-10-04 南京航空航天大学 一种基于空间-光谱相关性的光谱图像超分辨率映射方法
CN112837293B (zh) * 2021-02-05 2023-02-14 中国科学院西安光学精密机械研究所 基于高斯函数典型关联分析的高光谱图像变化检测方法
CN112967241B (zh) * 2021-02-26 2023-09-12 西安理工大学 一种基于局部梯度引导的高光谱图像异常检测方法
US20230196816A1 (en) * 2021-12-16 2023-06-22 The Gillett Company LLC Digital imaging systems and methods of analyzing pixel data of an image of a skin area of a user for determining skin hyperpigmentation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060245631A1 (en) * 2005-01-27 2006-11-02 Richard Levenson Classifying image features
US7219086B2 (en) * 1999-04-09 2007-05-15 Plain Sight Systems, Inc. System and method for hyper-spectral analysis

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782770A (en) * 1994-05-12 1998-07-21 Science Applications International Corporation Hyperspectral imaging methods and apparatus for non-invasive diagnosis of tissue for cancer
US6081612A (en) 1997-02-28 2000-06-27 Electro Optical Sciences Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
US6750964B2 (en) 1999-08-06 2004-06-15 Cambridge Research And Instrumentation, Inc. Spectral imaging methods and systems
US20020146160A1 (en) 2001-01-19 2002-10-10 Parker Mary F. Method and apparatus for generating two-dimensional images of cervical tissue from three-dimensional hyperspectral cubes
CA2631564A1 (fr) 2004-11-29 2006-06-01 Hypermed, Inc. Imagerie medicale en hyperespace spectral destinee a l'evaluation de tissus et de tumeurs
AU2007217794A1 (en) * 2006-02-16 2007-08-30 Clean Earth Technologies, Llc Method for spectral data classification and detection in diverse lighting conditions
US8315692B2 (en) 2007-02-22 2012-11-20 Sheinis Andrew I Multi-spectral imaging spectrometer for early detection of skin cancer

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7219086B2 (en) * 1999-04-09 2007-05-15 Plain Sight Systems, Inc. System and method for hyper-spectral analysis
US20060245631A1 (en) * 2005-01-27 2006-11-02 Richard Levenson Classifying image features

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BRUZZONE L ET AL: "Classification of Hyperspectral Remote Sensing Images With Support Vector Machines", IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING, IEEE SERVICE CENTER, PISCATAWAY, NJ, US LNKD- DOI:10.1109/TGRS.2004.826821, vol. 42, no. 8, 1 August 2004 (2004-08-01), pages 1778 - 1790, XP011116375, ISSN: 0196-2892 *

Also Published As

Publication number Publication date
JP2013509629A (ja) 2013-03-14
FR2952216B1 (fr) 2011-12-30
CA2778682A1 (fr) 2011-05-05
US20120314920A1 (en) 2012-12-13
WO2011051382A1 (fr) 2011-05-05
EP2494520A1 (fr) 2012-09-05

Similar Documents

Publication Publication Date Title
FR2952216A1 (fr) Procede et dispositif d&#39;analyse d&#39;images hyper-spectrales
EP1932118B2 (fr) Procede et appareil de caracterisation des imperfections de la peau et procede d&#39;appreciation de l&#39;effet anti-vieillissement d&#39;un produit cosmetique
EP3608834A1 (fr) Procede d&#39;analyse d&#39;une empreinte
WO2013098512A1 (fr) Procédé et dispositif de détection et de quantification de signes cutanés sur une zone de peau
WO2016151249A1 (fr) Procédé de détermination de l&#39;état d&#39;une cellule
EP2025744A1 (fr) Procédé et système pour compter en ligne et in situ des cellules dans un milieu de culture biologique
EP3775840B1 (fr) Methode de detection de cellules presentant au moins une anomalie dans un echantilllon cytologique
WO2012001289A1 (fr) Procede et dispositif de detection et de quantification de signes cutanes sur une zone de peau
EP2494521A1 (fr) Dispositif et procédé de compensation de relief d&#39;images hyper-spectrales
WO2018060589A1 (fr) Procédé de numération de leucocytes dans un échantillon
EP3956712B1 (fr) Dispositif de microscopie holographique hyperspectrale par fusion de capteurs
WO2022084618A1 (fr) Procédé de classification d&#39;une image d&#39;entrée représentant une particule dans un échantillon
EP2666147A1 (fr) Détermination de l&#39;efficacité d&#39;un traitement
WO2019135060A1 (fr) Système d&#39;imagerie holographique et procédé d&#39;analyse par imagerie holographique avec détection de défauts dans la chambre d&#39;observation
WO2023139328A1 (fr) Procédé de détection automatisée d&#39;un élément biologique dans un échantillon de tissu
CA2858931A1 (fr) Procede d&#39;analyse d&#39;un echantillon biologique, et dispositif mettant en oeuvre ce procede
WO2012098227A1 (fr) Determination par analyse en composantes independantes de l&#39;efficacite d&#39;un traitement
WO2010081972A1 (fr) Dispositif et procédé de caractérisation d&#39;une surface de peau

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20150630