FR3052580A1 - Procede d'extraction de contour et procede de controle geometrique integrant ce procede ; dispositif d'extraction de contour et dispositif de controle geometrique integrant ce dispositif d'extraction - Google Patents

Procede d'extraction de contour et procede de controle geometrique integrant ce procede ; dispositif d'extraction de contour et dispositif de controle geometrique integrant ce dispositif d'extraction Download PDF

Info

Publication number
FR3052580A1
FR3052580A1 FR1655410A FR1655410A FR3052580A1 FR 3052580 A1 FR3052580 A1 FR 3052580A1 FR 1655410 A FR1655410 A FR 1655410A FR 1655410 A FR1655410 A FR 1655410A FR 3052580 A1 FR3052580 A1 FR 3052580A1
Authority
FR
France
Prior art keywords
contour
pixels
image
steps
contour extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1655410A
Other languages
English (en)
Other versions
FR3052580B1 (fr
Inventor
Andre Chandelle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran Aircraft Engines SAS
Original Assignee
SNECMA SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SNECMA SAS filed Critical SNECMA SAS
Priority to FR1655410A priority Critical patent/FR3052580B1/fr
Publication of FR3052580A1 publication Critical patent/FR3052580A1/fr
Application granted granted Critical
Publication of FR3052580B1 publication Critical patent/FR3052580B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20161Level set
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Procédé d'extraction de contour comprenant les étapes suivantes : a) on fournit une image initiale faisant apparaître un contour; b) à l'aide d'un ordinateur, on calcule une image affinée par interpolation de l'image initiale, à l'aide d'un interpolateur de type « sinus cardinal » ; et c) à l'aide d'un ordinateur, on détermine le contour à partir de l'image affinée. Procédé de contrôle géométrique d'un objet intégrant un tel procédé. Dispositif d'extraction de contour pour la mise en œuvre du procédé d'extraction de contour, et dispositif de contrôle géométrique intégrant un tel dispositif d'extraction de contour.

Description

DOMAINE DE L'INVENTION L'invention concerne un procédé d'extraction de contour, et un procédé de contrôle géométrique d'objet faisant appel à ce procédé d'extraction de contour.
ARRIERE-PLAN TECHNOLOGIQUE
Le contrôle géométrique d'un objet, par exemple une pièce mécanique, consiste généralement à comparer la forme de cet objet à une géométrie nominale prédéterminée. Cette géométrie nominale est habituellement décrite sous forme d'un fichier informatique appelé 'définition numérique', qui définit la forme ou la géométrie nominale de l'objet.
Pour réaliser un tel contrôle, il est donc nécessaire de mesurer l'objet ; le résultat de cette mesure peut notamment être obtenu sous forme de contour(s) de l'objet. Par 'contour', on désigne ici une courbe dans un plan représentant une limite de l'objet, c'est-à-dire linterface entre l'objet et le milieu environnant ou voisin.
Le terme 'objet' désigne ici de manière large tout objet, pièce, ou même milieu dont le matériau est différent du matériau constituant un milieu voisin. Dans le domaine médical, un 'objet' peut ainsi être constitué par un organe se distinguant des organes voisins, etc.
De manière connue en soi, les contours d'un objet peuvent être mesurés par tomographie. Un tomographe permet d'obtenir une image (numérique) représentant une section d'un objet. L'incertitude de mesure que l'on peut attendre de procédés de mesure fondés sur une telle image (ou coupe tomographique) dépend naturellement de la résolution de cette image.
Aussi, pour que les incertitudes de mesure soient faibles, la mesure d'objets par tomographie exige habituellement de prendre de nombreuses coupes tomographiques, chacune représentant une faible partie de l'objet à mesurer, mais chaque coupe avantageusement ayant une résolution très fine.
Cette pratique présente l'inconvénient de nécessiter la prise et l'exploitation d'un très grand nombre de coupes tomographiques. Il existe donc un besoin pour une méthode de contrôle d'objet permettant de réaliser le contrôle d'un objet de manière plus simple que celle décrite ci-dessus.
Plus généralement, il existe également un besoin, dans des images telles que des coupes tomographiques représentant une section d'un objet, ou encore faisant apparaître un contour, d'identifier avec la précision la plus grande possible la position d'un contour apparaissant dans ces images. PRESENTAΉON DE ΕΊΝΥΕΝΉΟΝ L'invention vise à répondre aux besoins indiqués précédemment. Dans ce but, selon l'invention il est proposé un procédé d'extraction de contour comprenant les étapes suivantes : a) on fournit une image initiale faisant apparaître un contour ; b) à l'aide d'un ordinateur, on calcule une image affinée par interpolation de l'image initiale, à l'aide d'un interpolateur de type « sinus cardinal » ; c) à l'aide d'un ordinateur, on extrait le contour à partir de l'image affinée.
En effet, il est apparu qu'avantageusement, en lissant une image par une ou plusieurs opérations d'interpolation, on obtient une image affinée qui permet d'identifier, de manière plus précise que l'image initiale, la position d'un contour dans l'image.
Ce gain de précision permet donc, pour une incertitude de mesure visée donnée, d'utiliser des images ou coupes tomographiques de résolution plus faible que suivant la technique antérieure.
La taille (en nombre de pixels) des coupes tomographiques en pratique étant fixe, le gain de précision permet donc d'augmenter la taille des coupes tomographiques utilisées pour détecter un contour dans l'image, et donc de réduire le nombre de coupes tomographiques nécessaires pour contrôler la géométrie d'un objet. L'image initiale est de préférence une image représentant une section d'un objet. Elle peut être également une vue extérieure d'un objet, ou autre. A l'étape c), l'extraction de contour peut être réalisée par toute méthode disponible. On peut par exemple, de manière connue en soi, rechercher les extremums de la dérivée première, en général les maximums locaux de l'intensité du gradient, ou encore rechercher les points d'annulation de la dérivée seconde, en général les points d'annulation du laplacien ou d'une expression différentielle non-linéaire, etc.
En outre, le procédé d'extraction de contour peut fournir un contour sous différentes formes. Le contour peut par exemple être extrait sous forme vectorielle : Il est alors défini par une série d'entités comme des segments ou des splines. Il peut également être extrait ou identifié sous forme d'un ensemble de pixels, qui forment le contour cherché dans l'image affinée. Ces pixels doivent former un contour, c'est-à-dire pouvoir être ordonnés de manière à constituer une suite de pixels adjacents deux à deux.
Naturellement, le procédé selon l'invention peut servir à identifier plusieurs contours à partir d'une image initiale, et non un seul.
Dans un mode de mise en œuvre, l'étape b) de calcul de limage affinée comporte au moins deux étapes successives d'interpolation pour produire l'image affinée. Le recours à plusieurs opérations successives d'interpolation permet généralement de déterminer le contour avec une précision plus importante qu'une seule opération d'interpolation.
Différentes méthodes peuvent être utilisées pour l'étape c) d'extraction de contour.
Dans un mode de mise en œuvre, l'étape c) d'extraction du contour de l'objet comporte les étapes suivantes : cl) on identifie des pixels d'objet considérés comme faisant partie de l'objet et des pixels de fond considérés comme faisant partie d'un milieu extérieur à l'objet, par seuillage, en fonction d'un seuil de fond et d'un seuil d'objet prédéterminés ; et c4) on identifie le contour de l'objet en fonction des pixels de fond et/ou des pixels d'objet.
Dans un mode de mise en œuvre alternatif, l'étape c) d'extraction du contour de l'objet comporte les étapes suivantes : cl) on identifie les pixels d'objet et les pixels de fond par seuillage adaptatif ; et c4) on identifie le contour de l'objet en fonction des pixels de fond et/ou des pixels d'objet.
Une opération d'identification de pixels par seuillage adaptatif est définie ici comme une opération permettant d'identifier un ensemble de pixels dont les valeurs sont définies par comparaison avec un seuil, cette opération faisant appel à un algorithme itératif durant lequel la valeur du seuil varie, l'algorithme s'interrompant lorsqu'un critère prédéterminé est atteint. L'étape cl permet d'identifier avec un degré élevé de certitude des pixels comme étant soit des pixels de l'objet, soit des pixels du fond (Conventionnellement, on appelle ici 'fond' le milieu ou environnement extérieur à l'objet). L'étape c) de détermination du contour de l'objet peut comporter en outre les étapes suivantes entre les étapes cl et c4 : c2) on identifie une zone source connexe composée soit de pixels d'objet, soit de pixels de fond ; c3) on ajoute à la zone source connexe les pixels adjacents d'objet ou respectivement de fond qui satisfont à un premier critère de la forme : I P - M 1 < ΔΗ Où P est la valeur du pixel ; M est la moyenne des valeurs des pixels de la zone connexe ; ΔΗ est une valeur-seuil prédéterminée. L'étape c2 permet d'identifier des zones de pixels connexes, qui sont des parties dimage déjà identifiées comme étant soit des parties de l'objet, soit des parties du fond.
Appliquée à l'ensemble de l'image affinée, l'étape c2 permet d'identifier dans cette image un certain nombre de zones sources connexes comme représentant soit l'objet, soit le fond. A partir de là, l'étape c3 est une étape dite 'de croissance', qui permet d'augmenter la taille de ces zones en y intégrant des pixels supplémentaires, dès lors que le premier critère indiqué ci-dessus est satisfait. A l'étape c3, on n'ajoute naturellement à une zone source de pixels de fond, que des pixels de fond, ou à une zone source de pixels d'objet, que des pixels d'objet. L'opération de croissance permet d'augmenter la proportion de pixels de Hmage affinée identifiés comme étant des pixels soit de i'objet, soit du fond, et donc de diminuer le nombre de pixels 'indéterminés', non affectés à l'un ou l'autre de ces groupes, jusqu'à ce que la totalité des pixels soient classés dans l'un ou l'autre de ces deux groupes.
Selon une variante, une opération de croissance telle que l'opération de croissance indiquée ci-dessus peut être réalisée en utilisant une valeur-seuil V variable, et non prédéterminée.
Par exemple, dans un mode de mise en œuvre, l'étape c3) est répétée de manière itérative ; lors d'une première itération, on affecte à V une valeur minimale ; à chaque itération, on fait croître la valeur de V ; et les itérations réalisées à l'étape c3 sont interrompues lorsqu'un deuxième critère prédéterminé est atteint.
Dans un mode de mise en œuvre préférentiel, on réalise successivement deux opérations de croissance telles qu'indiquées ci-dessus : - Une opération dite de 'première croissance', au cours de laquelle on utilise une valeur-seuil prédéterminée ; suivie par - Une opération dite de 'deuxième croissance, au cours de laquelle on utilise une valeur-seuil variable, et qui est réalisée de la manière indiquée ci-dessus (l'étape c3 est répétée de manière itérative ; lors d'une première itération, on affecte à V une valeur minimale ; à chaque itération, on fait croître la valeur de V ; et les itérations réalisées à l'étape c3 sont interrompues lorsqu'un deuxième critère prédéterminé est atteint).
Le procédé selon l'invention peut être mis en œuvre à partir de tout type d'images. L'acquisition de l'image peut faire partie du procédé.
Ainsi dans un mode de mise en œuvre, l'étape a) comporte une étape d'acquisition d'une image d'une section de l'objet à l'aide d'un tomographe. L'image acquise à l'aide du tomographe peut avoir une résolution quelconque, et notamment une basse résolution, c'est-à-dire une taille de pixel représentant une distance réelle égale à au moins 0,2 mm.
Dans un mode de mise en œuvre, l'étape a) comporte une étape d'augmentation de la résolution de l'image initiale.
Un second objet de l'invention est un procédé de contrôle géométrique d'un objet, comportant les étapes suivantes : A. on détermine un contour de l'objet à l'aide du procédé d'extraction de contour tel que défini précédemment ; B. on effectue un changement de repère du contour de l'objet de telle sorte que celui-ci soit exprimé dans un même repère qu'un contour de référence de l'objet ; C. on compare le contour de l'objet à la définition numérique de celui-ci de manière à identifier et/ou quantifier au moins un écart entre l'objet et la définition numérique de celui-ci.
Le contour de référence désigne naturellement une courbe plane définissant la forme nominale, ou la forme théorique de l'objet, par rapport à laquelle on veut comparer sa forme réelle, représentée par le contour déterminé à l'étape A.
Dans un mode particulier de réalisation, les différentes étapes du procédé d'extraction de contour ou du procédé de contrôle géométrique selon l'invention, sont déterminées par des instructions de programmes d'ordinateurs.
En conséquence, l'invention vise aussi un programme d'ordinateur sur un support d'informations, ce programme étant susceptible d'être mis en oeuvre dans un dispositif d'extraction de contour ou de contrôle géométrique, ou plus généralement dans un ordinateur, et comportant des instructions de code de programme pour l'exécution des étapes de l'un des procédés (d'extraction de contour, ou de contrôle géométrique) définis précédemment, lorsque le programme est exécuté sur un calculateur.
Ce programme peut utiliser n'importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans nΊmporte quelle autre forme souhaitable. L'invention vise aussi un support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions pour l'exécution des étapes du procédé (d'extraction de contour ou de contrôle géométrique) défini précédemment.
Le support d'informations peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microéiectronique, ou encore un moyen d'enregistrement magnétique, par exempie une clé USB ou un disque dur.
Alternativement, le support d'informations peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé d'extraction de contour ou de contrôle géométrique. L'invention vise aussi un dispositif d'extraction de contour comportant a) un module d'entrée, permettant la prise en compte d'une image initiale faisant apparaître un contour ; b) un module de calcul d'image affinée, configuré pour calculer une image affinée par interpolation de l'image initiale, à l'aide d'un interpolateur de type « sinus cardinal » ; et c) un module de détermination de contour, configuré pour déterminer ledit contour à partir de l'image affinée. L'invention vise enfin un dispositif de contrôle géométrique d'objet pour le contrôle géométrique d'un objet, comportant : A. une unité de détermination de contour d'objet, comprenant un dispositif d'extraction de contour tel que défini précédemment et permettant ainsi l'extraction d'un contour de l'objet ; B. une unité de changement de repère, configurée pour appliquer un changement de repère au contour de l'objet de telle sorte que celui-ci soit exprimé dans un même repère qu'un contour de référence de l'objet ; C. une unité de comparaison, configurée pour comparer le contour de l'objet à la définition numérique de celui-ci de manière à identifier et/ou quantifier au moins un écart entre l'objet et la définition numérique de celui-ci. BREVE DESCRIPΉOIM DES DESSINS L'invention sera bien comprise et ses avantages apparaîtront mieux à la lecture de la description détaillée qui suit, de modes de réalisation représentés à titre d'exemples non limitatifs. La description se réfère aux dessins annexés, sur lesquels : - la figure lA est une représentation schématique d'une image représentant une section d'une pièce ; - la figure IB est une représentation schématique des contours nominaux de la pièce représentée sur l'image lA. - la figure 2A est une vue partielle d'une Image initiale obtenue lors de la mise en œuvre du procédé dans un premier mode de mise en œuvre de l'invention ; - la figure 2B est une vue partielle de l'image affinée obtenue à partir de l'image de résolution accrue représentée sur la figure 2A, lors de la mise en œuvre du procédé dans le premier mode de mise en œuvre de Hnvention ; - la figure 3 est un diagramme schématique faisant apparaître une première répartition en pixels d'objet et en pixels de fond des pixels d'une section de l'image affinée, à l'issue de l'étape dl dans un mode de mise en œuvre du procédé selon llnvention ; - la figure 4 est un diagramme schématique faisant apparaître une deuxième répartition en pixels d'objet et en pixels de fond des pixels de la section de l'image affinée déjà analysée pour la figure 3, à l'issue de l'étape d3 dans le même mode de mise en œuvre du procédé selon l'invention que pour la figure 3 ; - la figure 5 est un diagramme schématique faisant apparaître les variations de valeurs des pixels suivant une section de l'image par une droite ; - la figure 6 est un diagramme schématique présentant les étapes d'un procédé de contrôle de pièce selon l'invention ; - les figures 7A et 7B sont des diagrammes schématiques représentant un contour de l'objet, respectivement représenté suivant l'approche 'voisinage 8', et suivant l'approche ' voisinage 4' ; - la figure 8 est un diagramme schématique représentant sous forme fonctionnelle un dispositif de contrôle géométrique, dans un mode de réalisation de l'invention ; et - la figure 9 est un diagramme schématique représentant l'architecture matérielle du dispositif de contrôle géométrique représenté sur la figure 8.
DESCRIPTON DETAILLEE DE L'INVENTON
Dans un premier temps, la mise en œuvre de l'invention pour le contrôle de pièces va être présentée dans le cadre du contrôle géométrique d'une pièce représentée sur la figure lA.
La pièce représentée sur la figure lA est une pièce industrielle 10 dont on cherche à vérifier la conformité par rapport à sa définition numérique.
Le plan de contrôle choisi impose notamment de vérifier la conformité, dans un plan de coupe prédéterminé, du contour mesuré 12M de la pièce par rapport au contour nominal 12N correspondant extrait à partir de la définition numérique et représenté sur la figure IB.
Le procédé de contrôle selon llnvention comprend les étapes indiquées sur la figure 6 : A. on extrait le contour 12M de l'objet à l'aide du procédé d'extraction de contour selon l'invention (un exemple détaillé de mise en œuvre de ce procédé va être présenté plus loin). B. on effectue un changement de repère, de telle sorte que le contour de la pièce soit placé dans le même repère qu'un contour de référence 12N (généralement le contour nominal) de l'objet. Le contour de référence 12N est obtenu habituellement de manière classique à partir de la définition numérique de l'objet 10. C. on compare le contour de l'objet à la définition numérique de celui-ci de manière à identifier et/ou quantifier au moins un écart entre l'objet et la définition numérique de celui-ci.
Un exemple de mise en œuvre du procédé d'extraction de contour selon l'invention va maintenant être présenté. Ce mode de mise en œuvre peut notamment être utilisé pour le procédé de contrôle de pièce présenté ci-dessus.
Le procédé d'extraction de contour va être présenté dans le cadre du contrôle géométrique de pièces par tomographie. Il peut cependant être appliqué naturellement pour la recherche de contour dans toute image dans laquelle apparaît un contour. L'objectif du procédé d'extraction de contour est d'obtenir un contour continu situé dans la zone de transition entre l'extérieur et l'intérieur de la pièce (cette zone va être présentée plus en détail ultérieurement). Naturellement, dans le cas où l'on extrait un contour d'objet (par opposition à un contour quelconque, par exemple un contour dans une image de synthèse, etc.), le contour obtenu doit de préférence être continu de manière à correspondre à la forme réelle de l'objet.
A - FOURNITURE DE L'IMAGE INHIALE
On acquiert une image d'une section de l'objet à l'aide d'un tomographe. Dans le mode de réalisation présenté, la résolution est de 0,4 mm par pixel, et chaque image acquise comporte 1000 x 1000 pixels. Les images acquises sont les images initiales fournies pour la mise en oeuvre du procédé d'extraction de contour. Un exemple d'image initiale est donné par la figure 2A.
B - CALCUL DE L'IMAGE AFFINEE A l'aide d'un ordinateur, on calcule une image affinée par interpolation de l'image initiale, à l'aide d'un interpolateur de type « sinus cardinal ».
Un exemple d'image affinée est donné par la figure 2B. Sur cette figure sont représentées trois courbes.
Les courbes Ko et Kf sont des courbes délimitant les pixels faisant 'manifestement' partie de l'objet, et respectivement les pixels faisant 'manifestement' partie du fond. La partie de l'image située entre les courbes Ko et Kf est une zone de transition 20, en forme générale de bande, plus ou moins large. L'objectif du procédé d'extraction de contour est donc de déterminer le contour K, représenté sur la figure 2B, qui définit de la manière la plus précise possible l'interface entre i'objet 10 et le milieu environnant, le fond F. L'interpolation par sinus cardinai consiste à calcuier une nouvelle valeur de la manière suivante :
Dans un premier temps, on crée des pixels intermédiaires (on élève la résolution de l'image) dans une direction de l'image, et on affecte à chacun des pixels ainsi créés une vaieur interpolée, calculée à partir d'une courbe sinus cardinai caiculée ou interpolée à partir de plusieurs pixels consécutifs dans cette direction.
Ensuite, dans la direction orthogonale à la première direction, on crée de même des pixeis intermédiaires aux pixeis d'origine et à ceux qui ont été créés dans la première étape. De la même façon que dans la première étape, on leur affecte une valeur interpolée calculée à partir d'une courbe sinus cardinal calculée sur plusieurs pixels consécutifs dans cette nouvelle direction. La valeur de chaque pixel interpolé est obtenue à partir des valeurs des pixels voisins. Par exemple, on peut calculer la valeur d'un pixel à partir des valeurs des huit plus proches pixels voisins. L'opération d'interpolation précédente peut être réalisée une seule fois, ou peut être répétée deux fois ou davantage. Elle permet d'obtenir une image affinée, qui permet d'extraire un contour plus lissé et précis que l'image initiale.
C - EXTRACTION DU CONTOUR DE L'OBJET
Une fois obtenue l'image affinée, on réalise l'extraction (ou détermination) du contour à partir de celle-ci. Lorsque le contour doit être fermé comme par exemple lorsqu'il s'agit du contour d'une pièce, le contour obtenu doit de préférence être un contour fermé représentatif du contour de la pièce, c'est-à-dire passant aussi précisément que possible à la limite entre la pièce et le milieu environnant.
Dans le mode de mise en oeuvre présenté, cette étape comprend essentiellement quatre opérations cl à c4, qui vont maintenant être décrites en détail. cl Identification de zones connexes de pixels d'obiet et de pixels de fond par seuillage adaptatif
La figure 3 représente, à titre d'exemple explicatif, une courbe qui fait apparaître la valeur des pixels (exprimée en termes de 'niveau de gris' NG) le long d'une section transverse de l'image. Cette section transverse S, visible sur la figure 2B, est un plan de coupe de l'image affinée sensiblement perpendiculaire au contour cherché. L'abscisse curviligne le long de la section S, dans le sens allant du cœur de la pièce vers l'extérieur de celle-ci, est notée s.
Au cours de l'étape cl, on identifie des pixels d'objet considérés comme faisant partie de l'objet et des pixels de fond considérés comme faisant partie d'un milieu extérieur à l'objet, par seuillage adaptatif. A ce stade du procédé, les pixels identifiés comme pixels de fond sont tous les pixels de l'image affinée dont la valeur est inférieure à un « seuil de fond » Sf. Inversement, les pixels identifiés comme pixels d'objet sont tous les pixels de l'image affinée dont la valeur est supérieure à un « seuil d'objet » So (évidemment, So > Sf). L'écart entre les seuils So et Sf correspond à des valeurs de pixels considérées comme incertaines. Ces pixels constituent la zone de transition 20 (Fig.2B).
Dans le mode de mise en œuvre présenté, les valeurs des seuils objet et de fond varient lors de la mise en œuvre de l'algorithme. On cherche à déterminer pour chacun de ces seuils une valeur telle que les pixels de valeur supérieure au seuil (ou respectivement inférieure au seuil) forment une proportion minimale prédéterminée de l'image, considérée comme suffisamment représentative. L'algorithme de détermination des pixels de fond va maintenant être présenté (l'algorithme de détermination des 'pixels d'objet' s'en déduit mutatis mutandis) :
On détermine une valeur prédéterminée minimale pour le seuil de fond Sf. Cette valeur peut être fonction de la différence entre une valeur attendue ou estimée pour le fond et une valeur attendue ou estimée pour l'objet. Elle peut ainsi notamment être proportionnelle à cette différence, et par exemple être égale à 10% de cette différence.
Pour chaque valeur de seuil étudiée (en commençant par la valeur minimale que peut prendre ce seuil, puis en augmentant la valeur étudiée d'un incrément donné à chaque itération (par exemple, 1)), on réalise l'opération suivante : - on compte le nombre de pixels de l'image ayant au plus la valeur étudiée.
Tant que les pixels ainsi comptés forment une proportion du nombre de pixels de l'image inférieure à une valeur prédéterminée, la valeur de seuil étudiée est considérée comme inférieure au seuil de fond. Inversement, l'algorithme s'arrête dès que le nombre de pixels de l'image ayant au plus la valeur de seuil étudiée forme une proportion du nombre de pixels de l'image au moins égale à la proportion minimale prédéterminée requise. Le seuil de fond Sf est donc la valeur de pixel minimale pour laquelle le nombre de pixels ayant au plus cette valeur forme une proportion du nombre de pixels de l'image au moins égale à la proportion minimale prédéterminée.
Les pixels dont la valeur est au plus égale au seuil de fond sont considérés comme faisant partie du fond et appelés 'pixels de fond Inversement, les pixels dont la valeur est au moins égale au seuil d'objet So sont considérés comme faisant partie de l'objet et appelés 'pixels d'objet'.
La répartition des pixels de la section S en pixels objet et pixels de fond réalisée par ce double seuillage adaptatif est illustrée par la figure 3.
Sous la courbe sont indiquées, les parties de la courbe S constituées de pixels respectivement d'objet (O, à gauche), et de fond (F, à droite). Entre ces ensembles de pixels F et O se trouvent des pixels Indéterminés, faisant partie de la zone de transition 20.
Les étapes c2 et c3 ont pour objectif de classer les pixels faisant partie de cette zone soit comme pixels d'objet, soit comme pixels de fond. c2. Identification de zones sources de pixels d'obiet ou de Pixels de fond
Dans ce but, dans un premier temps on répartit les pixels respectivement d'objet et de fond en différentes zones sources, respectivement de type « objet » ou « fond » selon le type de pixels qu'elle regroupe. Ces zones sources sont des groupes de pixels connexes de même type, à savoir soit des pixels d'objet ou soit des pixels de fond. Dans le cas présenté sur les figures. Il y a une seule zone source de type objet et une seule zone source de type fond. c3. Opérations de croissance des zones sources
Le mode de mise en oeuvre du procédé selon l'invention présenté ici comporte ensuite deux opérations successives de croissance (cependant, le procédé selon l'invention peut éventuellement ne comporter qu'une étape de ce type, voire aucune).
Chacune de ces opérations de croissance consiste à faire croître les zones sources en leur ajoutant des pixels adjacents, sous réserve que ceux-ci remplissent certains critères prédéterminés.
La première étape de croissance est une opération de croissance 'à seuil fixe et moyenne évolutive'.
Au cours de cette première opération de croissance, on ajoute à chacune des zones sources identifiées à l'étape c2 les pixels adjacents respectant le critère suivant (premier critère) :
Si on considère un pixel de valeur p, adjacent à une zone source de moyenne M, le pixel est intégré à la zone source à laquelle il est adjacent si il respecte le critère suivant :
Ip-Ml < ΔΗ1 (1) Où ΔΗ1 est une valeur prédéterminée, fixe, dite 'seuil de croissance'. La valeur de ΔΗ1 doit être fixée à une valeur inférieure à la moitié de l'écart h entre les seuils Sf et So :
ΔΗ1 <= h = 1 (Sf-So)/2 I
La moyenne M de la zone source est recalculée au fur et à mesure que la zone source intègre des pixels supplémentaires. L'opération de première croissance s'arrête naturellement lorsque tous les pixels susceptibles d'être intégrés à une zone source ont été intégrés à ceile-ci.
Cette première croissance permet d'augmenter la proportion de pixels affectés à l'objet ou au fond, et de réduire la proportion de pixels considérés comme étant dans des zones de transition (flèches Δ objet, et Δ fond, Fig.4).
Pour augmenter encore le nombre de pixels identifiés comme pixels de fond ou pixels d'objet, une seconde opération de croissance des zones sources est réalisée. Contrairement à ia première opération de croissance, cette seconde opération de croissance est faite à moyenne fixée et seuii évoiutif. Eiie a pour but que ia totaiité des pixeis soient ciassés comme pixels d'objet, ou comme pixels de fond.
Pour cette opération, on détermine les valeurs moyennes Mf et Mo des pixels de chacune des zones de fond et objet respectivement ; on considère ces valeurs moyennes comme fixes pour toute la seconde opération de croissance.
On refait alors croître chacune des différentes zones sources obtenues à l'issue de la première croissance par agglomération successive des pixels adjacents.
Pour cela, on applique le critère suivant (premier critère) :
Si on considère un pixel de valeur p, mitoyen avec une zone source de moyenne M : le pixel est intégré à la zone source si : |p-M| < ΔΗ2 (1)
Cependant, contrairement à la première croissance, la deuxième croissance se fait avec un paramètre ΔΗ2, dit seuil de croissance, que l'on fait augmenter progressivement : on commence avec la plus petite valeur possible (à savoir, ΔΗ2= ΔΗ1, c'est-à-dire que l'algorithme commence avec comme seuil de croissance le seuil de croissance final obtenu à lissue de l'opération de première croissance), puis on augmente progressivement la valeur du seuil de croissance ΔΗ2 jusqu' à ce que le deuxième critère soit satisfait.
Dans le mode de mise en œuvre présenté, ce deuxième critère est satisfait lorsque la totalité des pixeis ont été classés comme faisant partie soit d'une zone source d'objet, soit d'une zone source de fond. De manière alternative, un critère d'arrêt utiiisable pour cette opération peut être que les zones d'objet et de fond deviennent adjacentes
Lors de la deuxième croissance, les différentes itérations se font généralement en augmentant à chaque itération le seuil de croissance d'une vaieur constante. Celle-ci peut être de 1 par exemple pour une image ayant une faible dynamique, ou de 100 par exemple pour une image ayant une forte dynamique (pour des vaieurs de pixels exprimées sur 16 bits). A chaque itération, ies pixels qui satisfont au critère indiqué ci-dessus sont ciassés comme faisant partie d'une zone (objet ou fond).
Linterruption de i'opération de deuxième croissance peut être déclenchée de manière automatique ou par un opérateur en charge du contrôie de cette opération.
Pour interrompre i'opération de deuxième croissance de manière automatique, on peut par exempie après chaque itération lancer un test consistant à détecter si au moins un pixel n'a pas la valeur 1 ou 0. Si c'est ie cas, on effectue une itération supplémentaire ; sinon, on interrompt i'opération de deuxième croissance, tous ies pixeis étant donc classés soit dans une zone d'objet soit dans une zone de fond. L'intérêt d'une méthode par croissance de zones sources comprenant ies deux étapes présentées ci-dessus va maintenant être expliqué en reiation avec ia figure 5.
Si on utilise une méthode 'classique' de répartition des pixels, c'est-à-dire une méthode faisant appel à un seuil unique pour la répartition, la valeur ΔΗ3 de ce seuil est généralement choisie égale à (Mo-Mf)/2 : le paramètre ΔΗ3 est choisi égal à la différence entre la moyenne Mo des pixels de la zone source d'objet et la moyenne Mf des pixels de la zone source de fond, divisée par 2. Cette valeur permet de classer l'ensemble des pixels en zone d'objet ou zone de fond (Fig.5).
Cependant, avec une telle méthode, si les valeurs des pixels ne varient pas de manière monotone de l'objet au fond (pour une suite de pixels de l'image disposés suivant une courbe allant de l'objet au fond en traversant la zone de transition 20), cette méthode de répartition va conduire à intercaler des pixels "objet" dans la zone "fond" et réciproquement. Cette méthode en effet conduit à classer les pixels en pixels de fond ou pixels d'objet suivant la répartition (I) indiquée en bas de la figure 5. On constate notamment que cette répartition (I) fait apparaître dans la zone de transition un petit groupe de pixels d'objet (flèche A), formant un ilôt isolé du reste de l'objet (flèche B). Ces pixels semblent indiquer la présence d'un tout petit objet situé près de l'objet principal ; mais en réalité, le tout petit objet ainsi détecté n'existe pas, il ne s'agit que d'un artefact. On voit donc que cette méthode de répartition ne permet pas de déterminer convenablement le contour de l'objet, et conduit à une erreur dans cette détermination.
Inversement, la méthode proposée, avec ses deux étapes de croissance par additions à des zones sources de pixels adjacents à celles-ci permet au contraire de conserver l'homogénéité des zones, et donc la continuité du futur contour. Elle permet ainsi d'obtenir la répartition (II) indiquée sur la figure 5, qui sépare clairement les pixels objet sur la gauche de la figure des pixels de fond sur la droite de la figure.
En effet, quand on ne fait que l'opération de première croissance, les différentes itérations effectuées sont réalisées avec un seuil fixe. Par suite, cette opération de première croissance ne permet pas de classer l'ensemble des pixels, dans le cas où les valeurs des pixels ne varient pas de manière monotone de l'objet au fond.
Inversement, dans la deuxième opération de croissance de zone, dès qu'un pixel remplit l'une des conditions : |p-Mo| < ΔΗ2 ou Ip-MfI < ΔΗ2, il lui est affecté la valeur «0 » ou «1 » de la zone qui est adjacente.
Ainsi, les pixels de la zone de transition sont progressivement analysés au fur et à mesure qu'ils deviennent mitoyens de l'un ou l'autre des zones d'objet et de fond, et sont alors affectés progressivement à l'une ou l'autre de ces zones, même si leur valeur les aurait conduit, suivant la méthode de répartition 'classique', à être classés dans l'autre de ces zones.
En particulier, lorsque le seuil de croissance AH2augmente, il peut éventuellement atteindre une valeur telle qu'éventuellement, un pixel puisse satisfaire à la fois IP-MfI < ΔΗ2 et |p-Mo| < ΔΗ2
Les pixels qui satisfont à cette double condition sont affectés à une zone de pixels d'objet ou une zone de pixels de fond par l'algorithme dès qu'ils deviennent mitoyens ou adjacents à l'une de ces zones.
Avantageusement, la méthode proposée assure la connexité de chacune des zones d'objet et de fond.
Par suite avantageusement, même lorsque la valeur des pixels fluctue de manière non-monotone suivant une courbe traversant la zone de transition, par exemple suivant la courbe indiquée par la figure 5 (ce qui est très fréquent en tomographie), les pixels peuvent être classés de manière à former des zones de pixels de fond et de pixels d'objet connexes, non fragmentées, sans qu'apparaissent des 'ilôts' tel que celui indiqué par la flèche A sur la figure 5. c4. Identification du contour
Par construction, chacune des zones construites par l'algorithme décrit ci-dessus est et reste une zone connexe au cours des opérations de croissance. Chaque contour est défini comme étant la frontière d'une des zones connexes obtenues précédemment ; il peut être extrait par toute méthode connue d'identification de contour d'un ensemble de pixels constituant une zone connexe. L'identification du contour peut notamment être faite en identifiant les points situés au bord de la zone connexe (par exemple, ayant au moins un pixel adjacent situé en dehors de la zone connexe).
Deux solutions sont possibles : un pixel de contour peut être un pixel soit au bord d'une zone connexe de type objet, soit au bord d'une zone connexe de type fond. Dans le mode de mise en œuvre présenté. c'est cette deuxième solution qui est retenue. Le contour obtenu est donc un contour intérieur de la pièce.
Le contour extrait doit autant que possible être continu, c'est-à-dire que les pixels formant un contour extrait doivent pouvoir être ordonnés de manière à constituer une liste de pixels adjacents deux à deux dans la liste. A cet égard, le contour extrait peut avoir deux configurations assez différentes, suivant que l'on considère que deux pixels adjacents sont deux pixels ayant un côté en commun (cas dit Voisinage 4' : un pixel est analysé seulement vis-à-vis des 4 pixels voisins, c'est-à-dire les pixels ayant un côté en commun avec lui), ou bien deux pixels ayant un côté ou un angle en commun (cas dit 'voisinage 8' : un pixel est analysé seulement vis-à-vis des 8 pixels voisins). Les différences entre ces deux possibilités, pour un même contour, sont illustrées par les figures 7A et 7B.
La figure 8 représente un dispositif 100 de contrôle géométrique conforme à l'invention.
Le dispositif 100 permet de réaliser certains contrôles géométriques concernant un objet à partir d'images de sections de l'objet.
Le dispositif 100 comporte : - une unité de détermination de contour d'objet A, constituée par un dispositif d'extraction de contour 50 ; - une unité de changement de repère B, configurée pour appliquer un changement de repère au contour de l'objet de telle sorte que celui-ci soit exprimé dans un même repère qu'un contour de référence de l'objet ; - une unité de comparaison C, configurée pour comparer le contour de l'objet à la définition numérique de celui-ci de manière à identifier et/ou quantifier au moins un écart entre l'objet et la définition numérique de celui-ci.
Le dispositif d'extraction de contour 50 permet l'extraction d'un contour de l'objet. Il comporte : a) un module d'entrée 50a, permettant la prise en compte d'une image initiale faisant apparaître un contour ; b) un module 50b de calcul d'image affinée, configuré pour calculer une image affinée par interpolation de l'image, à l'aide d'un interpolateur de type « sinus cardinal » ; et c) un module 50c de détermination de contour (K), configuré pour déterminer ledit contour (K) à partir de l'image affinée.
Le module d'entrée est un module qui permet d'acquérir une image produite par un système d'imagerie, par exemple un tomographe.
Dans le mode de réalisation présenté, les modules fonctionnels 50a à 50c décrits précédemment sont des modules fonctionnels du dispositif d'extraction de contour 50. L'unité de détermination de contour d'objet A (c'est-à-dire le dispositif d'extraction de contour 50), l'unité de changement de repère B et l'unité de comparaison C sont réalisées sous forme de modules fonctionnels d'un ordinateur. Cet ordinateur qui constitue le dispositif de contrôle géométrique porte la référence 100 sur les Fig.8 et 9.
Les fonctions que réalisent l'unité de changement de repère B et l'unité de comparaison C sont des fonctions connues en elles-mêmes dans le domaine du contrôle géométrique de produit par ordinateur à partir de la maquette numérique du produit.
Le dispositif de contrôle géométrique 100 dispose de l'architecture matérielle d'un ordinateur, telle qu'illustrée schématiquement à la figure 9. Il comprend notamment un processeur 4, une mémoire vive 5, une mémoire morte 6, une mémoire flash non volatile 7, ainsi que des moyens de communication 8.
La mémoire morte 6 du dispositif de contrôle géométrique 100 constitue un support d'enregistrement conforme à l'invention, lisible par le processeur 4 et sur lequel est enregistré un programme d'ordinateur conforme à l'invention, comportant des instructions pour l'exécution des étapes d'un procédé de contrôle géométrique d'un objet conforme à l'invention décrit précédemment. Ce programme contient lui-même un programme d'extraction de contour (en tant que sous-programme) conforme au premier aspect de l'invention.
Quoique la présente invention ait été décrite en se référant à des exemples de réalisation spécifiques, il est évident que des différentes modifications et changements peuvent être effectués sur ces exemples sans sortir de la portée générale de l'invention telle que définie par les revendications. On comprend par exemple que le procédé selon l'invention peut être mis en œuvre pour déterminer des contours non seulement délimitant une pièce par rapport à son environnement extérieur, mais aussi pour déterminer des contours entre deux parties de la pièce présentant des valeurs de pixel différentes, ou entre deux pièces voisines, etc. Par exemple, en tomographie médicale, le procédé selon l'invention peut être utilisé pour déterminer un contour entre deux organes, représentés dans l'image par des niveaux de gris différents. En outre, le terme 'objet' peut faire référence à un objet réel, ou à un objet virtuel, sans réalité physique.
En outre, des caractéristiques individuelles des différents modes de réalisation évoqués peuvent être combinées dans des modes de réalisation additionnels. Par conséquent, la description et les dessins doivent être considérés dans un sens illustratif plutôt que restrictif.

Claims (11)

  1. REVENDICATONS
    1. Procédé d'extraction de contour comprenant les étapes suivantes : a) on fournit une image initiale faisant apparaître un contour; b) à l'aide d'un ordinateur, on calcule une image affinée par interpolation de l'image initiale, à l'aide d'un interpolateur de type « sinus cardinal » ; et c) à l'aide d'un ordinateur, on détermine le contour (K) à partir de limage affinée.
  2. 2. Procédé d'extraction de contour selon la revendication 1, dans iequel l'étape b) de calcul de limage affinée comporte au moins deux étapes successives dinterpolation pour produire limage affinée.
  3. 3. Procédé d'extraction de contour selon la revendication 1 ou 2, dans lequel l'étape c) de détermination du contour de l'objet comporte les étapes suivantes : cl) on identifie des pixels d'objet considérés comme faisant partie de l'objet et des pixels de fond considérés comme faisant partie d'un milieu extérieur à l'objet, soit par seuillage en fonction d'un seuil de fond et d'un seuil d'objet prédéterminés, ou soit par seuillage adaptatif ; et c4) on identifie le contour en fonction des pixels de fond et/ou des pixels d'objet.
  4. 4. Procédé d'extraction de contour selon la revendication 3, dans lequel l'étape c) d'extraction du contour de l'objet comporte en outre les étapes suivantes entre les étapes cl et c4 : c2) on identifie une zone source connexe composée soit de pixels d'objet, soit de pixels de fond ; c3) on ajoute à la zone source connexe les pixels adjacents d'objet ou respectivement de fond qui satisfont à un premier critère de la forme : I p-MI<V Où P est la valeur du pixel ; M est la moyenne des valeurs des pixels de la zone source connexe ; et V est une valeur-seuil prédéterminée.
  5. 5. Procédé d'extraction de contour selon la revendication 3, dans lequel rétape c) d'extraction du contour de l'objet comporte en outre les étapes suivantes entre les étapes cl et c4 : c2) on identifie une zone source connexe composée soit de pixels d'objet, soit de pixels de fond ; c3) on ajoute à la zone source connexe les pixels adjacents d'objet ou respectivement de fond qui satisfont à un premier critère de la forme : I p-MI<V Où P est la valeur du pixel ; M est la moyenne des valeurs des pixels de la zone source connexe ; V est une valeur-seuil variable ; l'étape c3) est répétée de manière itérative ; lors d'une première itération, on affecte à V une valeur minimale ; à chaque itération, on fait croître la valeur de V ; et les itérations réalisées à l'étape c3 sont interrompues lorsqu'un deuxième critère prédéterminé est atteint.
  6. 6. Procédé d'extraction de contour selon l'une quelconque des revendications 1 à 5, dans lequel l'étape a) comporte une étape d'acquisition d'une image d'une section de l'objet à l'aide d'un tomographe.
  7. 7. Procédé de contrôle géométrique d'un objet, comportant les étapes suivantes : A. on détermine un contour de l'objet à l'aide du procédé d'extraction de contour selon l'une quelconque des revendications 1 à 6 ; B. on effectue un changement de repère du contour de l'objet de telle sorte que celui-ci soit exprimé dans un même repère qu'un contour de référence de l'objet ; C. on compare le contour de l'objet à la définition numérique de celui-ci de manière à identifier et/ou quantifier au moins un écart entre l'objet et la définition numérique de celui-ci.
  8. 8. Programme d'ordinateur sur un support d'informations, ce programme étant susceptible d'être mis en œuvre dans un ordinateur, ce programme comportant des instructions de code de programme pour l'exécution des étapes du procédé selon l'une quelconque des revendications 1 à 7 lorsque ledit programme est exécuté sur un ordinateur.
  9. 9. Support d'informations lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur seion la revendication 8.
  10. 10. Dispositif d'extraction de contour comportant a) un moduie d'entrée (50a), permettant la prise en compte d'une image initiale faisant apparaître un contour ; b) un moduie (50b) de calcul d'image affinée, configuré pour calculer une image affinée par interpolation de i'image initiale, à l'aide d'un interpolateur de type « sinus cardinal » ; et d) un module (50c) de détermination de contour (K), configuré pour déterminer ledit contour (K) à partir de i'image affinée.
  11. 11. Dispositif de contrôle géométrique d'objet, comportant : A. une unité de détermination de contour d'objet (A), comprenant un dispositif d'extraction de contour selon la revendication 10 et permettant ainsi l'extraction d'un contour de l'objet ; B. une unité de changement de repère (B), configurée pour appliquer un changement de repère au contour de i'objet de telle sorte que celui-ci soit exprimé dans un même repère qu'un contour de référence de l'objet ; C. une unité de comparaison (C), configurée pour comparer le contour de l'objet à la définition numérique de ceiui-ci de manière à identifier et/ou quantifier au moins un écart entre l'objet et la définition numérique de ceiui-ci.
FR1655410A 2016-06-13 2016-06-13 Procede d'extraction de contour et procede de controle geometrique integrant ce procede ; dispositif d'extraction de contour et dispositif de controle geometrique integrant ce dispositif d'extraction Active FR3052580B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1655410A FR3052580B1 (fr) 2016-06-13 2016-06-13 Procede d'extraction de contour et procede de controle geometrique integrant ce procede ; dispositif d'extraction de contour et dispositif de controle geometrique integrant ce dispositif d'extraction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1655410 2016-06-13
FR1655410A FR3052580B1 (fr) 2016-06-13 2016-06-13 Procede d'extraction de contour et procede de controle geometrique integrant ce procede ; dispositif d'extraction de contour et dispositif de controle geometrique integrant ce dispositif d'extraction

Publications (2)

Publication Number Publication Date
FR3052580A1 true FR3052580A1 (fr) 2017-12-15
FR3052580B1 FR3052580B1 (fr) 2018-06-29

Family

ID=56511799

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1655410A Active FR3052580B1 (fr) 2016-06-13 2016-06-13 Procede d'extraction de contour et procede de controle geometrique integrant ce procede ; dispositif d'extraction de contour et dispositif de controle geometrique integrant ce dispositif d'extraction

Country Status (1)

Country Link
FR (1) FR3052580B1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0817495A2 (fr) * 1996-07-05 1998-01-07 Canon Kabushiki Kaisha Dispositif et méthode d'extraction d'un objet dans une image
US20110002532A1 (en) * 2003-06-13 2011-01-06 David Harold Frakes Data Reconstruction Using Directional Interpolation Techniques
US20110317898A1 (en) * 2010-06-29 2011-12-29 Lin Shi Registration of 3D tomography images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0817495A2 (fr) * 1996-07-05 1998-01-07 Canon Kabushiki Kaisha Dispositif et méthode d'extraction d'un objet dans une image
US20110002532A1 (en) * 2003-06-13 2011-01-06 David Harold Frakes Data Reconstruction Using Directional Interpolation Techniques
US20110317898A1 (en) * 2010-06-29 2011-12-29 Lin Shi Registration of 3D tomography images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
RAFAEL C ET AL: "Digital Image Processing", 1 January 2002, DIGITAL IMAGE PROCESSING, PRENTICE-HALL, UPPER SADDLE RIVER, NEW JERSEY, ISBN: 978-0-201-18075-6, XP002381732 *

Also Published As

Publication number Publication date
FR3052580B1 (fr) 2018-06-29

Similar Documents

Publication Publication Date Title
EP2710555B1 (fr) Méthode de détermination des éléments en relief présents sur la surface d&#39;un pneumatique
FR3067242B1 (fr) Procede d&#39;evaluation d&#39;une gouttiere orthodontique
EP2171687B1 (fr) Procédé et dispositif de traitement d&#39;image, notamment pour le traitement d&#39;images médicales
EP3234913B1 (fr) Procede de detection de defaut sur une surface de pneumatique
CA2950055C (fr) Procede et dispositif d&#39;estimation d&#39;un indice de qualite d&#39;une image 3d d&#39;une piece de materiau composite
US12079997B2 (en) Method for correcting a contour
WO2015165978A1 (fr) Methode pour la quantification de la presence de graisses dans une region du cœur
FR3050274A1 (fr) Procede d&#39;analyse topologique d&#39;une piece composite
FR3050826A1 (fr) Procede de controle non-destructif par apprentissage
EP0961227B1 (fr) Procédé de détection de la profondeur relative entre deux objects dans une scène à partir d&#39;un couple d&#39;images issues de prises de vues différentes
FR3052580A1 (fr) Procede d&#39;extraction de contour et procede de controle geometrique integrant ce procede ; dispositif d&#39;extraction de contour et dispositif de controle geometrique integrant ce dispositif d&#39;extraction
EP1129432B1 (fr) Procede de comparaison d&#39;images enregistrees formees de pixels representant des equipotentielles d&#39;au moins une puce de circuit integre
WO2011055224A1 (fr) Dispositif et procede de detection et suivi des contours interieur et exterieur des levres
EP2526526B1 (fr) Procédé de segmentation d&#39;image, programme d&#39;ordinateur et système informatique correspondant
BE1028729B1 (fr) Méthode d&#39;analyse d&#39;images pour une meilleure prise de décision clinique
EP3958785B1 (fr) Programme d&#39;ordinateur d&#39;evaluation d&#39;une gouttiere orthodontique
FR3136553A1 (fr) Procédé, dispositif et programme d’ordinateur de contrôle dimensionnel d’une pièce réelle
EP3411851A1 (fr) Procédé de contrôle non-destructif par redressement
EP4150574A1 (fr) Procédé de traitement d&#39;images
Sayers et al. Manual Tool and Semi-automated Graph Theory Method for Layer Segmentation in Optical Coherence Tomography
FR3097328A1 (fr) Procédé, dispositif et programme de diagnostic de défauts de densification d’une pièce CMC
Chen et al. Glottis segmentation using dynamic programming
WO2023006918A1 (fr) Procédé d&#39;analyse d&#39;une image endoscopique de la paroi interne d&#39;un organe creux, dispositif et produit programme d&#39;ordinateur correspondants
FR3101992A1 (fr) Procédé de contrôle non destructif d’une pièce pour l’aéronautique, dispositif et système associés
FR2783950A1 (fr) Procede et systeme de traitement d&#39;une image numerique pour en extraire des objets numeriques

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20171215

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

CD Change of name or company name

Owner name: SAFRAN AIRCRAFT ENGINES, FR

Effective date: 20200304

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9