FR3070084B1 - Procede de controle automatique non destructif de pieces mecaniques - Google Patents

Procede de controle automatique non destructif de pieces mecaniques Download PDF

Info

Publication number
FR3070084B1
FR3070084B1 FR1757646A FR1757646A FR3070084B1 FR 3070084 B1 FR3070084 B1 FR 3070084B1 FR 1757646 A FR1757646 A FR 1757646A FR 1757646 A FR1757646 A FR 1757646A FR 3070084 B1 FR3070084 B1 FR 3070084B1
Authority
FR
France
Prior art keywords
image
pixel
real
acquisition
real image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
FR1757646A
Other languages
English (en)
Other versions
FR3070084A1 (fr
Inventor
Estelle PARRA
Haithem Boussaid
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran SA
Original Assignee
Safran SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran SA filed Critical Safran SA
Priority to FR1757646A priority Critical patent/FR3070084B1/fr
Priority to PCT/FR2018/052024 priority patent/WO2019030449A1/fr
Publication of FR3070084A1 publication Critical patent/FR3070084A1/fr
Application granted granted Critical
Publication of FR3070084B1 publication Critical patent/FR3070084B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Abstract

L'invention concerne un procédé et un dispositif de contrôle non destructif de pièces mécaniques par inspection d'images desdites pièces obtenues par un système radiographique d'acquisition d'images. Le procédé selon l'invention comporte les étapes suivantes : - acquérir au moins une image réelle (20) d'une pièce à contrôler susceptible de contenir des indications de défauts potentiels, - effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler pour estimer sa pose 3D lors de l'acquisition de l'image réelle (20), - simuler les conditions opératoires d'acquisition de l'image réelle (20) à partir de la pose 3D estimée de ladite pièce pour générer une image de référence (22) sans défauts de ladite pièce, - générer, au moyen d'un module de traitement d'images (24), pour chaque pixel de l'image réel (20) un premier vecteur de caractéristiques décrivant le pixel et son voisinage et pour chaque pixel de l'image de référence (22) un deuxième vecteur de caractéristiques, - comparer les vecteurs de caractéristiques de chaque pixel de l'image réelle (20) au vecteur de caractéristiques du pixel correspondant de l'image de référence (22), - déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques de pixels d'image.

Description

PROCÉDÉ DE CONTRÔLE AUTOMATIQUE NON DESTRUCTIF DE PIÈCES MÉCANIQUES DESCRIPTION
DOMAINE TECHNIQUE L'invention concerne un procédé et un dispositif de contrôle non destructif de pièces mécaniques par inspection d'images desdites pièce obtenues au moyen d'un système d'acquisition d'images radiographiques par exemple. L'invention concerne également un programme d'ordinateur mémorisé sur un support d'enregistrement et comportant des instructions pour réaliser les étapes du procédé lorsqu'il est exécuté par un ordinateur et un support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions pour l'exécution des étapes du procédé.
ETAT DE LA TECHNIQUE ANTÉRIEURE
Pour contrôler l'état d'une pièce issue de la production, le contrôle non destructif consiste à acquérir une image de ladite pièce reproduisant les potentielles indications de défauts et d'inspecter cette image. La modalité d'acquisition de l'image d'observation peut être un système à rayons X, ultrasons, courant de Foucault ou tout autre dispositif de prise de vue susceptible de reproduire les détails de la structure matérielle de la pièce.
Actuellement, les images d'observations à inspecter sont examinées manuellement par des opérateurs pour détecter et localiser les potentiels défauts. Les résultats des observations manuelles sont incertains car ils peuvent varier en fonction de l'observateur. En outre, pour lever le doute sur un potentiel défaut, généralement les opérateurs comparent les images d'observations à inspecter à une image de référence d'une pièce choisie parmi des pièces jugées saines. Une évaluation de l'écart entre une imagette (patch) d'un potentiel défaut et l'imagette correspondante dans l'image de référence est alors faite visuellement. L'opérateur décide ensuite de la présence ou non d'un défaut sur la pièce contrôlée en fonction de l'écart constaté visuellement entre l'imagette de cette dernière et celle de l'image de référence. Néanmoins, une superposition d'une image de la pièce comportant des indications de défauts et de l'image de référence peut révéler un écart géométrique entre les deux images qui n'est pas dû à un défaut mais plutôt à la variabilité de la position spatiale de chaque pièce lors de l'acquisition d'image. Par conséquent, il est nécessaire de réaliser un recalage géométrique des images, de la pièce à contrôler et de référence.
Un but de l'invention est de réduire le risque d'erreurs d'observation inhérent à une observation humaine.
Un autre but de l'invention est d'automatiser la tâche d'observation afin de pouvoir contrôler, en un temps réduit, un grand nombre de pièces de différentes formes et de différentes compositions.
EXPOSÉ DE L'INVENTION
Ce but est atteint au moyen d'un procédé de contrôle automatique non destructif de pièces mécaniques mettant en œuvre un système radiographique d'acquisition d'images, comportant les étapes suivantes : -acquérir au moins une image réelle d'une pièce à contrôler susceptible de contenir des indications de défauts potentiels, -effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler de manière à estimer la pose 3D de ladite pièce lors de l'acquisition de ladite image réelle, -simuler les conditions opératoires d'acquisition de l'image réelle de la pièce à contrôler à partir de la pose 3D estimée de ladite pièce pour générer une image de référence sans défauts de ladite pièce, -générer, au moyen d'un module de traitement d'images, pour chaque pixel de l'image réel un premier vecteur de caractéristiques qui décrit le pixel et son voisinage et pour chaque pixel de l'image de référence un deuxième vecteur de caractéristiques, -comparer le vecteur de caractéristiques de chaque pixel de l'image réelle au vecteur de caractéristiques du pixel correspondant de l'image de référence générée, ladite comparaison utilisant une mesure de similarité entre les deux vecteurs, par exemple la distance Euclidéenne, la norme 1 du vecteur différence entre les deux vecteurs, la distance de Mahalanobis... -déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques de pixels d'image.
Selon l'invention, lesdits vecteurs caractéristiques d'image sont obtenus par calcul de descripteurs d'image au niveau de chaque pixel estimés par un apprentissage profond à base de réseaux de neurones convolutionnels de l'image réelle et de l'image de référence.
Le procédé selon l'invention comporte en outre les étapes suivantes : -constituer une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes, -localiser un potentiel défaut sur l'image réelle, -constituer une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes, -localiser manuellement un potentiel défaut sur l'image réelle, -réaliser un apprentissage statistique supervisé qui prend en entrée un ensemble de triplets constitués de l'image réelle, l'image de référence générée et les positions des défauts dans l'image réelle et un réseau de neurones convolutionnel profond et qui génère un réseau de neurones optimisé qui permet de calculer un vecteur caractéristique d'image au niveau de chaque pixel et une métrique qui permet d'estimer l'écart entre deux vecteurs caractéristiques de pixels. L'apprentissage statistique peut être réalisé soit par des réseaux de neurones à convolutions siamois partageant les mêmes poids à apprendre, soit par des réseaux pseudo-siamois en parallèle ayant des poids à apprendre indépendants, ou encore par un réseau à deux canaux d'entrée parallèles par couche de convolution.
Le procédé selon l'invention est mis en œuvre par un dispositif de contrôle automatique non destructif de pièces mécaniques mettant en œuvre un système radiographique d'acquisition d'images, comportant : -des moyens pour acquérir au moins une image réelle d'une pièce à contrôler susceptible de contenir des indications de défauts potentiels, -des moyens pour effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler de manière à estimer la pose 3D de ladite pièce lors de l'acquisition de ladite image réelle, -des moyens pour simuler les conditions opératoires d'acquisition de l'image réelle de la pièce à contrôler à partir de la pose 3D estimée de ladite pièce pour générer une image de référence sans défauts de ladite pièce, -des moyens pour générer, au moyen d'un module de traitement d'images, pour chaque pixel de l'image réel un premier vecteur de caractéristiques qui décrit le pixel et son voisinage et pour chaque pixel de l'image de référence un deuxième vecteur de caractéristiques, -des moyens pour comparer le vecteur de caractéristiques de chaque pixel de l'image réelle au vecteur de caractéristiques du pixel correspondant de l'image de référence générée par calcul de mesure de similarité entre les deux vecteurs, -des moyens pour déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques de pixels d'image Le dispositif selon l'invention comporte en outre: -une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes, -un module d'apprentissage statistique supervisé qui optimise les paramètres du réseau de neurones convolutionnel profond.
BRÈVE DESCRIPTION DES DESSINS D'autres caractéristiques et avantages de l'invention ressortiront de la description qui va suivre, prise à titre d'exemple non limitatif, en référence aux figures annexées dans lesquelles: - La figure 1 représente un système d'acquisition d'image à rayons X utilisé pour mettre en œuvre le procédé selon l'invention ; la figure 2 illustre schématiquement une vue partielle d'une pièce à contrôler et son image radiographique ; - la figure 3 illustre schématiquement une superposition de deux images radiographiques de la même vue mais de deux acquisitions différentes ; - la figure 4 illustre schématiquement les différents référentiels de la scène d'acquisition d'une image réelle de la pièce à contrôler; - la fige 5 illustre schématiquement la projection d'un point 3D de l'image réelle en un point 2D ; - La figure 6 illustre schématiquement le processus de recalage utilisé dans le procédé selon l'invention ; - La figure 7 illustre schématiquement l'extraction de structures de forme cylindroïdes à partir de la CAO dont les barycentres sont utilisés comme points d'intérêt 3D ; - la figure 8 illustre schématiquement un premier mode de réalisation des étapes du procédé selon l'invention ; - la figure 9 représente schématiquement un mode préféré de mise en œuvre des étapes du procédé selon l'invention.
iXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS
La figure 1 représente un système d'acquisition d'image à rayons X jtilisé pour mettre en œuvre le procédé selon l'invention comportant une source 2 à ayons X qui envoie des rayons X percuter la pièce 4 prélevée à partir d'un chariot, un létecteur 6 qui quantifie l'énergie restante des rayons X après avoir traversé la pièce 4, m bras robotisé 8 destiné à placer la pièce 4 entre la source à rayons 2 et le détecteur 6 ous un angle de vue prédéterminé. Le système d'acquisition d'image à rayons X permet l'obtenir une image réelle 10 d'une pièce à contrôler 4 susceptible de contenir des ndications de défauts potentiels, comme cela est illustré par la figure 2. Nous disposons lussi d'un maillage triangulaire 3D de la pièce à contrôler, c'est-à-dire un ensemble de Oordonnées 3D des sommets des triangles qui forment le maillage et la connectivité mtre les sommets qui définit la topologie du maillage. Ce maillage est récupérable à partir de la conception de la géométrie de la pièce faite sur le logiciel CATIA® par exemple. L'image réelle 10 de la pièce à contrôler 4 peut contenir de potentielles indications d'anomalies telles que par exemple la présence de corps étrangers plus dense ou moins dense, de retassures, d'inclusions, de résidus ou d'oxydes de sous ou sur épaisseurs de la pièce. Afin de mettre en surbrillance automatiquement les positions dans l'image des potentielles anomalies, le bras robotisé 8 du système d'acquisition place automatiquement chaque pièce 4 entre la source 2 et le détecteur 6 du système RX selon une position unique prédéterminée. Cependant en comparant les images produites de la même vue de plusieurs pièces, une variabilité dans la position spatiale des points 11, 13 de la pièce entre les deux images peut apparaître comme cela est illustré par la figure 3. Cette variabilité peut résulter du fait que le robot du système d'acquisition peine au départ à saisir la pièce depuis le chariot. Plusieurs tentatives pour saisir la pièce sont parfois nécessaires. En outre, le robot ne saisit pas toutes les pièces de la même manière. Une fois la pièce saisie, le robot se déplace très rapidement et s'arrête brusquement au point d'arrivée, ce qui induit une imprécision sur les coordonnées du point d'arrivée.
Pour pallier à cet inconvénient, le procédé selon l'invention permet de recaler les données CAO provenant du fichier Catia de la pièce à contrôler par rapport à la vue 2D de la pièce acquise par le système à rayons X. Ce recalage est obtenu par une estimation de la transformation rigide en espace 3D (rotation et translation) à appliquer sur la CAO qui permet de la placer dans le repère du système d'acquisition ou était positionnée la vrai pièce lors de l'acquisition. Ensuite, une simulation du tir des rayons X sur le modèle 3D recalé est réalisée en tenant compte des paramètres du système d'acquisition de manière à générer une image similaire à l'image acquise par le système d'acquisition d'image.
Pour réaliser la modélisation de la géométrie du système d'acquisition RX, il est nécessaire de définir les différents référentiels et les transformations (connues ou inconnues) entre ces référentiels.
La figure 4 illustre schématiquement les étapes de cette modélisation. Celle-ci comporte les trois étapes suivantes : - définition du référentiel rattaché à la CAO de la pièce appelé "World Coordinate" en anglais (WCS), - définition de la source des rayons X correspondant à l'origine du CCS (Caméra Coordinate System). Ce dernier coïncide avec le centre optique d'acquisition RX, - projection en perspective d'un point M sur le plan de projection.
Comme cela est illustré par la figure 4, les coordonnées 3D d'un sommet t M » de la CAO de la pièce sont désignés par (X, Y, Z) dans le WCS. La CAO a été jrétraitée de telle sorte que son centre (barycentre de tous les sommets qui forment la )ièce) coïncide avec l'origine O du repère WCS, et les principaux axes de la CAO Oïncident avec (X, Y, Z). L'origine du CCS (Caméra Coordinate System) coïncide avec le centre )ptique du système qui correspond à la source des rayons X. Les coordonnées du point tM» dans ce repère s'expriment suivant les axes (Ÿ, Y, Z ) avec l'axe Z coïncidant avec 'axe optique (le rayon X qui provient de la source parvient au centre du détecteur). Dans :e repère, le plan du détecteur est définit par l'équation Z = /, où /est la distance focale lu système (paramètre d'entrée connue qui correspond à la distance entre la source et le iétecteur). Il existe alors une transformation rigide entre le WCS et CCS qui permet de ransformer les coordonnées du point M dans le repère CCS en coordonnées dans le epère WCS. On peut représenter cette transformation rigide par un vecteur de ranslation et une matrice de rotation. 0 1
Les 3 paramètres de rotation et de translation permettent de iéterminer la pose de la CAO dans le repère CCS. Ces paramètres, qui sont les inconnues le la modélisation, sont estimés par le recalage.
La projection en perspective du point M sur le plan de projection est le joint 2D « m » qui est représenté par («, y) dans un nouveau référentiel 2D appelé PCS projection Coordinate System). Les axes de ce repère sont parallèles aux axes Y, Y). Pour trouver la relation entre les deux repères CCS et PCS, nous appliquons le théorème de Thalès sur le triangle dont les sommets sont « C » (la source) « o » (le centre du repère PCS) et « m » (projection du point M) comme cela est illustré par la figure 5.
Nous obtenons ainsi la relation suivante : 7 _ Z _ X f y x ’
En passant à la notation matricielle et en passant aux coordonnées homogènes, nous pouvons écrire :
p
Finalement, nous introduisons le repère 2D ICS (Image Coordinate System) pour représenter les coordonnées du pixel (u, v) dans l'image numérique produite par le système à rayons X. Puisque le détecteur 6 utilisé est un panneau plat (fiat panel), on peut représenter la transformation entre les repères PCS et ICS par un modèle linéaire comme suit:
Les paramètres de ce modèle sont les facteurs d'agrandissement (ku,kv) dans chaque direction, une translation de l'origine'^o- qui représente la projection du point (x, y) = (0, 0) dans le ICS et un facteur oblique qui modélise un repère non orthogonal (dans notre cas, s=0 car nos axes (u, v) sont bien orthogonales). La relation entre les deux ensembles de données d'entrée, c'est-à-dire, les coordonnées 3D (X, Y, Z) des points dans le repère WCS et les coordonnées 2D (u, v) de leurs projections respectives dans le ICS Sont décrites ci-après.
Cette relation s'écrit avec le système linéaire SI suivant :
O f
.es inconnues dans ce système sont la translation et la rotation nP 'P
Il existe plusieurs méthodes pour faire le recalage 2D 3D. La publication Markelj PI et al. A review of 3D/2D registration methods for image-guided interventions. Tledical Image Analysis, 2012” fait un état de l'art des méthodes du recalage 2D 3D :
Le procédé selon l'invention s'appuie, à titre d'exemple non limitatif, ur une approche basée sur l'appariement de points d'intérêt dans laquelle des points jarticuliers sont considérés comme amers de recalage qui vont permettre de trouver la ransformation rigide à appliquer sur la CAO. Des points en 3D sur la CAO sont alors iéfinis et points en 2D sont détectés automatiquement à partir de l'image. Le recalage :onsiste à appliquer une transformation rigide sur les points 3D de telle sorte que la jrojection de ces points 3D colle avec les points 2D.
Comme cela est illustré par la figure 6 illustrant schématiquement 'approche du recalage utilisé dans le procédé selon l'invention, l'étape 14 consiste à îxtraire des points 2D de l'image, l'étape 15 consiste à étiqueter les points 2D extraits; Zes derniers sont mis en correspondance avec des points 3D préalablement extraits de la ZAO à l'étape 16. L'étape 17 consiste à estimer la transformation rigide, par exemple, )ar la méthode PNP « PNP : Perspective N Points » décrite notamment dans Y.l. Abdel-\ziz and H.M. Karara. Direct linear transformation from comparator coordinates into )bject space coordinates in close-range photogrammetry. In Proc. ASP/UI Symp. Close-lange Photogrammetry, 1971. C.-P. Lu, G. D. Hager, and E. Mjolsness. Fast and globally :onvergent pose estimation from video images. T ΡΑΜΙ 2000.
Extraction des points 3D de la CAO
Ce traitement n'est fait qu'une seul fois sur la CAO. Le but est de iéterminer les coordonnées (x, y, z) des points 3D qui seront utilisés comme amers de
ecalage. Ces points 3D peuvent être les centres de structures particulières 10 de la CAO :omme cela est illustré schématiquement par la figure 7. Ils peuvent être alors calculés :omme étant le barycentre du polygone qui forme la structure. Les structures )articulières de la CAO sont isolées et le barycentre de chaque structure est alors calculé. In obtient ainsi les coordonnées des centres des structures sur la CAO à recaler. Le but îst d'utiliser ces points 3D particuliers comme amers de recalage. détection des centres des structures sur les images radiographiques
Pour détecter les points d'intérêt sur l'image 2D, le procédé selon 'invention s'appuie sur une méthode décrite dans la demande de brevet « Contrôle non iestructif de pièces aéronautiques par un système de radiographie » déposé le 20 Mars ’017 sous le numéro n° FR 1772283.
Estimation des paramètres de la rotation et translation
Le système linéaire SI a douze inconnues (matrice rotation Rp de iimension 3X3 et vecteur translation Tp de dimension 3X1). La connaissance des Oordonnées 3D (X, Y, Z) d'un point et les coordonnées (u, v) de sa projection permet l'avoir trois équations. II faut donc au moins quatre points 3D et leurs projections issociées pour pouvoir résoudre ce système à douze inconnues. Cependant il est jréférable d'avoir plus que quatre points pour introduire de la redondance dans les lonnées et être moins sensible au bruit qui peut s'introduire dans les coordonnées des joints. La méthode utilisée dans le procédé selon l'invention pour résoudre ce système inéaire est décrite dans «Vincent Lepetit, Francesc Moreno-Noguer, and Pascal Fua. 2009). EPnP: An Accurate O(n) Solution to the PnP Problem. International Journal of Zomputer Vision ». Cependant il existe dans la littérature une panoplie de méthodes tératives et non itératives pour résoudre ce problème. A titre d'exemple, citons les jublications les suivantes : « Y.l. Abdel-Aziz and H.M. Karara. Direct linear transformation rom comparator coordinates into object space coordinates in close-range îhotogrammetry. In Proc. ASP/UI Symp. Close-Range Photogrammetry, 1971. C.-P. Lu, G. 1 Hager, and E. Mjolsness. Fast and globally convergent pose estimation from video mages. T ΡΑΜΙ 2000. »
En fonctionnement, la pièce à contrôler 2 est positionnée par un bras obotisé entre une source rayons X et un détecteur 6 sous un angle de vue prédéterminé, .a source envoie des rayons X qui percutent la pièce 2, et le détecteur quantifie l'énergie estante des rayons X après avoir traversé la pièce 2.
Ce mode opératoire est simulé par le module de calcul pour générer une mage de référence sans défauts à partir du maillage triangulaire 3D de la pièce 2, c'est-à-iire d'un ensemble de coordonnées 3D des sommets des triangles qui forment le naillage et la connectivité entre les sommets qui définit la topologie du maillage. Ce naillage est récupérable, par exemple, à partir de la conception de la géométrie de la )ièce qui peut être faite au moyen du logiciel CATIA® par exemple, comme cela est expliqué ci-dessus.
La détection de défaut sur une pièce est ensuite réalisée par :omparaison de l'image de la pièce 2 obtenue par le système d'acquisition à rayons X et 'image simulée à partir du maillage triangulaire 3D de la pièce 2.
En référence à la figure 8, une image réelle 20 de la pièce à contrôler 2 jbtenue par le système d'acquisition à rayons X et une image de référence 22, sans iéfauts, obtenue à partir d'un maillage triangulaire 3D de la pièce 2 sont enregistrées ians une mémoire module de calcul. Au préalable, afin de s'affranchir des écarts géométriques dus à la variabilité de la position spatiale de la pièce 2 lors de son jositionnement par le robot, les coordonnées 3D de l'image de référence 22 sont ecalées numériquement sur la position de la pièce dans le repère radiographique utilisé ors de l'acquisition de l'image réelle 20. L'image réelle 20 et l'image de référence 22 sont msuite fournies au module de traitement d'images 24 qui génère un premier vecteur VI le caractéristiques/descripteurs d'image au niveau de chaque pixel de l'image réelle 20 !t un deuxième vecteur V2 de caractéristiques/descripteurs d'image au niveau de chaque )ixel de l'image de référence 22. Les vecteurs VI et V2 sont fournis au module de :omparaison 26 pour effectuer une comparaison pixel par pixel en calculant des :aractéristiques d'image, préalablement déterminée par apprentissage statistique, et une valeur de mesure de similarité spécifique à l'application. La mesure de similarité peut être )ar exemple une distance Euclidéenne, une norme 1 du vecteur différence entre les deux <ecteurs ou une distance de Mahalanobis...). Les positions de défauts auront des valeurs le similarité différentes de celles des zones saines.
Les étapes du procédé sont décrites en référence à la figure 9.
Comme on peut le voir sur la figure 9, le procédé selon l'invention :omporte une phase d'apprentissage statistique supervisée qui permet au module de :alcul d'apprendre caractéristiques/descripteurs d'image au niveau de chaque pixel de 'image de référence 22 et son voisinage restreint (patch ou imagette) et la mesure de imilarité entre les caractéristiques de chaque pair de patchs, pour détecter la présence l'un défaut au niveau de patch de l'image à contrôler.
Notons qu'initialement, une base d'images réelles annotées est :onstituée dans laquelle de potentiels défauts sont préalablement localisés sur chacune le ces images réelles par des experts. La base d'images réelles est ensuite augmentée par les images de références simulées qui ne contiennent pas de défaut. Pour chaque image éelle une image de référence correspondante est générée à partir du recalage du modèle >D et ensuite par simulation. A l'étape 30 (respectivement l'étape 32), des données numériques ssues de la CAO (Conception assistées par ordinateur) (respectivement des images l'apprentissage sont extraites de la mémoire du module de calcul. A l'étape 34, les données numériques issues de la CAO (représentant 'ensemble de coordonnées de l'image de la pièce 20 sont extraites d'un modèle 3D de :ette pièce) sont alignées sur les images d'apprentissage. A l'étape 36, les coordonnées de l'image de la pièce 20 extraites du nodèle 3D sont recalées numériquement sur l'espace 3D de l'image de référence.
Les coordonnées recalées numériquement sur l'espace 3D de l'image de éférence sont fournies à un simulateur du système d'acquisition associé au module de :alcul qui génère, à l'étape 38, l'image de référence 22. A l'étape 40, le module de calcul extrait des vecteurs :aractéristiques/descripteurs d'image au niveau de chaque pixel de caractéristiques espectivement de l'image d'apprentissage et de l'image de référence. A l'étape 42, les vecteurs subissent un traitement destiné à déterminer es pertes de l'apprentissage par rapport à une carte de défauts réels de l'image 44. Les <ecteurs subissent une optimisation 46 qui génère des paramètres qui sont injectés dans a phase de test. L'apprentissage statistique consiste à optimiser les paramètres du éseau de neurones qui permettent de minimiser la perte d'apprentissage représentant la iifférence entre l'annotation manuelle et la prédiction du réseau de neurones.
Le vecteur caractéristique d'un pixel est le résultat de convolutions ippliqué sur ce pixel et son voisinage.
Le procédé selon l'invention permet ainsi d'automatiser la tâche l'observation afin de pouvoir contrôler, en un temps réduit, un grand nombre de pièces le différentes formes et de différentes compositions.

Claims (5)

  1. REVENDICATIONS
    1. Procédé de contrôle automatique non destructif de pièces mécaniques (4) mettant en œuvre un système radiographique d'acquisition d'images, caractérisé en ce qu'il comporte les étapes suivantes : -acquérir au moins une image réelle (20) d'une pièce à contrôler (4) susceptible de contenir des indications de défauts potentiels, -effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler (4) de manière à estimer la pose 3D de ladite pièce lors de l'acquisition de ladite image réelle (20), -simuler les conditions opératoires d'acquisition de l'image réelle (20) de la pièce à contrôler (4) à partir de la pose 3D estimée de ladite pièce pour générer une image de référence (22) sans défauts de ladite pièce, -générer, au moyen d'un module de traitement d'images (24), pour chaque pixel de l'image réel (20) un premier vecteur de caractéristiques qui décrit le pixel et son voisinage et pour chaque pixel de l'image de référence (22) un deuxième vecteur de caractéristiques, -comparer le vecteur de caractéristiques de chaque pixel de l'image réelle (20) au vecteur de caractéristiques du pixel correspondant de l'image de référence (22) générée, ladite comparaison utilisant une mesure de similarité entre les deux vecteurs, -déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques de pixels d'image.
  2. 2. Procédé selon la revendication 1 dans lequel lesdits vecteurs caractéristiques d'image sont obtenus par calcul de descripteurs d'image au niveau de chaque pixel estimés par un apprentissage profond à base de réseaux de neurones convolutionels de l'image réelle et de l'image de référence. 3. Procédé selon la revendication 2 comportant en outre les étapes suivantes : -constituer une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes, -localiser manuellement un potentiel défaut sur l'image réelle, -réaliser un apprentissage statistique supervisé qui prend en entrée un ensemble de triplets constitués de l'image réelle (20), l'image de référence (22) générée et les positions des défauts dans l'image réelle et un réseau de neurones convolutionnel profond et qui génère un réseau de neurones optimisé qui permet de calculer un vecteur caractéristique d'image au niveau de chaque pixel et une métrique qui permet d'estimer l'écart entre deux vecteurs caractéristiques de pixels.
  3. 4. Procédé selon la revendication 2 caractérisé en ce que l'apprentissage statistique est réalisé par des réseaux siamois en parallèle partageant les mêmes poids à apprendre. 5. Procédé selon la revendication 2 caractérisé en ce que l'apprentissage statistique est réalisé par des réseaux pseudo-siamois en parallèle ayant des poids à apprendre indépendants. 6. Procédé selon la revendication 2 caractérisé en ce que l'apprentissage statistique est réalisé par un réseau à deux canaux d'entrée par couche de convolution. 7. Dispositif de contrôle automatique non destructif de pièces mécaniques mettant en œuvre un système radiographique d'acquisition d'images, caractérisé en ce qu'il comporte: -des moyens pour acquérir au moins une image réelle (20) d'une pièce (4) à contrôler susceptible de contenir des indications de défauts potentiels, -des moyens pour effectuer un recalage 2D-3D d'un modèle 3D de la pièce à contrôler de manière à estimer la pose 3D de ladite pièce lors de l'acquisition de ladite image réelle (20), -des moyens pour simuler les conditions opératoires d'acquisition de l'image réelle (20) de la pièce (4) à contrôler à partir de la pose 3D estimée de ladite pièce pour générer une image de référence (22) sans défauts de ladite pièce, -des moyens pour générer, au moyen d'un module de traitement d'images (24), un premier vecteur de caractéristiques d'image à partir de l'image réelle (20) et un deuxième vecteur de caractéristiques d'image à partir de l'image de référence (22), -des moyens pour comparer les vecteurs de caractéristiques d'image générés par calcul de mesure de similarité entre les deux vecteurs, -des moyens pour déduire une carte de défauts de la pièce contrôlée à partir de la comparaison desdits vecteurs de caractéristiques d'image.
  4. 8. Dispositif selon la revendication 7 caractérisé en ce qu'il comporte en outre: -une base de données comportant une pluralité de paires d'images réelles et d'images de référence correspondantes, -un module d'apprentissage statistique supervisé qui optimise les paramètres du réseau de neurones convolutionnel profond.
  5. 9. Programme d'ordinateur mémorisé sur un support d'enregistrement et comportant des instructions pour réaliser les étapes du procédé selon l'une quelconque des revendications 1 à 6 lorsqu'il est exécuté sur un ordinateur. 10. Support d'enregistrement lisible par un ordinateur sur lequel est enregistré un programme d'ordinateur comprenant des instructions pour l'exécution des étapes du procédé selon l'une quelconque des revendications 1 à 6.
FR1757646A 2017-08-10 2017-08-10 Procede de controle automatique non destructif de pieces mecaniques Active FR3070084B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1757646A FR3070084B1 (fr) 2017-08-10 2017-08-10 Procede de controle automatique non destructif de pieces mecaniques
PCT/FR2018/052024 WO2019030449A1 (fr) 2017-08-10 2018-08-06 Procédé de contrôle automatique non destructif de pièces mécaniques

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1757646 2017-08-10
FR1757646A FR3070084B1 (fr) 2017-08-10 2017-08-10 Procede de controle automatique non destructif de pieces mecaniques

Publications (2)

Publication Number Publication Date
FR3070084A1 FR3070084A1 (fr) 2019-02-15
FR3070084B1 true FR3070084B1 (fr) 2019-08-30

Family

ID=61258297

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1757646A Active FR3070084B1 (fr) 2017-08-10 2017-08-10 Procede de controle automatique non destructif de pieces mecaniques

Country Status (2)

Country Link
FR (1) FR3070084B1 (fr)
WO (1) WO2019030449A1 (fr)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3814758A1 (fr) 2018-06-29 2021-05-05 Universiteit Antwerpen Inspection d'article par sélection dynamique d'angle de projection
JP7451306B2 (ja) 2020-05-29 2024-03-18 株式会社東芝 非破壊構造解析装置、非破壊構造検査装置および非破壊構造解析方法
WO2023232891A1 (fr) * 2022-05-31 2023-12-07 Deltaray Bv Système d'imagerie par rayonnement pour l'inspection d'articles ayant une pose incertaine et procédé associé

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2693813B1 (fr) * 1992-07-20 1994-08-19 Commissariat Energie Atomique Procédé de réalisation d'une image de référence synthétisée à partir de données contenues dans une base de données CAO.
FR2715599B1 (fr) * 1994-01-28 1996-03-01 Thomson Csf Procédé d'asservissement d'un robot dans l'espace à trois dimensions et robot évoluant dans un tel espace.
US6650779B2 (en) * 1999-03-26 2003-11-18 Georgia Tech Research Corp. Method and apparatus for analyzing an image to detect and identify patterns
US20100220910A1 (en) * 2009-03-02 2010-09-02 General Electric Company Method and system for automated x-ray inspection of objects
US10650508B2 (en) * 2014-12-03 2020-05-12 Kla-Tencor Corporation Automatic defect classification without sampling and feature selection
US10360477B2 (en) * 2016-01-11 2019-07-23 Kla-Tencor Corp. Accelerating semiconductor-related computations using learning based models

Also Published As

Publication number Publication date
FR3070084A1 (fr) 2019-02-15
WO2019030449A1 (fr) 2019-02-14

Similar Documents

Publication Publication Date Title
Koch et al. Evaluation of cnn-based single-image depth estimation methods
CN104713885B (zh) 一种用于pcb板在线检测的结构光辅助双目测量方法
Prescott et al. Line-based correction of radial lens distortion
US10217293B2 (en) Depth camera-based human-body model acquisition method and network virtual fitting system
TWI737659B (zh) 半導體試樣的基於深度學習之檢查的方法及其系統
Singh et al. Bigbird: A large-scale 3d database of object instances
CN104484648B (zh) 基于轮廓识别的机器人可变视角障碍物检测方法
JP6807639B2 (ja) 奥行きカメラを校正する方法
CN108460760B (zh) 一种基于生成式对抗网络的桥梁裂缝图像判别修复方法
JP2018530401A5 (fr)
CN107767456A (zh) 一种基于rgb‑d相机的物体三维重建方法
JP2020004443A (ja) 多層構造体の層間のオーバレイを測定する技法
FR3070084B1 (fr) Procede de controle automatique non destructif de pieces mecaniques
CN110555908B (zh) 基于室内移动目标背景修复的三维重建方法
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
WO2020064323A1 (fr) Procédé et système de contrôle non destructif d&#39;une pièce aéronautique par recalage de contour
JP6970817B2 (ja) 構造物管理装置、構造物管理方法、及び構造物管理プログラム
CN114862973B (zh) 基于固定点位的空间定位方法、装置、设备及存储介质
CN111353997A (zh) 一种基于条纹投影的实时三维面型缺陷检测方法
Liu et al. CurveFusion: reconstructing thin structures from RGBD sequences
CN116977328B (zh) 车底机器人主动视觉中的图像质量评估方法
CN110349209A (zh) 基于双目视觉的振捣棒定位方法
Eastwood et al. Autonomous close-range photogrammetry using machine learning
EP0141706A2 (fr) Procédé et appareillage pour déterminer l&#39;attitude d&#39;un objet dans l&#39;espace par rapport à un poste d&#39;observation
CN111583388A (zh) 一种三维扫描系统的扫描方法及设备

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20190215

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7