FR3058816A1 - METHOD FOR NON-DESTRUCTIVE CONTROL OF METAL PIECE - Google Patents

METHOD FOR NON-DESTRUCTIVE CONTROL OF METAL PIECE Download PDF

Info

Publication number
FR3058816A1
FR3058816A1 FR1661101A FR1661101A FR3058816A1 FR 3058816 A1 FR3058816 A1 FR 3058816A1 FR 1661101 A FR1661101 A FR 1661101A FR 1661101 A FR1661101 A FR 1661101A FR 3058816 A1 FR3058816 A1 FR 3058816A1
Authority
FR
France
Prior art keywords
image
thumbnail
label
descriptors
thumbnails
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1661101A
Other languages
French (fr)
Other versions
FR3058816B1 (en
Inventor
Jerome Morard Vincent
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran SA
Original Assignee
Safran SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran SA filed Critical Safran SA
Priority to FR1661101A priority Critical patent/FR3058816B1/en
Publication of FR3058816A1 publication Critical patent/FR3058816A1/en
Application granted granted Critical
Publication of FR3058816B1 publication Critical patent/FR3058816B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/03Investigating materials by wave or particle radiation by transmission
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/401Imaging image processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/63Specific applications or type of materials turbine blades
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30136Metal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un procédé de contrôle non-destructif d'une pièce métallique pour aéronautique comprenant les étapes suivantes : - génération d'une image 2D de la pièce métallique à l'aide d'un générateur de rayons X, - traitement de l'image 2D adapté pour atténuer des artéfacts et/ou variabilités de l'image 2D, - traitement des pixels de pièce afin de réaliser un pavage de la pièce dans l'image 2D en une pluralité d'imagettes, - pour au moins une imagette, extraction automatique d'une signature de ladite imagette, déterminant une pluralité de p descripteurs, à partir de descripteurs d'un modèle statistique, - classement automatique de la signature de l'imagette dans un espace p-dimensionnel permettant d'attribuer à ladite imagette, un label représentatif de la présence d'anomalies dans la pièce, ladite base de données de référence comprenant des imagettes de référence auxquelles sont attribuées un label relatif à la présence d'anomalies.The invention relates to a method for non-destructive testing of a metal part for aeronautics comprising the following steps: - generation of a 2D image of the metal part using an X-ray generator, - processing of the 2D image adapted to attenuate artifacts and / or variabilities of the 2D image, - processing of the part pixels in order to tessellate the part in the 2D image into a plurality of images, - for at least one image , automatic extraction of a signature of said thumbnail, determining a plurality of descriptors p, from descriptors of a statistical model, - automatic classification of the signature of the thumbnail in a p-dimensional space for attributing to said imagette, a label representative of the presence of anomalies in the room, said reference database comprising reference images to which are assigned a label relating to the presence of anomalies.

Description

DOMAINE TECHNIQUE GENERALGENERAL TECHNICAL AREA

L'invention concerne le domaine du contrôle non destructif (CND) sur des pièces industrielles en matériau métallique, notamment dans le domaine de l'aéronautique, à l'aide d'images acquises au moyen d'un générateur de rayons X.The invention relates to the field of non-destructive testing (CND) on industrial parts made of metallic material, in particular in the aeronautical field, using images acquired by means of an X-ray generator.

Plus précisément, l'invention concerne l'automatisation des méthodes de CND.More specifically, the invention relates to the automation of NDT methods.

ETAT DE L'ARTSTATE OF THE ART

Le CND est primordial pour contrôler la santé matière des matériaux. Par exemple, les aubes de turbine haute pression sont des pièces critiques qui doivent être contrôlées en intégralité.The CND is essential to control the material health of materials. For example, high pressure turbine blades are critical parts that need to be fully checked.

Chaque pièce issue de la chaîne de production est contrôlée individuellement pour s'assurer de la conformité de cette dernière par rapport à un cahier des charges. Ce contrôle santé matière peut être réalisé au moyen d'un générateur de rayons X qui vient bombarder la pièce à inspecter. L'atténuation des rayons X est observée grâce à un détecteur placé derrière la pièce formant une image 2D (cf. figure 1). Les niveaux de gris de cette image projetée sont proportionnels à l'atténuation des rayons X traversant la pièce.Each part from the production chain is individually checked to ensure that it complies with specifications. This material health check can be carried out by means of an X-ray generator which bombards the part to be inspected. The attenuation of the X-rays is observed thanks to a detector placed behind the part forming a 2D image (cf. Figure 1). The grayscale of this projected image is proportional to the attenuation of the X-rays passing through the room.

Les aubes de turbine haute pression ont une structure interne complexe, creuse, laissant passer de l'air pour les refroidir. Des surépaisseurs et des sous-épaisseurs peuvent être présentes à l'intérieur de l'aube. De plus, d'autres défauts peuvent apparaître lors du procédé de fabrication de la pièce : des corps étrangers plus ou moins denses, des retassures, des inclusions, des résidus, des oxydes...The high pressure turbine blades have a complex, hollow internal structure, allowing air to pass through to cool them. Additional thicknesses and sub-thicknesses may be present inside the dawn. In addition, other defects may appear during the part's manufacturing process: more or less dense foreign bodies, shrinkage, inclusions, residues, oxides ...

Traditionnellement, après l'acquisition d'une projection de la pièce (image 2D), un opérateur vient contrôler manuellement cette image à la recherche d'indications de défauts critiques.Traditionally, after acquiring a projection of the part (2D image), an operator comes to manually check this image in search of indications of critical faults.

L'image est codée en 16 bits (soit 65536 niveaux de gris) or les écrans de contrôle ne permettent que d'afficher des images 8 bits. L'opérateur doit alors constamment régler le contraste de l'image pour distinguer des petites irrégularités de niveaux de gris dans l'image. Ce phénomène est accentué pour des pièces d'épaisseur variable (comme les pièces d'aubes), les niveaux de gris étant corrélés à cette variation d'épaisseur. L'opérateur doit ainsi balayer toute l'image tout en réglant le contraste de l'image. C'est une opération relativement longue et fastidieuse, et source d'erreur.The image is coded in 16 bits (i.e. 65536 grayscale), but the control screens only allow the display of 8 bit images. The operator must then constantly adjust the contrast of the image to distinguish small irregularities in gray levels in the image. This phenomenon is accentuated for parts of variable thickness (such as blade parts), the gray levels being correlated with this variation in thickness. The operator must therefore scan the entire image while adjusting the contrast of the image. It is a relatively long and tedious operation, and a source of error.

Après avoir détecté manuellement toutes les indications de la pièce, la pièce est soit acceptée et montée sur le moteur, ou soit rebutée suivant alors le processus de dérogation.After having manually detected all the indications of the part, the part is either accepted and mounted on the engine, or is rejected according to the derogation process.

Il existe donc un besoin permettant d'automatiser ce processus de détection, afin de réduire le temps d'analyse par rapport à une analyse manuelle, et de réduire les coûts de l'inspection. Un procédé automatisé permet également de s'affranchir de la subjectivité introduite par les opérateurs (fatigue visuelle, variabilité intra-opérateur, variabilité interopérateur). Le procédé étant plus répétitif et fiable, il permet l'amélioration du rendement.There is therefore a need to automate this detection process, in order to reduce the analysis time compared to a manual analysis, and to reduce the inspection costs. An automated process also makes it possible to overcome the subjectivity introduced by the operators (visual fatigue, intra-operator variability, inter-operator variability). The process being more repetitive and reliable, it allows the improvement of the yield.

On connaît des méthodes de contrôle non destructif mettant en œuvre des méthodes automatiques de détection de défauts de pièce.There are known non-destructive testing methods implementing automatic methods for detecting workpiece defects.

Celles-ci peuvent faire appel à des descripteurs, qui définissent des analyses des niveaux de gris de l'image, pour rechercher des caractéristiques de l'image correspondant à des défauts.These can use descriptors, which define analyzes of the gray levels of the image, to search for characteristics of the image corresponding to defects.

Ainsi, ces méthodes utilisent classiquement des descripteurs génériques (ex : US20110182495A1).Thus, these methods conventionally use generic descriptors (ex: US20110182495A1).

On connaît aussi des méthodes utilisant des descripteurs conçus manuellement (ex : US 20090066939A1).There are also known methods using manually designed descriptors (eg US 20090066939A1).

Cependant, il existe un besoin pour concevoir des descripteurs plus performants permettant d'obtenir de façon automatique des descripteurs, optimaux, spécifiques à une pièce à examiner et aux types de défauts associés. Dans le but d'améliorer la détection et la caractérisation des défauts présents dans une pièce métallique.However, there is a need to design more efficient descriptors making it possible to automatically obtain descriptors, optimal, specific to a part to be examined and to the types of associated faults. In order to improve the detection and characterization of faults present in a metal part.

PRESENTATION DE L'INVENTIONPRESENTATION OF THE INVENTION

L'invention met en œuvre un contrôle non-destructif, par rayons X générant des images 2D des pièces à inspecter, et par un procédé d'analyse automatique utilisant des méthodes statistiques d'apprentissage profond supervisé.The invention implements non-destructive testing, by X-rays generating 2D images of the parts to be inspected, and by an automatic analysis method using statistical methods of supervised deep learning.

L'invention propose un procédé de contrôle non-destructif d'une pièce métallique pour aéronautique comprenant les étapes suivantes :The invention provides a method of non-destructive testing of a metal part for aeronautics comprising the following steps:

- E0 : génération d'une image 2D de la pièce métallique à l'aide d'un générateur de rayons X, ladite image 2D correspondant à une projection sur un plan de la pièce,E0: generation of a 2D image of the metal part using an X-ray generator, said 2D image corresponding to a projection onto a plane of the part,

- El : traitement de l'image 2D adapté pour atténuer des artéfacts et/ou variabilités de l'image 2D,- El: 2D image processing adapted to attenuate artifacts and / or variability of the 2D image,

- E3 : traitement des pixels de pièce afin de réaliser un pavage de la pièce dans l'image 2D en une pluralité d'imagettes,- E3: processing of the room pixels in order to produce a tiling of the room in the 2D image in a plurality of thumbnails,

- E4 : pour au moins une imagette, extraction automatique d'une signature de ladite imagette , déterminant une pluralité de p descripteurs, un descripteur étant le résultat d'une analyse d'image, à partir de descripteurs d'un modèle statistique déterminés préalablement par apprentissage profond supervisé à partir d'une base de données de référence,- E4: for at least one thumbnail, automatic extraction of a signature from said thumbnail, determining a plurality of p descriptors, a descriptor being the result of an image analysis, using descriptors of a previously determined statistical model by deep learning supervised from a reference database,

- E5 : classement automatique de la signature de l'imagette dans un espace p-dimensionnel permettant d'attribuer à ladite imagette, un label représentatif de la présence d'anomalies dans la pièce, l'espace pdimensionnel et une partition dudit espace étant déterminés au préalable automatiquement par apprentissage profond supervisé à partir de ladite base de données de référence, ladite base de données de référence comprenant des imagettes de référence auxquelles sont attribuées un label relatif à la présence d'anomalies.- E5: automatic classification of the signature of the thumbnail in a p-dimensional space allowing to attribute to said thumbnail, a label representative of the presence of anomalies in the part, the dimensional space and a partition of said space being determined automatically beforehand by supervised deep learning from said reference database, said reference database comprising reference thumbnails to which are assigned a label relating to the presence of anomalies.

L'invention permet de libérer du temps à l'opérateur qui pourra alors réaliser des tâches à plus forte valeur ajoutée. De plus, la subjectivité introduite par les opérateurs, liée à la variabilité intra- et inter-opérateur est supprimée.The invention frees up time for the operator, who can then perform tasks with higher added value. In addition, the subjectivity introduced by the operators, linked to intra- and inter-operator variability is eliminated.

De plus, le coût financier de l'inspection est diminué.In addition, the financial cost of the inspection is reduced.

L'invention peut en outre comprendre les caractéristiques suivantes :The invention can also include the following features:

- l'étape de traitement comprend une segmentation de l'image en pixels de pièce et en pixels de vide,the processing step comprises a segmentation of the image into room pixels and empty pixels,

- les signatures sont des vecteurs à p dimensions, p étant le nombre de descripteurs,- the signatures are vectors with p dimensions, p being the number of descriptors,

- les vecteurs ayant un même label définissent une partition de l'espace p-dimensionnel en domaines auxquels on associe ledit label et ladite valeur de label, lesdits domaines étant mémorisés,the vectors having the same label define a partition of the p-dimensional space into domains with which said label and said label value are associated, said domains being stored,

- l'étape de classement associe un label au vecteur d'une des imagettes lorsque ledit vecteur se trouve dans un domaine associé audit label.- The classification step associates a label with the vector of one of the thumbnails when said vector is in a domain associated with said label.

- on génère préalablement ladite base de données de référence à partir d'au moins une pièce d'apprentissage, sur laquelle on met en œuvre les étapes suivantes :- said reference database is generated beforehand from at least one learning piece, on which the following steps are implemented:

• FO : génération de l'image 2D de ladite pièce test à l'aide d'un générateur à rayons X, • Fl : traitement de l'image 2D adapté pour atténuer des artéfacts et/ou variabilités de l'image 2D, • F3 : traitement des pixels de pièce afin de réaliser un pavage de la pièce dans l'image 2D en une pluralité d'imagettes, • F4 : pour chaque imagette de ladite pluralité d'imagettes, attribution à ladite imagette, d'un label et d'une valeur de label relatif à la présence d'anomalies en fonction d'une inspection visuelle de l'imagette, ladite inspection visuelle ayant pour but de détecter des anomalies au sein de ladite imagette, et stockage de ladite attribution dans la base de données de référence • F5 : pour une pluralité d'imagettes de la base de données, évaluation automatique d'une signature de chaque imagette, par apprentissage profond supervisé à partir de ladite base de données de référence, déterminant une pluralité de descripteurs, • F6 : détermination automatique d'un espace pdimensionnel et d'une partition dudit espace par apprentissage profond supervisé à partir de ladite base de données de référence, et classement de la signature de l'imagette dans ledit espace p-dimensionnel permettant d'attribuer automatiquement à ladite imagette, un label représentatif de la présence d'anomalies dans la pièce, • F7 : Stockage dudit modèle statistique comprenant ladite pluralité de descripteurs et l'espace p-dimensionnel et une partition dudit espace dans une base de données d'apprentissage.• FO: generation of the 2D image of said test part using an X-ray generator, • F1: processing of the 2D image adapted to attenuate artifacts and / or variabilities of the 2D image, • F3: processing of the room pixels in order to produce a tiling of the room in the 2D image in a plurality of thumbnails, • F4: for each thumbnail of said plurality of thumbnails, allocation to said thumbnail, of a label and of a label value relating to the presence of anomalies as a function of a visual inspection of the thumbnail, said visual inspection having the aim of detecting anomalies within said thumbnail, and storage of said allocation in the database reference data • F5: for a plurality of thumbnails of the database, automatic evaluation of a signature of each thumbnail, by deep learning supervised from said reference database, determining a plurality of descriptors, • F6 : det automatic ermination of a p-dimensional space and a partition of said space by supervised deep learning from said reference database, and classification of the signature of the thumbnail in said p-dimensional space allowing automatic attribution to said thumbnail, a label representative of the presence of anomalies in the room, • F7: Storage of said statistical model comprising said plurality of descriptors and the p-dimensional space and a partition of said space in a learning database.

- l'apprentissage profond est mis en œuvre par une architecture de réseau de neurones convolutionnels comprenant un ensemble de couches de convolution et de sous-échantillonnage pour l'étape d'évaluation automatique de la signature, et au moins une couche de neurones permettant le classement automatique de ladite signature,- deep learning is implemented by a convolutional neural network architecture comprising a set of convolution and subsampling layers for the automatic signature evaluation step, and at least one layer of neurons allowing the automatic classification of said signature,

- chaque imagette de la pièce d'apprentissage est modélisée sous la forme d'un vecteur à p composantes, le vecteur étant positionné dans l'espace à p dimensions, et chaque imagette possède un label et une valeur de label attribués à l'aide de l'analyse visuelle,- each thumbnail of the learning piece is modeled in the form of a vector with p components, the vector being positioned in the p-dimensional space, and each thumbnail has a label and a label value assigned using visual analysis,

- l'étape de pavage est effectuée pour toute l'image,- the paving step is performed for the entire image,

- au moins un label n'a qu'une seule classe, ledit domaine de dimension p étant un domaine fermé,- at least one label has only one class, said domain of dimension p being a closed domain,

- au moins un label à au moins deux classes, lesdites classes correspondant à une région sans défaut et au moins à une région avec défaut, correspondant à au moins deux domaines de dimension p, qui sont deux domaines et dans lequel une frontière entre ces deux domaines est établie.- at least one label with at least two classes, said classes corresponding to a region without defect and at least to a region with defect, corresponding to at least two domains of dimension p, which are two domains and in which a border between these two areas is established.

- le traitement par pavage fait intervenir des zones de recouvrement entre imagettes, afin de minimiser le taux de fuite.- the paving treatment involves overlapping areas between thumbnails, in order to minimize the leakage rate.

L'invention concerne également une unité de calcul, comprenant des moyens de traitement et une mémoire, ladite unité étant configurée pour mettre en œuvre un procédé selon l'une des caractéristiques précédentes.The invention also relates to a calculation unit, comprising processing means and a memory, said unit being configured to implement a method according to one of the preceding characteristics.

L'invention concerne également un produit programme d'ordinateur, configuré pour être exécuté par une unité de calcul tel que décrite précédemment et comprenant des instructions de code pour l'exécution d'un procédé selon l'une des caractéristiques précédentes.The invention also relates to a computer program product, configured to be executed by a calculation unit as described above and comprising code instructions for the execution of a method according to one of the preceding characteristics.

PRESENTATION DES FIGURESPRESENTATION OF THE FIGURES

D'autres caractéristiques, buts et avantages de la présente invention apparaîtront à la lecture de la description détaillée qui va suivre et en regard des dessins annexés, donnés à titre d'exemples et non limitatifs et sur lesquels :Other characteristics, aims and advantages of the present invention will appear on reading the detailed description which follows and with reference to the appended drawings, given by way of examples and not limiting and in which:

- La figure 1, déjà présentée, illustre un système d'acquisition d'image 2D par un générateur de rayons X,FIG. 1, already presented, illustrates a 2D image acquisition system by an X-ray generator,

- La figure 2 illustre certaines étapes d'un mode de réalisation conforme à l'invention, ainsi que les liens entre un procédé deFIG. 2 illustrates certain steps of an embodiment in accordance with the invention, as well as the links between a method of

CND selon l'invention et un procédé de génération de base de données pour mettre en œuvre un CND,CND according to the invention and a database generation method for implementing a CND,

- Les figures 3, 4 et 5A, 5B illustrent les différents dispositifs et produits intervenant dans le cadre de l'invention,FIGS. 3, 4 and 5A, 5B illustrate the various devices and products involved in the context of the invention,

- La figure 6 illustre une architecture de réseau de neurones convolutionnels,FIG. 6 illustrates a network architecture of convolutional neurons,

- La figure 7 illustre un espace p-dimensionnel dans lequel sont positionnés des points formant des domaines, etFIG. 7 illustrates a p-dimensional space in which points forming domains are positioned, and

- La figure 8 illustre la comparaison de performance entre différents types de descripteurs.- Figure 8 illustrates the performance comparison between different types of descriptors.

DESCRIPTION DETAILLEEDETAILED DESCRIPTION

Le CND peut être appliqué à différentes étapes de fabrication d'une pièce 10 à inspecter. La pièce 10 est en matériau métallique.The CND can be applied at different stages of manufacturing a part 10 to be inspected. The part 10 is made of metallic material.

Les pièces sur lesquelles les procédés décrits peuvent être mis en œuvre sont destinées préférentiellement à l'aéronautique. Il s'agit d'aube de turbine haute pression par exemple, plus spécifiquement d'aube de moteur M53 (moteur du mirage 2000).The parts on which the methods described can be implemented are preferably intended for aeronautics. It is a high pressure turbine blade for example, more specifically an M53 engine blade (Mirage 2000 engine).

La figure 2 représente certaines étapes d'un mode de réalisation de l'invention.FIG. 2 represents certain steps of an embodiment of the invention.

Afin de pouvoir effectuer un contrôle non-destructif à l'intérieur de la pièce 10, une étape préliminaire d'acquisition à l'aide d'un système d'imagerie 20, comme un générateur de rayons X, et de moyens de calcul (voir figure 3) est effectuée. Cette étape permet d'obtenir une image 2D de la pièce 10.In order to be able to carry out a non-destructive check inside the room 10, a preliminary acquisition step using an imaging system 20, such as an X-ray generator, and calculation means ( see figure 3) is performed. This step provides a 2D image of part 10.

Cette image est appelée une projection. Un ensemble de projections est acquis sans bouger. Par exemple, dans un mode de réalisation, le générateur 21 et le détecteur 22 étant fixé, un bras articulé (exemple :This image is called a projection. A set of projections is acquired without moving. For example, in one embodiment, the generator 21 and the detector 22 being fixed, an articulated arm (example:

robot type du fabricant Kuka ®) vient saisir automatiquement la pièce et la placer entre le générateur 21 et le détecteur 22 à une position définie à l'avance dans une gamme d'acquisitions.robot type from the manufacturer Kuka ®) automatically grasps the part and places it between the generator 21 and the detector 22 at a position defined in advance in a range of acquisitions.

Une unité de calcul 30 est prévue pour effectuer les traitements informatiques. Elle comprend des moyens de traitement 31 comme un micro-processeur et une mémoire 32.A computing unit 30 is provided for carrying out the computer processing. It includes processing means 31 such as a microprocessor and a memory 32.

En référence aux figures 4 et 5A, 5B, le procédé mis en œuvre pour détecter automatiquement des anomalies nécessite des bases de données (BDD) 40 et 41. BDD 40 et 41 sont stockées sur au moins un serveur 40, et une unité de calcul 50, qui peut être la même unité de calcul que pour l'acquisition de l'image 2D, est utilisée. L'unité de calcul 50 comprend elle aussi des moyens de traitement de données 51 et une mémoire 52. Le serveur 40 peut être cette unité de calcul 50 et les BDD 40 et 41 peuvent être stockées dans ladite mémoire 52.With reference to FIGS. 4 and 5A, 5B, the method implemented for automatically detecting anomalies requires databases (BDD) 40 and 41. BDD 40 and 41 are stored on at least one server 40, and a calculation unit 50, which can be the same calculation unit as for the acquisition of the 2D image, is used. The calculation unit 50 also includes data processing means 51 and a memory 52. The server 40 can be this calculation unit 50 and the BDDs 40 and 41 can be stored in said memory 52.

Calcul d'un modèle statistiqueCalculation of a statistical model

Dans ce qui suit, la pièce 10 est une pièce dite d'apprentissage et sera référencée 11. Cette pièce d'apprentissage 11 va permettre de générer des images de références dans une BDD de référence 40 qui va contribuer à calculer un modèle statistique des images de ladite pièce d'apprentissage 11.In what follows, the part 10 is a so-called learning part and will be referenced 11. This learning part 11 will make it possible to generate reference images in a reference BDD 40 which will help to calculate a statistical model of the images of said learning piece 11.

Prétraitement de l'image (Fl)Image preprocessing (Fl)

Avant de mettre en œuvre les procédés qui seront décrits par la suite, des étapes de prétraitements Fl sont préférablement effectuées pour améliorer la qualité des analyses, suite à l'étape F0 d'acquisition de l'image 2D de la pièce d'apprentissage 11.Before implementing the methods which will be described later, preprocessing steps F1 are preferably carried out to improve the quality of the analyzes, following step F0 of acquiring the 2D image of the learning part 11 .

En effet, au cours de cette acquisition, des artéfacts et des variabilités peuvent apparaitre (pixels défectueux, bruit engendré par le flux diffusé, diffraction...). Des prétraitements peuvent donc être appliqués sur l'image 2D pour supprimer et/ou atténuer ces artéfacts/variabilités.Indeed, during this acquisition, artefacts and variability may appear (defective pixels, noise generated by the diffused flux, diffraction ...). Preprocessings can therefore be applied to the 2D image to remove and / or attenuate these artefacts / variabilities.

Ainsi, on peut mettre en œuvre sur l'image 2D un filtrage du bruit de l'image en utilisant, par exemple, un filtre médian, un filtre gaussien (classe des filtres passe bas).Thus, it is possible to implement on the 2D image filtering of the noise of the image by using, for example, a median filter, a Gaussian filter (class of low pass filters).

L'image 2D peut subir également avantageusement une étape de normalisation pour uniformiser les images 2D afin qu'elles soient toutes comparables. Plusieurs méthodes de normalisation peuvent être utilisées indépendamment ou couplées ensemble :The 2D image can also advantageously undergo a normalization step to standardize the 2D images so that they are all comparable. Several standardization methods can be used independently or coupled together:

- un recalage des images appliqué aux images afin de les remettre toutes dans un référentiel commun dans le but d'absorber la variabilité de l'acquisition.- a registration of the images applied to the images in order to put them all in a common frame of reference in order to absorb the variability of the acquisition.

- Un calcul de la valeur médiane et le MAD (Médian Absolute Différence) sur les pixels correspondant à la pièce pour chaque image et figée à des valeurs prédéterminées identiques pour toutes les images.- A calculation of the median value and the MAD (Median Absolute Difference) on the pixels corresponding to the part for each image and fixed at identical predetermined values for all the images.

- Un calcul du contraste local : la pièce inspectée n'a pas toujours une épaisseur constante (ce n'est jamais le cas pour une aube). Aussi, le contraste local est calculé pour tous les pixels de l'image (soustraction des basses fréquences de l'image uniformisée) (filtre bilatéral [1], diffusion anisotropique [2], total variation filter [3], Edge-avoiding wavelets [4]).- A local contrast calculation: the part inspected does not always have a constant thickness (this is never the case for a blade). Also, the local contrast is calculated for all the pixels of the image (subtraction of the low frequencies from the standardized image) (bilateral filter [1], anisotropic scattering [2], total variation filter [3], Edge-avoiding wavelets [4]).

En outre, un masque de la pièce d'apprentissage 11 est généré à partir de l'image 2D, c'est-à-dire qu'une segmentation entre deux classes de pixels, air et matière, est effectuée (étape F2). Cette segmentation peut être réalisée en calculant automatiquement le seuil optimal permettant de séparer les deux classes.In addition, a mask of the learning part 11 is generated from the 2D image, that is to say that a segmentation between two classes of pixels, air and material, is carried out (step F2). This segmentation can be achieved by automatically calculating the optimal threshold allowing the two classes to be separated.

Un exemple de méthode consiste à calculer l'histogramme des niveaux de gris de l'image et à maximiser la variance interclasse de cet histogramme afin de définir le seuil qui sépare les pixels de l'air et ceux de la matière (voir référence [5]). D'autres méthodes de seuillage automatique sont envisageables (voir référence [6]).An example of a method consists in calculating the histogram of the gray levels of the image and in maximizing the interclass variance of this histogram in order to define the threshold which separates the pixels of air and those of matter (see reference [5 ]). Other automatic thresholding methods are possible (see reference [6]).

Cette étape permet de réaliser l'analyse de la pièce uniquement sur des régions d'intérêt, relatives aux zones de matière de la pièce 11.This step makes it possible to perform the analysis of the part only on regions of interest, relating to the material zones of the part 11.

Après traitement, dans une étape F2, l'image 2D de la pièce d'apprentissage 11 elle-même est récupérée par l'unité de traitement pour l'analyse topologique suivante.After processing, in a step F2, the 2D image of the training part 11 itself is recovered by the processing unit for the following topological analysis.

Étape F3 de pavagePaving step F3

L'image 2D est pavée par des boites de taille fixe (pouvant se superposer). La taille des boites ainsi que le pourcentage de superposition (généralement entre 50 et 75%) sont des paramètres qui sont optimisés en fonction des applications.The 2D image is paved by fixed size boxes (which can overlap). The size of the boxes as well as the percentage of overlap (generally between 50 and 75%) are parameters which are optimized according to the applications.

L'image est donc décomposée en un ensemble d'imagettes (patch). Par exemple, la taille du patch pourra être égale à 32x32 pixels (représentant quelques mm2 sur la pièce 11).The image is therefore broken down into a set of thumbnails (patch). For example, the size of the patch could be equal to 32x32 pixels (representing a few mm 2 on part 11).

À l'issue de l'étape de pavage, on obtient ainsi une pluralité d'imagettes I'I,... ,I'n, dont la recombinaison permet de reconstruire l'image. Dans la suite de la description, on suppose que le pavage de l'image est fait à l'aide de n imagettes I'I, ..., I'n, n étant un entier naturel.At the end of the tiling step, a plurality of thumbnails I'I, ..., I'n are thus obtained, the recombination of which makes it possible to reconstruct the image. In the following description, it is assumed that the tiling of the image is done using n thumbnails I'I, ..., I'n, n being a natural integer.

La superposition permet de diminuer le taux de fuite, ainsi pour éviter de manquer un défaut, le pavage de la pièce 11 fait intervenir des zones de recouvrement entre deux imagettes.The superimposition makes it possible to reduce the leakage rate, thus to avoid missing a defect, the paving of the part 11 involves overlapping zones between two thumbnails.

Du fait de ce recouvrement, une anomalie qui ne serait pas complètement incluse dans une imagette donnée sera complètement incluse dans une autre imagette positionnée à un emplacement proche.Because of this overlap, an anomaly that is not completely included in a given thumbnail will be completely included in another thumbnail positioned at a nearby location.

Constitution d'une base de données de référence 40 (F4)Constitution of a reference database 40 (F4)

On rappelle qu'une pluralité de pièces d'apprentissage 11 est nécessaire pour générer une base de données de référence 40.It will be recalled that a plurality of learning pieces 11 is necessary to generate a reference database 40.

Cette étape fait intervenir une inspection visuelle de l'image 2D représentant une projection de la pièce d'apprentissage 11. Cette inspection visuelle est effectuée par un opérateur, selon des méthodes connues de l'art antérieur. Néanmoins, toute méthode permettant d'identifier un défaut avec certitude peut être utilisée, qu'elle soit effectuée manuellement ou semi-automatiquement par un opérateur.This step involves a visual inspection of the 2D image representing a projection of the learning part 11. This visual inspection is carried out by an operator, according to methods known from the prior art. However, any method which makes it possible to identify a fault with certainty can be used, whether carried out manually or semi-automatically by an operator.

À la suite de l'inspection visuelle, à chaque imagette ΙΊ, ..., I'n est attribué un label. Comme la pièce, avec ses éventuels défauts, a été inspectée visuellement, la signature va servir de référence.Following the visual inspection, each thumbnail ΙΊ, ..., is assigned a label. As the part, with its possible defects, has been visually inspected, the signature will serve as a reference.

On distingue deux manières de marquer une imagette.There are two ways to mark a thumbnail.

Un label Ll mono classe, permettant la détection des défauts, est attribué s'il n'est pas possible de trouver des imagettes possédant la classe contraire. Par exemple, s'il n'est pas possible d'identifier d'imagette avec des anomalies, le label Ll monoclasse a comme unique valeur possible « sans défaut » (ou « sain »).A single class Ll label, allowing the detection of faults, is assigned if it is not possible to find thumbnails having the opposite class. For example, if it is not possible to identify a thumbnail image with anomalies, the single-class Ll label has the only possible value "without defect" (or "healthy").

Un label L2 multi-classe, permettant la détection et la caractérisation des anomalies, est attribué si l'imagette peut être identifiée selon M sous-catégories : oxyde, résidu, surépaisseur, etc. Le label L2 multiclasse le plus élémentaire consiste à attribuer une valeur « sans défaut » (« sain ») ou une valeur « défaut » (« anomalie »).A multi-class L2 label, allowing the detection and characterization of anomalies, is awarded if the thumbnail can be identified according to M sub-categories: oxide, residue, excess thickness, etc. The most elementary L2 multiclass label consists in assigning a value "without defect" ("healthy") or a value "defect" ("anomaly").

On obtient ainsi un vecteur Y de dimension n, correspondant au nombre d'imagettes, dont chaque composante correspond à la valeur d'un label.A vector Y of dimension n is thus obtained, corresponding to the number of thumbnails, each component of which corresponds to the value of a label.

La valeur du label peut être avantageusement définie numériquement, c'est-à-dire qu'une imagette sans défaut (« saine ») aura un label Ll ouThe value of the label can advantageously be defined numerically, that is to say that a flawless ("healthy") thumbnail will have a label Ll or

L2 égal à 0, et les défauts seront numérotés de 1 à M par exemple, M étant un entier naturel.L2 equal to 0, and the defects will be numbered from 1 to M for example, M being a natural integer.

Ainsi, dans l'espace E p-dimensionnel, chaque vecteur du nuage de vecteurs comprend un label Ll ou L2 avec une valeur attribuée. À titre d'illustration, un vecteur Y peut avoir la forme suivante : [Ll=0, Ll=0, L2=2, Ll=0, L2 = M, L2=0, Ll=0,..., L2 = l], avec n composantes.Thus, in p-dimensional space E, each vector of the vector cloud comprises a label L1 or L2 with an assigned value. As an illustration, a vector Y can have the following form: [Ll = 0, Ll = 0, L2 = 2, Ll = 0, L2 = M, L2 = 0, Ll = 0, ..., L2 = l], with n components.

Cette correspondance entre imagette et label est stockée dans la BDD de référence 40.This correspondence between thumbnail and label is stored in the reference database 40.

Pour obtenir une base de données de référence 40 exploitable de façon fiable, elle doit être construite à l'aide d'un grand nombre d'imagettes représentatives de la variabilité des images de la pièce 11 et de la variabilité de la production. Plusieurs pièces 11 sont avantageusement utilisées.To obtain a reliably usable reference database 40, it must be constructed using a large number of images representing the variability of the images of the part 11 and the variability of the production. Several parts 11 are advantageously used.

Le nombre d'imagettes à insérer dans la BDD 40 doit être important pour avoir une description robuste des signatures d'une région saine et d'une région anormale.The number of thumbnails to be inserted in the BDD 40 must be large to have a robust description of the signatures of a healthy region and an abnormal region.

Une phase d'équilibrage de la base de données peut éventuellement être réalisée. En effet, il est en général beaucoup plus difficile d'obtenir des échantillons défauts par rapport aux échantillons sains. Aussi, le nombre d'échantillons est très déséquilibré ce qui est préjudiciable lors de l'apprentissage statistique. Pour combler ce déséquilibre et pour améliorer la robustesse de l'apprentissage, des transformations peuvent être ajoutées aux patchs superposant un défaut pour augmenter la représentativité des anomalies. Ainsi, chaque échantillon « défaut » sera boosté (application de petites transformations géométriques réalistes), de la sorte que pour chaque échantillon « défaut », une centaine d'autres échantillons défauts sont générés. Ce boost de la BDD 40 permet d'augmenter la variabilité et ainsi de limiter le surapprentissage.A balancing phase of the database can possibly be carried out. Indeed, it is generally much more difficult to obtain defect samples compared to healthy samples. Also, the number of samples is very unbalanced which is detrimental during statistical learning. To fill this imbalance and to improve the robustness of learning, transformations can be added to the patches superimposing a defect to increase the representativeness of the anomalies. Thus, each “defect” sample will be boosted (application of small realistic geometric transformations), so that for each “defect” sample, a hundred other defect samples are generated. This boost of BDD 40 makes it possible to increase variability and thus limit overfitting.

Signature de l'image (étape F5)Image signature (step F5)

De chaque imagette I'I, I'n est ensuite calculé automatiquement une signature à partir de la BDD de référence 40. Une signature est un ensemble de valeurs numériques, que l'on définit commodément sous la forme d'un vecteur, auquel on associe un point P. Ces valeurs numériques sont obtenues à l'aide de descripteurs, qui sont par exemple des opérations de convolution appliquées à l'imagette. Les descripteurs constituent des analyses des niveaux de gris N DG de l'imagette.From each thumbnail I'I, I'n is then automatically calculated a signature from the reference BDD 40. A signature is a set of numerical values, which we conveniently define in the form of a vector, to which we associates a point P. These numerical values are obtained using descriptors, which are for example convolution operations applied to the thumbnail. The descriptors constitute analyzes of the gray levels N DG of the thumbnail.

Pour chaque imagette, on dispose préférablement d'une pluralité de descripteurs. On définit p comme le nombre de descripteurs, qui est un entier naturel.For each thumbnail, there is preferably a plurality of descriptors. We define p as the number of descriptors, which is a natural integer.

Chaque imagette est donc représentable comme un point P dans un espace E p-dimensionnel. Autrement formulé, le vecteur associé à l'imagette est projeté dans cet espace E p-dimensionnel (voir figure 7 détaillée plus loin dans la description).Each thumbnail is therefore representable as a point P in a p-dimensional space E. Otherwise formulated, the vector associated with the thumbnail is projected into this p-dimensional space E (see Figure 7 detailed later in the description).

Dans l'étape F5, la signature de l'imagette est obtenue automatiquement par des méthodes statistiques profondes. Ces méthodes permettent d'extraire automatiquement la signature optimale de l'imagette et d'obtenir des descripteurs spécifiques à une application donnée.In step F5, the signature of the thumbnail is obtained automatically by deep statistical methods. These methods make it possible to automatically extract the optimal signature of the thumbnail and to obtain descriptors specific to a given application.

Les méthodes statistiques profondes peuvent être réalisées par apprentissage supervisé.Deep statistical methods can be carried out by supervised learning.

La figure 6 illustre un exemple d'architecture d'apprentissage profond par un réseau de neurones convolutionnels.Figure 6 illustrates an example of deep learning architecture through a convolutional neural network.

La donnée d'entrée du réseau de neurones est une imagette d'une dimension de 32x32 pixels par exemple.The input data of the neural network is a thumbnail of a dimension of 32 × 32 pixels for example.

Les réseaux de neurones convolutionnels extraient la signature de ladite imagette par une succession de couches de traitement comprenant des opérations de convolutions (Cl, C2, ..., C6) et facultativement de pooling (P2, P4, P6).The convolutional neural networks extract the signature of said thumbnail by a succession of processing layers comprising convolution operations (Cl, C2, ..., C6) and optionally pooling operations (P2, P4, P6).

Une convolution est une opération mathématique qui permet de modifier l'image initiale par un noyau de convolution en la filtrant.A convolution is a mathematical operation which makes it possible to modify the initial image by a convolution kernel by filtering it.

Un noyau de convolution va analyser une caractéristique de l’image d’entrée. Une opération non linéaire est appliquée à chaque étape (à chaque convolution) : sigmoid, relu, tanh, ... permettant d'extraire des caractéristiques visuelles (détection de côté, angle, extrémité ...).A convolution kernel will analyze a characteristic of the input image. A non-linear operation is applied to each step (at each convolution): sigmoid, re-read, tanh, ... allowing the extraction of visual characteristics (side, angle, end detection ...).

Le noyau de convolution peut être par exemple une matrice de taille 3x3.The convolution kernel can be for example a matrix of size 3x3.

Pour analyser plusieurs caractéristiques, on empile des strates de noyaux de convolution indépendants, chaque strate analysant une caractéristique de l’image. L’ensemble des strates ainsi empilées forme la couche de traitement convolutif. Le nombre de strates de traitement définit la profondeur de la couche de convolution.To analyze several characteristics, we stack strata of independent convolution kernels, each stratum analyzing a characteristic of the image. All of the strata thus stacked form the convolutional treatment layer. The number of treatment layers defines the depth of the convolution layer.

L’ensemble des sorties d’une couche de traitement permet de reconstituer une image intermédiaire, qui servira de base à la couche de traitement suivante.All the outputs of a processing layer make it possible to reconstruct an intermediate image, which will serve as the basis for the next processing layer.

Comme illustré en figure 6, la première couche Layerl comprend une couche de convolution comprenant une profondeur de taille 20. Ladite première couche est suivie par une deuxième couche de traitement Layer2 comprenant une seconde couche de convolution C2 par exemple de même profondeur et taille de noyau. La convolution dans ladite seconde couche est suivie par une couche de pooling.As illustrated in FIG. 6, the first Layerl layer comprises a convolution layer comprising a depth of size 20. Said first layer is followed by a second Layer2 treatment layer comprising a second convolution layer C2, for example of the same depth and core size . The convolution in said second layer is followed by a pooling layer.

Une couche de pooling permet une étape de sous-échantillonnage de l'image, réduisant ainsi la quantité de paramètres et de calcul, permettant de gros gains en puissance de calcul. La couche de pooling permet également une approche multi-échelle, la couche de convolution suivante traitant une plus grande partie de l'image initiale.A pooling layer allows a step of sub-sampling the image, thus reducing the quantity of parameters and calculation, allowing large gains in computing power. The pooling layer also allows a multi-scale approach, the next convolution layer processing a larger part of the initial image.

Il est donc fréquent d’insérer périodiquement une couche de pooling entre deux couches convolutives successives d’une architecture de méthodes statistiques profondes.It is therefore frequent to periodically insert a pooling layer between two successive convolutional layers of an architecture of deep statistical methods.

Le pooling réduit la taille spatiale d'une image intermédiaire en prenant par exemple la réponse maximale entre les différents pixels (max pooling) par exemple par une méthode Max-Pool 2x2 (compression d'un facteur 4).Pooling reduces the spatial size of an intermediate image by taking for example the maximum response between the different pixels (max pooling) for example by a 2x2 Max-Pool method (compression by a factor of 4).

On peut utiliser également, du average pooling (moyenne), du L2norm pooling ou une fonction de pooling stochastique.We can also use, average pooling, L2norm pooling or a stochastic pooling function.

Après l'application du pooling Max-Pool 2x2 dans la couche de pooling P2, la taille des images est donc de 16x16 pixels.After applying Max-Pool 2x2 pooling in the P2 pooling layer, the size of the images is therefore 16x16 pixels.

Une troisième couche de traitement (layer 3) comprend une couche de convolution C3 de profondeur 50.A third treatment layer (layer 3) comprises a convolution layer C3 of depth 50.

Une quatrième couche de traitement Iayer4, comprend une couche de convolution C4 et une couche de pooling P4 qui fait passer la taille de l'image à analyser par exemple a 8x8 pixels.A fourth processing layer Iayer4, includes a convolution layer C4 and a pooling layer P4 which increases the size of the image to be analyzed, for example to 8x8 pixels.

L'architecture peut également comprendre une cinquième et une sixième couche de traitement, Iayer5 et layerô, d'une profondeur par exemple de taille 100.The architecture can also include a fifth and a sixth treatment layer, Iayer5 and layerô, of a depth for example of size 100.

Pour chaque imagette I'I, I'n de la pièce d'apprentissage 11, on obtient une signature sous forme d'un vecteur à p dimensions. Pour un ensemble d'imagettes I'I, ... I'n, on obtient un nuage de points P dans l'espace à p dimensions, par projection des vecteurs associés.For each thumbnail I'I, I'n of the learning piece 11, a signature is obtained in the form of a vector with p dimensions. For a set of thumbnails I'I, ... I'n, we obtain a point cloud P in p-dimensional space, by projection of the associated vectors.

Par conséquent, on obtient pour la pièce d'apprentissage 11 concernée une matrice X de dimension n par p, dont les coefficients correspondent aux valeurs numériques des descripteurs.Consequently, one obtains for the learning piece 11 concerned a matrix X of dimension n by p, the coefficients of which correspond to the numerical values of the descriptors.

Classement de la signature (F6)Signature classification (F6)

À la suite des enchaînements de couches de convolution et de pooling, l'architecture comprend au moins une couche entièrement connectéeFollowing the sequences of convolutional and pooling layers, the architecture includes at least one fully connected layer

FC, qui est une couche de type perceptron. Les neurones dans une couche entièrement connectée ont des connexions vers toutes les sorties de la couche précédente (comme on le voit régulièrement dans les réseaux réguliers de neurones).FC, which is a perceptron-like layer. The neurons in a fully connected layer have connections to all of the outputs of the previous layer (as seen regularly in regular neural networks).

Ainsi, dans une étape F6, cette couche permet le classement de la signature d'une imagette et donc d'attribuer un label à l'imagette de ladite signature.Thus, in a step F6, this layer makes it possible to classify the signature of a thumbnail and therefore to assign a label to the thumbnail of said signature.

Pour permettre le classement des imagettes, on réunit les imagettes de la BDD de référence 40 possédant les mêmes labels afin de déterminer des intervalles de valeurs des descripteurs permettant de caractériser une imagette.To allow the classification of the thumbnails, the thumbnails of the reference database 40 having the same labels are brought together in order to determine ranges of values of the descriptors making it possible to characterize an thumbnail.

Il s'agit de déterminer à l'aide des imagettes possédant les mêmes labels (c'est-à-dire un nuage de points P), des sous-domaines Dl, D2, \D2 de l'espace E p-dimensionnel (voir figure 7 à nouveau). Ces sousdomaines Dl, D2, \D2 peuvent être de dimension p si l'ensemble des descripteurs est pris en compte, ou bien de dimension inférieure, si au moins un descripteur est ignoré. À l'issue de l'étape F6 une partition de l'espace E est générée.It is a question of determining using the thumbnails having the same labels (that is to say a cloud of points P), of the subdomains Dl, D2, \ D2 of the p-dimensional space E ( see figure 7 again). These subdomains D1, D2, \ D2 can be of dimension p if the set of descriptors is taken into account, or of smaller dimension, if at least one descriptor is ignored. At the end of step F6, a partition of space E is generated.

La génération de ces domaines Dl, D2, \D2 permet de déterminer quel label et quelle valeur de label accorder à un point placé dans l'espace E p-dimensionnel.The generation of these domains D1, D2, \ D2 makes it possible to determine which label and which label value to grant to a point placed in the p-dimensional space E.

S'il s'agit d'un label monoclasse Ll, les imagettes sans défaut (« saines ») forment donc un nuage de points P dans l'espace E à p dimensions. On définit ainsi un domaine fermé (voir Dl sur figure 7) à l'intérieur duquel se trouvent tous les points ou une large majorité des points comprenant la même valeur d'un label de type Ll. En effet, il est possible de ne pas tenir compte de certains points (valeurs trop éloignées, « erreurs », etc.).If it is a single class Ll label, the flawless ("healthy") thumbnails therefore form a point cloud P in space E with p dimensions. A closed domain is thus defined (see Dl in FIG. 7) inside which are all the points or a large majority of the points comprising the same value of a label of type L1. In fact, it is possible to ignore certain points (values that are too far apart, "errors", etc.).

Lorsqu'un nouveau vecteur est inséré (nouvelle imagette), la valeur opposée du label monoclasse lui sera attribué s'il est à l'extérieur de la zone définie.When a new vector is inserted (new thumbnail), the opposite value of the single-class label will be assigned to it if it is outside the defined area.

S'il s'agit d'un label multi-classe L2, l'étape de classement revient à définir une frontière de décision entre les signatures des imagettes saines et celle des imagettes anormales. On définit ainsi au moins deux domaines ouverts (voir D2, \D2 sur figure 7), tous (ou quasiment tous) les points comprenant la même valeur d'un label de type L2 étant dans un même domaine. À titre d'exemple, la frontière peut être un hyperplan de l'espace p-dimensionnel (c'est-à-dire un plan de dimension p-1), qui scinde l'espace en deux domaines.If it is a multi-class L2 label, the classification step amounts to defining a decision border between the signatures of healthy thumbnails and that of abnormal thumbnails. At least two open domains are thus defined (see D2, \ D2 in FIG. 7), all (or almost all) the points comprising the same value of a label of type L2 being in the same domain. As an example, the boundary can be a hyperplane of p-dimensional space (i.e. a plane of dimension p-1), which splits space into two domains.

Si le label L2 a trois classes, on obtient trois sous-domaines.If the L2 label has three classes, we obtain three sub-domains.

Détermination du meilleur modèle statistique et stockage (F7)Determination of the best statistical model and storage (F7)

Dans une étape dite de « feed forward » allant de la première couche vers la dernière couche de traitement (layerl vers FC). On extrait des imagettes présentées au réseau de neurones une signature, ainsi qu'un label prédit.In a step called "feed forward" from the first layer to the last processing layer (layerl to FC). We extract from the thumbnails presented to the neural network a signature, as well as a predicted label.

L'étape de « feed forward » permet de prédire un label par l'apprentissage des signatures optimales et de la partition de l'espace pdimensionnel.The “feed forward” stage makes it possible to predict a label by learning the optimal signatures and the partition of the dimensional space.

Pour chaque imagette, le label prédit dans l'étape de « feed forward » est comparé au label déterminé par l'opérateur de ladite imagette de la base de données annotée. Si ces derniers diffèrent, on détermine une erreur. L'apprentissage statistique est réalisé par rétropropagation de l'erreur commise.For each thumbnail, the label predicted in the "feed forward" step is compared to the label determined by the operator of said thumbnail of the annotated database. If these differ, an error is determined. Statistical learning is carried out by backpropagation of the error made.

On calcule la dérivée de cette erreur pour déterminer comment changer les poids des noyaux de convolutions des différentes couches de façon à réduire l'erreur.We calculate the derivative of this error to determine how to change the weights of the convolution kernels of the different layers so as to reduce the error.

L'erreur est ainsi rétropropagée dans le réseau couche par couche (FC vers layerl), de la dernière vers la première couche pour mettre à jour les poids de chaque couche. L'algorithme d'apprentissage mis en œuvre pour la rétropropagation est par exemple la méthode de descente de gradient stochastique.The error is thus back-propagated in the network layer by layer (FC to layerl), from the last to the first layer to update the weights of each layer. The learning algorithm implemented for backpropagation is for example the stochastic gradient descent method.

Ce sont donc ces noyaux de convolution qui sont appris lors de l'apprentissage statistique lors de la mise à jour des poids. L'apprentissage statistique permet alors de déterminer :It is therefore these convolution kernels that are learned during statistical learning when updating weights. Statistical learning then makes it possible to determine:

- l'apprentissage de la meilleure signature (descripteurs) des images permettant de discriminer les images saines des images à défauts,- learning the best signature (descriptors) of the images making it possible to discriminate healthy images from faulty images,

- l'apprentissage de la meilleure séparation (frontière de décision) entre les signatures des images saines et des signatures des anomalies d'une pièce, en générant un espace de représentation dans lequel les données peuvent être classées avec une performance maîtrisée.- learning the best separation (decision boundary) between the signatures of sound images and signatures of anomalies in a part, by generating a representation space in which the data can be classified with controlled performance.

Dans une étape F7, les paramètres du modèle statistique obtenus par apprentissage supervisé à partir de la BDD de référence 40 sont stockés dans une base de données d'apprentissage 41. Les paramètres stockés sont par exemple, la meilleure signature (descripteur(s)) de la pièce d'apprentissage 11, et la meilleure frontière de décision entre les signatures des images saines et des signatures des anomalies d'une pièce.In a step F7, the parameters of the statistical model obtained by supervised learning from the reference BDD 40 are stored in a training database 41. The stored parameters are for example, the best signature (descriptor (s)) of learning room 11, and the best decision boundary between the signatures of the healthy images and the signatures of the anomalies of a room.

Bien entendu, d'autres architectures et d'autres méthodes statistiques profondes peuvent être utilisées par exemple les réseaux de neurones multicouches, les machines de Boltzman multicouches (Deep Belief Network), les stacked auto-encoder.Of course, other architectures and other deep statistical methods can be used, for example multi-layer neural networks, multi-layer Boltzman machines (Deep Belief Network), stacked auto-encoders.

La figure 8 illustre le gain en performances d'un réseau de neurones convolutionnels par rapport à des méthodes classiques utilisant des descripteurs génériques qui peuvent être utilisés pour différentes applications. Une liste non exhaustive de telles méthodes possibles pour calculer lesdits descripteurs génériques est décrite ci-après :FIG. 8 illustrates the performance gain of a convolutional neural network compared to conventional methods using generic descriptors which can be used for different applications. A non-exhaustive list of such possible methods for calculating said generic descriptors is described below:

Histogramme de l'image, où analyse statistique de celui-ci à travers la moyenne, la médiane, le mode, l'écart type, le kurtosis (qui constitue chacun un descripteur),Histogram of the image, where statistical analysis of it through the mean, the median, the mode, the standard deviation, the kurtosis (which each constitutes a descriptor),

Descripteurs de Haralick qui caractérise la texture à travers l'organisation spatiale de bi-points,Haralick descriptors which characterize the texture through the spatial organization of bi-points,

Descripteurs « Grey Level Run Length Matrix (GLRLM) » qui caractérisent la longueur des zones homogène de la texture de l'image,“Gray Level Run Length Matrix (GLRLM)” descriptors which characterize the length of the homogeneous areas of the image texture,

Descripteurs « Grey Levei Size Zone Matrix (GLSZM) » qui caractérisent la taille des zones homogène de la texture d'une image,“Gray Levei Size Zone Matrix (GLSZM)” descriptors which characterize the size of the homogeneous zones of the texture of an image,

Granulométries : en utilisant un procédé de tamisage, une granulométrie permet de compter les éléments constituant une caractéristique déterminée en les classant par taille,Granulometry: using a sieving process, a granulometry makes it possible to count the elements constituting a determined characteristic by classifying them by size,

Filtres de Gabor : une banque de filtres de Gabor permet de faire une analyse en ondelette directionnelle de la texture en regardant l'énergie de la réponse de chaque filtre,Gabor filters: a bank of Gabor filters allows a directional wavelet analysis of the texture by looking at the energy of the response of each filter,

Autocorrélation : Utilisation de l'autocorrélation du volume 3D dans certaines directions privilégiées,Autocorrelation: Use of 3D volume autocorrelation in certain preferred directions,

Analyse fréquentielle non directionnelle : à partir de la transformée de Fourier du volume, calcul de l'énergie dans différentes bandes de fréquences, « Histogram of Oriented Gradient 3D (HOG) » : après avoir calculé l'orientation du gradient pour chaque pixel de l'image, on compte le nombre de pixels ayant une direction similaire. La sphère unitée est alors pavée en différentes zones qui correspondent aux différentes cases de l'histogramme.Non-directional frequency analysis: from the Fourier transform of the volume, calculation of the energy in different frequency bands, "Histogram of Oriented Gradient 3D (HOG)": after calculating the orientation of the gradient for each pixel of l 'image, we count the number of pixels having a similar direction. The unitary sphere is then paved in different zones which correspond to the different boxes of the histogram.

Analyse en ondelette/curvelette : analyse temps/fréquence du volume tomographique, on utilise par exemple des ondelettes de Haar, de Daubechies, de Morlet...Wavelet / curvelette analysis: time / frequency analysis of the tomographic volume, we use for example Haar, Daubechies, Morlet wavelets ...

Descripteurs binaires : Local Binary Pattern, DAISY, FREAK,Binary descriptors: Local Binary Pattern, DAISY, FREAK,

BRIEF, BRISK...BRIEF, BRISK ...

La ligne des abscisses représente le pourcentage de faux positifs, la ligne des ordonnées le pourcentage de vrai positif. La ligne définit par les points(x=0, y=0) et (x=l, y=l) représente une décision qui serait prise aléatoirement.The abscissa line represents the percentage of false positives, the ordinate line represents the percentage of true positives. The line defined by the points (x = 0, y = 0) and (x = l, y = l) represents a decision which would be taken randomly.

Le point parfait que l'on vise dans la figure 4 est le point (x=0, y=l) correspondant à 0% de faux positifs pour 100% de défauts détectés. La courbe (CNN) correspondant à un modèle réseau de neurones convolutionnels est très proche du point visé et offre des performances bien meilleures que celles des méthodes classiques.The perfect point that we aim at in Figure 4 is the point (x = 0, y = l) corresponding to 0% false positives for 100% of detected defects. The curve (CNN) corresponding to a network model of convolutional neurons is very close to the target point and offers much better performance than that of conventional methods.

Exemple de mise en œuvre d'un procédé d'automatisation du contrôle non-destructifExample of implementation of a non-destructive testing automation process

Le procédé est similaire à la génération de la base de données BDD, à l'exception du fait que la base de données est utilisée pour attribuer un label Ll, L2 aux imagettes II, ... In de l'image de la pièce 10. On ne parle plus à présent de signature de référence pour la pièce 10, puisque l'on cherche à caractériser si la pièce est saine ou anormale à l'aide de ces signatures.The process is similar to the generation of the BDD database, except that the database is used to assign a label L1, L2 to the thumbnails II, ... In of the image of the part 10 We no longer speak of a reference signature for part 10, since we are trying to characterize whether the part is healthy or abnormal using these signatures.

Les mêmes étapes E0, El, E2, et E3 correspondant aux étapes F0, Fl, F2, et F3 sont effectuées.The same steps E0, E1, E2, and E3 corresponding to steps F0, F1, F2, and F3 are carried out.

Dans une étape E4, par l'application du modèle statistique et plus particulièrement de ses descripteurs stockés dans la BDD d'apprentissage 41 on obtient une signature.In a step E4, by applying the statistical model and more particularly its descriptors stored in the learning database 41, a signature is obtained.

Une fois la signature obtenue, dans une étape E5, au lieu de lui attribuer un label par inspection visuelle, et la stocker (étape F4), cette signature est projetée dans l'espace E p-dimensionnel du modèle statistique de la BDD d'apprentissage 41. En d'autres termes, chaque vecteur associé à une image II, ..., In est projeté dans l'espace p-dimensionnel, de façon à positionner ladite imagette dans ledit espace E, et à classer ladite imagette. Ensuite, du fait de l'application du modèle statistique et de la partition de l'espace E, le placement du point P correspondant au vecteur permet de lui attribuer automatiquement la valeur d'un label Ll, L2.Once the signature obtained, in a step E5, instead of assigning it a label by visual inspection, and storing it (step F4), this signature is projected into the p-dimensional space E of the statistical model of the BDD d ' learning 41. In other words, each vector associated with an image II, ..., In is projected into the p-dimensional space, so as to position said thumbnail in said space E, and to classify said thumbnail. Then, due to the application of the statistical model and the partition of the space E, the placement of the point P corresponding to the vector makes it possible to automatically assign to it the value of a label L1, L2.

Plus précisément, le point P correspondant à une des imagettes II, ..., In est positionnée dans l'espace E p-dimensionnel. À partir de ce positionnement, on détermine dans quel domaine Dl, D2, \D2 prédéterminé de la BDD d'apprentissage 41 appartient ce vecteur, ce qui permet d'attribuer à l'imagette la valeur du label qui caractérise ledit domaine.More precisely, the point P corresponding to one of the thumbnails II, ..., In is positioned in the p-dimensional space E. From this positioning, it is determined in which domain D1, D2, \ D2 predetermined of the learning BDD 41 this vector belongs, which makes it possible to attribute to the thumbnail the value of the label which characterizes said domain.

En positionnant tous les vecteurs des imagettes II, ..., In constituant l'image de la pièce 10, l'ensemble des signatures déterminées par la méthode d'apprentissage statistique supervisé a permis de générer une partition de l'espace E, qui à son tour permet de générer un vecteur Y, dit de prédiction, tel que défini précédemment, regroupant toutes les valeurs des labels. Il suffit qu'une seule coordonnée de ce vecteur Y, c'est-à-dire une valeur d'un label, corresponde à une imagette avec défaut pour que la pièce 10 ne soit pas considérée comme sans défaut. Les critères de tolérance peuvent néanmoins être fixés en fonction d'un cahier des charges.By positioning all the vectors of the thumbnails II, ..., In constituting the image of the piece 10, the set of signatures determined by the supervised statistical learning method made it possible to generate a partition of the space E, which in turn allows to generate a vector Y, called prediction, as defined above, grouping all the values of the labels. It suffices that a single coordinate of this vector Y, that is to say a value of a label, corresponds to an image with a defect so that the part 10 is not considered to be without defect. Tolerance criteria can nevertheless be set according to specifications.

Si le domaine est défini par une frontière, on calcule la distance algébrique à cette frontière pour déterminer le label. S'il peut arriver que le point tombe trop près d'une frontière, il est aussi possible de déplacer artificiellement la frontière, notamment dans le but de réduire le taux de fuites : il est en effet préférable de faussement détecter une anomalie que de la manquer.If the domain is defined by a border, we calculate the algebraic distance to this border to determine the label. If it can happen that the point falls too close to a border, it is also possible to artificially move the border, in particular in order to reduce the rate of leaks: it is in fact better to falsely detect an anomaly than to to lack.

Par exemple, si l'imagette est éloignée d'un label Ll correspondant à une pièce sans défaut, on pourra déduire que l'imagette correspond à une pièce non-saine.For example, if the thumbnail is far from a label L1 corresponding to a flawless piece, it can be deduced that the thumbnail corresponds to an unhealthy piece.

Afin de permettre une compatibilité entre la BDD de référence 40 et le procédé de CND automatique, la taille des boites de pavage de l'étape de pavage E3 a des dimensions identiques à celui de l'étape F3. De la sorte, toutes les imagettes utilisées ont les mêmes dimensions.In order to allow compatibility between the reference BDD 40 and the automatic CND process, the size of the paving boxes of the paving step E3 has dimensions identical to that of the step F3. In this way, all the thumbnails used have the same dimensions.

Dans une étape facultative, une cartographie des défauts présents dans l'image de la pièce 10 est générée. Si besoin, une inspection visuelle, appelée consolidation, est effectuée par un opérateur pour valider la détection.In an optional step, a map of the defects present in the image of the part 10 is generated. If necessary, a visual inspection, called consolidation, is carried out by an operator to validate the detection.

En outre, suite à cette inspection visuelle, les données générées par le procédé peuvent venir compléter la base de données, de sorte que laIn addition, following this visual inspection, the data generated by the process can complete the database, so that the

BDD de référence 40 s'enrichit à mesure que les pièces sont analysées. Préférablement, ces données ne complètent la base de données que si un écart entre le résultat obtenu et la consolidation est observé. Ainsi, la pièce 10 devient une pièce d'apprentissage 11.Reference BDD 40 is enriched as the parts are analyzed. Preferably, these data only complete the database if a difference between the result obtained and the consolidation is observed. Thus, the part 10 becomes a learning part 11.

Références [1] Carlo Tomasi and Roberto Manduchi, Bilateral filtering for gray and color images, in Computer Vision, 1998. Sixth International Conférence on . IEEE, 1998, pp. 839- 846.References [1] Carlo Tomasi and Roberto Manduchi, Bilateral filtering for gray and color images, in Computer Vision, 1998. Sixth International Conférence on. IEEE, 1998, pp. 839-846.

[2] Pietro Perona and Jitendra Malik (November 1987). Scale-space and edge détection using anisotropic diffusion. Proceedings of IEEE Computer Society Workshop on Computer Vision,, pp. 16-22.[2] Pietro Perona and Jitendra Malik (November 1987). Scale-space and edge detection using anisotropic diffusion. Proceedings of IEEE Computer Society Workshop on Computer Vision ,, pp. 16-22.

[3] Rudin, L. I.; Osher, S.; Fatemi, E. (1992). Nonlinear total variation based noise removal algorithms. Physica D 60: 259-268.[3] Rudin, L. I .; Osher, S .; Fatemi, E. (1992). Nonlinear total variation based noise removal algorithms. Physica D 60: 259-268.

[4] Raanan Fattal Edge-avoiding wavelets and their applications, ACM Trans. Graph, 28, 3, 2009.[4] Raanan Fattal Edge-avoiding wavelets and their applications, ACM Trans. Graph, 28, 3, 2009.

[5] K Dabov, A Foi, V Katkovnik Image and video denoising by sparse 3D transform-domain collaborative filtering.[5] K Dabov, A Foi, V Katkovnik Image and video denoising by sparse 3D transform-domain collaborative filtering.

[6] Nobuyuki Otsu, « A threshold sélection method from gray-level histograms », IEEE Trans. Sys., Man., Cyber., vol. 9, 1979, p. 62-66 (DOI 10.1109/TSMC.1979.4310076).[6] Nobuyuki Otsu, "A threshold selection method from gray-level histograms", IEEE Trans. Sys., Man., Cyber., Vol. 9, 1979, p. 62-66 (DOI 10.1109 / TSMC.1979.4310076).

Claims (12)

RevendicationsClaims 1. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique comprenant les étapes suivantes :1. Method for non-destructive testing of a metal part (10) for aeronautics, comprising the following steps: - (E0) génération d'une image 2D de la pièce métallique (10) à l'aide d'un générateur de rayons X (20), ladite image 2D correspondant à une projection sur un plan de la pièce (10),- (E0) generation of a 2D image of the metal part (10) using an X-ray generator (20), said 2D image corresponding to a projection on a plane of the part (10), - (El) traitement de l'image 2D adapté pour atténuer des artéfacts et/ou variabilités de l'image 2D,- (E1) 2D image processing adapted to attenuate artifacts and / or variabilities of the 2D image, - (E3) traitement des pixels de pièce afin de réaliser un pavage de la pièce dans l'image 2D en une pluralité d'imagettes (II, In),- (E3) processing of the room pixels in order to produce a tiling of the room in the 2D image in a plurality of thumbnails (II, In), - (E4) pour au moins une imagette, extraction automatique d'une signature de ladite imagette, déterminant une pluralité de p descripteurs, un descripteur étant le résultat d'une analyse d'image, à partir de descripteurs d'un modèle statistique déterminés préalablement par apprentissage profond supervisé à partir d'une base de données de référence (40),- (E4) for at least one thumbnail, automatic extraction of a signature from said thumbnail, determining a plurality of p descriptors, a descriptor being the result of an image analysis, from descriptors of a determined statistical model previously by deep learning supervised from a reference database (40), - (E5) classement automatique de la signature de l'imagette (II, ..., In) dans un espace (E) p-dimensionnel permettant d'attribuer à ladite imagette, un label représentatif de la présence d'anomalies dans la pièce (Ll, L2), l'espace (E) p-dimensionnel et une partition dudit espace étant déterminés au préalable automatiquement par apprentissage profond supervisé à partir de ladite base de données de référence (40), ladite base de données de référence (40) comprenant des imagettes de référence auxquelles sont attribuées un label (Ll, L2) relatif à la présence d'anomalies.- (E5) automatic classification of the signature of the thumbnail (II, ..., In) in a space (E) p-dimensional allowing to assign to said thumbnail, a label representative of the presence of anomalies in the piece (L1, L2), the p-dimensional space (E) and a partition of said space being determined beforehand automatically by supervised deep learning from said reference database (40), said reference database ( 40) comprising reference thumbnails to which a label (L1, L2) is assigned relating to the presence of anomalies. 2. Procédé de contrôle non-destructif d'une pièce métallique (10) selon la revendication précédente, dans lequel l'étape de traitement comprend une segmentation de l'image en pixels de pièce et en pixels de vide.2. A method of non-destructive testing of a metal part (10) according to the preceding claim, in which the processing step comprises a segmentation of the image into room pixels and empty pixels. 3. Procédé selon la revendication 1 ou 2, dans lequel ;3. The method of claim 1 or 2, wherein; - les signatures sont des vecteurs à p dimensions, p étant le nombre de descripteurs,- the signatures are vectors with p dimensions, p being the number of descriptors, - les vecteurs ayant un même label (Ll, L2) définissent une partition de l'espace (E) p-dimensionnel en domaines (D) auxquels on associe ledit label et ladite valeur de label, lesdits domaines étant mémorisés,the vectors having the same label (L1, L2) define a partition of the p-dimensional space (E) into domains (D) with which said label and said label value are associated, said domains being stored, - l'étape de classement (E5) associe un label au vecteur d'une des imagettes (II, ..., In) lorsque ledit vecteur se trouve dans un domaine associé audit label.- the classification step (E5) associates a label with the vector of one of the thumbnails (II, ..., In) when said vector is in a domain associated with said label. 4. Procédé selon l'une des revendications précédentes, dans lequel on génère préalablement ladite base de données de référence (40) à partir d'au moins une pièce d'apprentissage (11), sur laquelle on met en œuvre les étapes suivantes :4. Method according to one of the preceding claims, in which said reference database (40) is generated beforehand from at least one learning part (11), on which the following steps are implemented: - (F0) génération de l'image 2D de ladite pièce test (11) à l'aide d'un générateur à rayons X (20),- (F0) generation of the 2D image of said test piece (11) using an X-ray generator (20), - (Fl) traitement de l'image 2D adapté pour atténuer des artefacts et/ou variabilités de l'image 2D,- (Fl) 2D image processing adapted to attenuate artifacts and / or variabilities of the 2D image, - (F3) traitement des pixels de pièce afin de réaliser un pavage de la pièce dans l'image 2D en une pluralité d'imagettes (II, ..., In),- (F3) processing of the room pixels in order to produce a tiling of the room in the 2D image in a plurality of thumbnails (II, ..., In), - (F4) pour chaque imagette de ladite pluralité d'imagettes (II, ..., In), attribution à ladite imagette d'un label (Ll, L2) et d'une valeur de label relatif à la présence d'anomalies en fonction d'une inspection visuelle de l'imagette (Γ1, .... Γη), ladite inspection visuelle ayant pour but de détecter des anomalies au sein de ladite imagette, et stockage de ladite attribution dans la base de données de référence (40).- (F4) for each thumbnail of said plurality of thumbnails (II, ..., In), allocation to said thumbnail of a label (L1, L2) and of a label value relating to the presence of anomalies based on a visual inspection of the thumbnail (Γ1, .... Γη), said visual inspection having the aim of detecting anomalies within said thumbnail, and storage of said allocation in the reference database ( 40). 5. Procédé selon la revendication précédente, dans lequel on génère préalablement lesdits descripteurs dudit modèle statistique à partir de la base de données de référence (40), sur laquelle on met en œuvre les étapes suivantes :5. Method according to the preceding claim, in which said descriptors of said statistical model are generated beforehand from the reference database (40), on which the following steps are implemented: - (F5) pour une pluralité d'imagettes de la base de données (40), évaluation automatique d'une signature de chaque imagette (Γ1, .... Γη), par apprentissage profond supervisé à partir de ladite base de données de référence (40), déterminant une pluralité (p) de descripteurs,- (F5) for a plurality of thumbnails of the database (40), automatic evaluation of a signature of each thumbnail (Γ1, .... Γη), by supervised deep learning from said database reference (40), determining a plurality (p) of descriptors, - (F6) détermination automatique d'un espace (E) p-dimensionnel et d'une partition dudit espace par apprentissage profond supervisé à partir de ladite base de données de référence (40), et classement de la signature de l'imagette (II, ..., In) dans ledit espace (E) p-dimensionnel permettant d'attribuer automatiquement à ladite imagette, un label représentatif de la présence d'anomalies dans la pièce (Ll, L2),- (F6) automatic determination of a p-dimensional space (E) and of a partition of said space by supervised deep learning from said reference database (40), and classification of the signature of the thumbnail ( II, ..., In) in said p-dimensional space (E) making it possible to automatically assign to said thumbnail, a label representative of the presence of anomalies in the part (L1, L2), - (F7) Stockage dudit modèle statistique comprenant ladite pluralité de descripteurs et l'espace (E) p-dimensionnel et une partition dudit espace dans une base de données d'apprentissage (41).- (F7) Storage of said statistical model comprising said plurality of descriptors and the p-dimensional space (E) and a partition of said space in a training database (41). 6. Procédé selon la revendication précédente, dans lequel :6. Method according to the preceding claim, in which: chaque imagette (Γ1,..., Γη) de la pièce d'apprentissage (11) est modélisée sous la forme d'un vecteur à p composantes, le vecteur étant positionné dans l'espace à p dimensions, et chaque imagette (Γ1, ..., I'n) possède un label (Ll, L2) et une valeur de label attribués à l'aide de l'analyse visuelle.each thumbnail (Γ1, ..., Γη) of the learning piece (11) is modeled as a vector with p components, the vector being positioned in p-dimensional space, and each thumbnail (Γ1 , ..., I'n) has a label (L1, L2) and a label value assigned using visual analysis. 7. Procédé selon l'une des revendications précédentes, dans lequel l'apprentissage profond est mis en œuvre par une architecture de réseau de neurones convolutionnels comprenant un ensemble de couches de convolution et de sous-échantillonnage pour l'étape d'évaluation automatique de la signature, et au moins une couche de neurones permettant le classement automatique de ladite signature.7. Method according to one of the preceding claims, in which the deep learning is implemented by a convolutional neural network architecture comprising a set of convolution and subsampling layers for the step of automatic evaluation of the signature, and at least one layer of neurons allowing the automatic classification of said signature. 8. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'étape de pavage (E3, F3) est effectuée pour toute l'image.8. Method according to any one of the preceding claims, in which the tiling step (E3, F3) is carried out for the entire image. 9. Procédé selon l'une quelconque des revendications précédentes, dans lequel au moins un label (Ll) n'a qu'une seule classe, ledit domaine de dimension p étant un domaine fermé (Dl).9. Method according to any one of the preceding claims, in which at least one label (L1) has only one class, said domain of dimension p being a closed domain (Dl). 10. Procédé selon l'une quelconque des revendications précédentes, dans lequel au moins un label (L2) à au moins deux classes (M), lesdites classes (M) correspondant à une région sans défaut et au moins à une région avec défaut, correspondant à au moins deux domaines ouverts (D2, \D2) de dimension p, qui sont deux domaines (D2, \D2) et dans lequel une frontière entre ces deux domaines est établie.10. Method according to any one of the preceding claims, in which at least one label (L2) has at least two classes (M), said classes (M) corresponding to a faultless region and at least to a faulty region, corresponding to at least two open domains (D2, \ D2) of dimension p, which are two domains (D2, \ D2) and in which a border between these two domains is established. 11. Procédé selon l'une quelconque des revendications précédentes, dans lequel le traitement par pavage (E3, F3) fait intervenir des zones de recouvrement entre imagettes (II, ..., In, I'I, ... I'n), afin de minimiser le taux de fuite.11. Method according to any one of the preceding claims, in which the paving treatment (E3, F3) involves overlapping zones between thumbnails (II, ..., In, I'I, ... I'n ), to minimize the leak rate. 12. Produit programme d'ordinateur, destiné à être exécuté par des moyens de traitement d'une unité de calcul, ladite unité de calcul comprenant en outre une mémoire, et comprenant des instructions de code pour l'exécution d'un procédé selon l'une des revendications précédentes.12. Computer program product, intended to be executed by processing means of a calculation unit, said calculation unit further comprising a memory, and comprising code instructions for the execution of a method according to the 'one of the preceding claims. 2/72/7
FR1661101A 2016-11-16 2016-11-16 NON-DESTRUCTIVE METAL PART CONTROL PROCESS Active FR3058816B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1661101A FR3058816B1 (en) 2016-11-16 2016-11-16 NON-DESTRUCTIVE METAL PART CONTROL PROCESS

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1661101 2016-11-16
FR1661101A FR3058816B1 (en) 2016-11-16 2016-11-16 NON-DESTRUCTIVE METAL PART CONTROL PROCESS

Publications (2)

Publication Number Publication Date
FR3058816A1 true FR3058816A1 (en) 2018-05-18
FR3058816B1 FR3058816B1 (en) 2021-09-03

Family

ID=59152930

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1661101A Active FR3058816B1 (en) 2016-11-16 2016-11-16 NON-DESTRUCTIVE METAL PART CONTROL PROCESS

Country Status (1)

Country Link
FR (1) FR3058816B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3116119A1 (en) * 2020-11-12 2022-05-13 Saint-Gobain Glass France Method and system for inspecting transparent glazing fitted with a gasket
FR3138224A1 (en) * 2022-07-22 2024-01-26 Safran Aircraft Engines Generation of digital models of parts, particularly aeronautical

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
AMOD P RALE ET AL: "Comparison of different ANN techniques for automatic defect detection in X-Ray images", EMERGING TRENDS IN ELECTRONIC AND PHOTONIC DEVICES&SYSTEMS, 2009. ELECTRO '09. INTERNATIONAL CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 22 December 2009 (2009-12-22), pages 193 - 197, XP032187947, ISBN: 978-1-4244-4846-3, DOI: 10.1109/ELECTRO.2009.5441138 *
BOYU WANG ET AL: "X-Ray Scattering Image Classification Using Deep Learning", CORR (ARXIV), 10 November 2016 (2016-11-10), pages 697 - 704, XP055405095, ISBN: 978-1-5090-4822-9, DOI: 10.1109/WACV.2017.83 *
D MERY: "Computer vision technology for X-ray testing", INSIGHT - NON-DESTRUCTIVE TESTING AND CONDITION MONITORING, vol. 56, no. 3, 1 March 2014 (2014-03-01), GB, pages 147 - 155, XP055200024, ISSN: 1354-2575, DOI: 10.1784/insi.2014.56.3.147 *
MERY DOMINGO ET AL: "Automatic Defect Recognition in X-Ray Testing Using Computer Vision", 2017 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION (WACV), IEEE, 24 March 2017 (2017-03-24), pages 1026 - 1035, XP033096887, DOI: 10.1109/WACV.2017.119 *
WANG G ET AL: "Automatic identification of different types of welding defects in radiographic images", NDT & E INTERNATI, BUTTERWORTH-HEINEMANN, OXFORD, GB, vol. 35, no. 8, 1 December 2002 (2002-12-01), pages 519 - 528, XP004395857, ISSN: 0963-8695, DOI: 10.1016/S0963-8695(02)00025-7 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3116119A1 (en) * 2020-11-12 2022-05-13 Saint-Gobain Glass France Method and system for inspecting transparent glazing fitted with a gasket
WO2022101291A1 (en) * 2020-11-12 2022-05-19 Saint-Gobain Glass France Method and system for inspecting transparent glazing equipped with a spline
FR3138224A1 (en) * 2022-07-22 2024-01-26 Safran Aircraft Engines Generation of digital models of parts, particularly aeronautical

Also Published As

Publication number Publication date
FR3058816B1 (en) 2021-09-03

Similar Documents

Publication Publication Date Title
CN110402487B (en) Method and apparatus for classifying defects detected from a wafer
US20220066905A1 (en) Explainable artificial intelligence modeling and simulation system and method
US9293298B2 (en) Defect discovery and inspection sensitivity optimization using automated classification of corresponding electron beam images
US11803953B2 (en) Manufacturing quality improvement through statistical root cause analysis using convolution neural networks
CA2284895C (en) Method for examining doubtful zones on the surface of an unwinding strip by image segmentation
FR3050826A1 (en) METHOD OF NON-DESTRUCTIVE CONTROL BY LEARNING
WO2020064323A1 (en) Method and system for the non-destructive testing of an aerospace part by contour readjustment
CA3206604A1 (en) System and method for manufacturing quality control using automated visual inspection
CN112837294A (en) Thermal imaging defect detection method based on convolution self-encoder image amplification
FR3050274A1 (en) METHOD OF TOPOLOGICAL ANALYSIS OF A COMPOSITE PIECE
WO2023084543A1 (en) System and method for leveraging neural network based hybrid feature extraction model for grain quality analysis
FR3058816A1 (en) METHOD FOR NON-DESTRUCTIVE CONTROL OF METAL PIECE
FR3075376A1 (en) NON-DESTRUCTIVE CONTROL METHOD FOR AERONAUTICAL WORKPIECE
Maestro-Watson et al. Deep learning for deflectometric inspection of specular surfaces
Asadizanjani et al. A database for counterfeit electronics and automatic defect detection based on image processing and machine learning
CA3095089A1 (en) Method for detecting cells having at least one anomaly in a cytological sample
KR20230036650A (en) Defect detection method and system based on image patch
Go et al. A deep learning-based surface defect inspection system for smartphone glass
EP1129432A1 (en) Method for comparing recorded pixel images representing equipotential lines of at least an integrated circuit chip
WO2022263760A1 (en) Method for determining the presence of at least one defect on a tomographic image of a three-dimensional part by breaking the image down into principal components
CN115017672A (en) Method and device for detecting quality of artificial synthetic wood board and storage medium
Zuo et al. A Big Data Platform for Surface Enhanced Raman Spectroscopy Data with an Application on Image-Based Sensor Quality Control
Zhou et al. Design and Research of Intelligent Weld Defect Detection System
Deshmukh et al. Automatic Inspection System for Segregation of Defective Parts of Heavy Vehicles
Kim et al. Automated concrete crack detection and using deep leaning and image processing method

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180518

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8