FR3075376A1 - NON-DESTRUCTIVE CONTROL METHOD FOR AERONAUTICAL WORKPIECE - Google Patents

NON-DESTRUCTIVE CONTROL METHOD FOR AERONAUTICAL WORKPIECE Download PDF

Info

Publication number
FR3075376A1
FR3075376A1 FR1762177A FR1762177A FR3075376A1 FR 3075376 A1 FR3075376 A1 FR 3075376A1 FR 1762177 A FR1762177 A FR 1762177A FR 1762177 A FR1762177 A FR 1762177A FR 3075376 A1 FR3075376 A1 FR 3075376A1
Authority
FR
France
Prior art keywords
image
metal part
indications
images
simulated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1762177A
Other languages
French (fr)
Other versions
FR3075376B1 (en
Inventor
Jerome Morard Vincent
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran SA
Original Assignee
Safran SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran SA filed Critical Safran SA
Priority to FR1762177A priority Critical patent/FR3075376B1/en
Publication of FR3075376A1 publication Critical patent/FR3075376A1/en
Application granted granted Critical
Publication of FR3075376B1 publication Critical patent/FR3075376B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/63Specific applications or type of materials turbine blades
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

L'invention concerne un procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique mettant en œuvre un système radiographique d'acquisition d'images (20), comprenant une étape d'apprentissage statistique d'indications (E10) comprenant les sous-étapes suivantes : - créer une base de données d'images simulées de la pièce métallique (10), ainsi qu'au moins un élément d'identification d'une indication donnée dans ladite base de données (40) ; et - à partir de ladite base de données, mettre en œuvre une analyse statistique par apprentissage supervisée adversaire pour générer un modèle statistique d'indications d'indication dans une pièce métallique (10) ; une étape de calcul des probabilités de présences d'indications (E2) dans la pièce à contrôler (10) pour calculer des probabilités de présences d'indications dans ladite image 2D à partir du modèle statistique (MS) ; et en déterminer si la pièce métallique (10) est caractéristique d'une pièce saine.  The invention relates to a method of non-destructive testing of a metal part (10) for aeronautics using a radiographic image acquisition system (20), comprising a step of statistically learning indications (E10). including the following sub-steps:  - creating a database of simulated images of the metal part (10), as well as at least one element for identifying an indication given in said database (40); and  - From said database, implementing a statistical analysis by supervised adversary learning to generate a statistical model of indication indications in a metal part (10);  a step of calculating the probabilities of presence of indications (E2) in the part to be checked (10) to calculate the probabilities of presence of indications in said 2D image from the statistical model (MS); and  determine whether the metal part (10) is characteristic of a sound part.

Description

PROCÉDÉ DE CONTRÔLE NON-DESTRUCTIF POUR UNE PIECE AERONAUTIQUENON-DESTRUCTIVE INSPECTION METHOD FOR AN AERONAUTICAL PART

DOMAINE TECHNIQUE GENERALGENERAL TECHNICAL AREA

L'invention concerne le domaine du contrôle non destructif (CND) sur des pièces industrielles en matériau métallique, notamment dans le domaine de l'aéronautique, à l'aide d'images acquises au moyen d'un générateur de rayons X.The invention relates to the field of non-destructive testing (CND) on industrial parts made of metallic material, in particular in the aeronautical field, using images acquired by means of an X-ray generator.

Plus précisément, l'invention concerne l'automatisation des méthodes de CND.More specifically, the invention relates to the automation of NDT methods.

ETAT DE L'ARTSTATE OF THE ART

Le CND est primordial pour contrôler la santé matière des matériaux. Par exemple, les aubes de turbine haute pression sont des pièces critiques qui doivent être contrôlées en intégralité.The CND is essential to control the material health of materials. For example, high pressure turbine blades are critical parts that need to be fully checked.

Chaque pièce issue de la chaîne de production est contrôlée individuellement pour s'assurer de la conformité de cette dernière par rapport à un cahier des charges. Ce contrôle santé matière peut être réalisé au moyen d'un générateur de rayons X qui vient bombarder la pièce à inspecter. L'atténuation des rayons X est observée grâce à un détecteur placé derrière la pièce formant une image 2D (cf. figure 1). Les niveaux de gris de cette image projetée sont proportionnels à l'atténuation des rayons X traversant la pièce.Each part from the production chain is individually checked to ensure that it complies with specifications. This material health check can be carried out by means of an X-ray generator which bombards the part to be inspected. The attenuation of the X-rays is observed thanks to a detector placed behind the part forming a 2D image (cf. Figure 1). The grayscale of this projected image is proportional to the attenuation of the X-rays passing through the room.

Les aubes de turbine haute pression ont une structure interne complexe, creuse, laissant passer de l'air pour les refroidir. Des surépaisseurs et des sous-épaisseurs peuvent être présentes à l'intérieur de l'aube. De plus, d'autres défauts peuvent apparaître lors du procédé de fabrication de la pièce : des corps étrangers plus ou moins denses, des retassures, des inclusions, des résidus, des oxydes...The high pressure turbine blades have a complex, hollow internal structure, allowing air to pass through to cool them. Additional thicknesses and sub-thicknesses may be present inside the dawn. In addition, other defects may appear during the part's manufacturing process: more or less dense foreign bodies, shrinkage, inclusions, residues, oxides ...

Traditionnellement, après l'acquisition d'une projection de la pièce (image 2D), un opérateur vient contrôler manuellement cette image à la recherche d'indications (défauts critiques, anomalies structurels).Traditionally, after acquiring a projection of the part (2D image), an operator comes to manually check this image in search of indications (critical faults, structural anomalies).

L'image est codée en 16 bits (soit 65536 niveaux de gris) or les écrans de contrôle ne permettent que d'afficher des images 8 bits. L'opérateur doit alors constamment régler le contraste de l'image pour distinguer des petites irrégularités de niveaux de gris dans l'image. Ce phénomène est accentué pour des pièces d'épaisseur variable (comme les pièces d'aubes), les niveaux de gris étant corrélés à cette variation d'épaisseur. L'opérateur doit ainsi balayer toute l'image tout en réglant le contraste de l'image. C'est une opération relativement longue et fastidieuse, et source d'erreur.The image is coded in 16 bits (i.e. 65536 grayscale), but the control screens only allow the display of 8 bit images. The operator must then constantly adjust the contrast of the image to distinguish small irregularities in gray levels in the image. This phenomenon is accentuated for parts of variable thickness (such as blade parts), the gray levels being correlated with this variation in thickness. The operator must therefore scan the entire image while adjusting the contrast of the image. It is a relatively long and tedious operation, and a source of error.

Finalement, après avoir détecté manuellement toutes les indications de la pièce, la pièce est soit acceptée et montée sur le moteur, ou soit rebutée suivant alors le processus de dérogation.Finally, after having manually detected all the indications of the part, the part is either accepted and mounted on the engine, or is then rejected according to the derogation process.

Pour permettre l'automatisation du contrôle, il existe des méthodes de contrôle automatique mettant en œuvre un apprentissage statistique supervisé afin d'apprendre la signature d'une pièce saine et des différentes indications (anomalies, défauts structurels). Ces méthodes offrent des performances de détection connues. On connaît ainsi la demande de brevet FR.1661101. On connaît également la publication W02015/033044 s'adressant à la caractérisation d'une pièce en matériau composite tissé. Cependant, l'apprentissage statistique réalisé en amont nécessite la mise en place d'une base de données annotée, complète, et difficile à obtenir en pratique.To allow the automation of the control, there are automatic control methods implementing supervised statistical learning in order to learn the signature of a sound part and the various indications (anomalies, structural defects). These methods offer known detection performance. We thus know the patent application FR.1661101. We also know the publication W02015 / 033044 addressing the characterization of a piece of woven composite material. However, the statistical learning carried out upstream requires the establishment of an annotated database, complete, and difficult to obtain in practice.

En effet, l'annotation de la base de données est :Indeed, the annotation of the database is:

- coûteuse en temps : des opérateurs doivent annoter exhaustivement et avec précision un ensemble très important d'images. De plus, un consensus doit être réalisé par un expert pour valider la base de données annotées ;- costly in time: operators must annotate exhaustively and precisely a very large set of images. In addition, a consensus must be reached by an expert to validate the annotated database;

- coûteuse en argent : de nombreuses personnes interviennent sur la constitution de cette base de données annotées (opérateurs, chef de projet ...) ;- costly in money: many people are involved in the creation of this annotated database (operators, project manager, etc.);

- sujette aux facteurs humains : l'annotation des images est une tâche manuelle fastidieuse et donc, des erreurs peuvent survenir. Cette variabilité inter et intra opérateurs peut perturber l'apprentissage statistique ;- subject to human factors: annotating images is a tedious manual task and therefore, errors can occur. This inter and intra operator variability can disrupt statistical learning;

- une étape cruciale pour les apprentissages statistiques qui s'appuient exclusivement sur ces annotations pour apprendre les signatures des indications.- a crucial step for statistical learning which relies exclusively on these annotations to learn the signatures of indications.

Il existe donc un besoin permettant d'améliorer l'automatisation des méthodes de contrôle non-destructif, en les rendant plus économiques et rapides à implémenter.There is therefore a need to improve the automation of non-destructive testing methods, making them more economical and quick to implement.

PRESENTATION DE L'INVENTIONPRESENTATION OF THE INVENTION

L'invention met en œuvre un contrôle non-destructif, par rayons X générant des images 2D des pièces à contrôler, et par un procédé d'analyse automatique utilisant des méthodes statistiques d'apprentissage profond supervisé. L'invention permet de simplifier la conception d'une base de données mise en œuvre dans le cadre des méthodes statistiques d'apprentissage profond supervisé.The invention implements non-destructive testing, by X-rays generating 2D images of the parts to be checked, and by an automatic analysis method using statistical methods of supervised deep learning. The invention simplifies the design of a database implemented in the context of statistical methods of supervised deep learning.

L'invention propose un procédé de contrôle non-destructif d'une pièce métallique pour aéronautique mettant en œuvre un système radiographique d'acquisition d'images, comprenant une étape d'apprentissage statistique d'indications comprenant les sous-étapes suivantes :The invention provides a method of non-destructive testing of a metal part for aeronautics implementing a radiographic image acquisition system, comprising a step of learning statistical indications including the following sub-steps:

- acquérir une pluralité d'images 2D réelles d'une pièce de test susceptible de contenir des indications potentielles,- acquire a plurality of real 2D images of a test piece likely to contain potential indications,

- à partir d'un modèle 3D de référence de la pièce métallique, modifier ledit modèle 3D pour générer au moins une indication donnée dans une zone donnée dudit modèle,- from a 3D reference model of the metal part, modify said 3D model to generate at least one indication given in a given area of said model,

- simuler les conditions opératoires d'acquisition de ladite pluralité d'images 2D réelles et générer au moins une image 2D simulée à partir dudit modèle 3D modifié,- simulate the operating conditions for acquiring said plurality of real 2D images and generate at least one simulated 2D image from said modified 3D model,

- ajouter l'image 2D simulée à une base de données d'images simulées de la pièce métallique, ainsi qu'au moins un élément d'identification d'une identification donnée dans ladite base de données ;- adding the simulated 2D image to a database of simulated images of the metal part, as well as at least one element for identifying an identification given in said database;

- à partir de ladite base de données et de la pluralité d'images 2D réelles, mettre en œuvre une analyse statistique par apprentissage supervisée adversaire pour générer un modèle statistique d'indications dans une pièce métallique ;- from said database and from the plurality of real 2D images, implementing a statistical analysis by supervised adversary learning to generate a statistical model of indications in a metal part;

une étape de calcul des probabilités de présences d'indications dans la pièce à contrôler comprenant les sous-étapes suivantes :a step for calculating the probabilities of the presence of indications in the document to be checked, comprising the following substeps:

- acquérir au moins une image 2D d'une pièce métallique ;- acquire at least a 2D image of a metal part;

- calculer des probabilités de présences d'indications dans ladite image 2D à partir du modèle statistique ; et en déterminer si la pièce métallique (10) est caractéristique d'une pièce saine.- calculate the probabilities of the presence of indications in said 2D image from the statistical model; and determine if the metal part (10) is characteristic of a healthy part.

L'invention permet de mettre en œuvre une méthode d'analyse statistique d'apprentissage profond supervisé nécessitant beaucoup moins de pièces annotées manuellement par un opérateur, ce qui réduit de façon importante la charge de travail additionnel dans les usines pour annoter les pièces.The invention makes it possible to implement a method of statistical analysis of supervised deep learning requiring much less parts manually annotated by an operator, which significantly reduces the additional workload in the factories to annotate the parts.

L'invention permet également d'accélérer le déploiement des contrôles non-destructifs automatiques basés sur un apprentissage statistique.The invention also makes it possible to accelerate the deployment of automatic non-destructive checks based on statistical learning.

De façon avantageuse, l'invention selon le procédé fiabilise la conception d'une base de données annotées, car les indications présentes dans les pièces simulées sont parfaitement contrôlées.Advantageously, the invention according to the method makes the design of an annotated database more reliable, since the indications present in the simulated parts are perfectly controlled.

L'invention permet également d'obtenir une base de données exhaustive, en nombre, en type et en position des indications. En effet, il est possible de générer des indications dans des zones où il n'y en a très peu, et aussi de générer des types d'indications très peu fréquentes.The invention also makes it possible to obtain an exhaustive database, in number, in type and in position of the indications. Indeed, it is possible to generate indications in areas where there are very few, and also to generate very infrequent types of indications.

L'invention peut également comprendre les caractéristiques suivantes :The invention may also include the following characteristics:

- l'élément d'identification d'une indication donnée dans ladite base de données est un masque binaire d'une indication donnée ;the element for identifying an indication given in said database is a bit mask of a given indication;

de façon avantageuse, l'obtention d'un masque binaire permet de disposer d'une identification très précise des indications dans une pièce ;advantageously, obtaining a binary mask makes it possible to have a very precise identification of the indications in a room;

l'étape d'apprentissage statistique comprend également la sousétape consistant à estimer des paramètres de la pose 3D de ladite pièce de test (PI) lors de l'acquisition de ladite pluralité d'images 2D réelles ; et dans laquelle la sous-étape de simulation des conditions opératoires d'acquisition de la pluralité d'images 2D réelles est effectuée à partir desdits paramètres estimés de la pose 3D de ladite pièce de test (PI) pour déterminer des paramètres de recalage d'un modèle 3D de la pièce métallique (10) ;the statistical learning step also comprises the sub-step consisting in estimating parameters of the 3D fitting of said test piece (PI) during the acquisition of said plurality of real 2D images; and in which the substep of simulating the operating conditions for acquiring the plurality of real 2D images is carried out on the basis of said estimated parameters of the 3D fitting of said test piece (PI) to determine registration parameters of a 3D model of the metal part (10);

- le procédé comprend une étape de validation du modèle statistique comprenant les sous-étapes suivantes :the method comprises a step of validating the statistical model comprising the following sub-steps:

o acquérir au moins une image 2D d'une pièce de référence, o attribuer à ladite image au moins un label relatif à la présence d'indications en fonction d'une inspection visuelle de l'image, o calculer les probabilités de présences d'indications dans l'image 2D à partir du modèle statistique (MS) et déterminer au moins un label, o comparer le(s) label(s) déterminé(s) au(x) label(s) attribué(s), et calculer un indicateur de corrélation, o si l'indicateur est inférieur à une valeur donnée, poursuivre l'étape d'apprentissage, o sinon valider le modèle statistique.o acquire at least one 2D image of a reference part, o assign to said image at least one label relating to the presence of indications as a function of a visual inspection of the image, o calculate the probabilities of presence of indications in the 2D image from the statistical model (MS) and determine at least one label, o compare the determined label (s) with the label (s) assigned, and calculate a correlation indicator, o if the indicator is less than a given value, continue the learning step, o otherwise validate the statistical model.

- après l'acquisition d'au moins une image 2D d'une pièce de test, et/ou d'une pièce de référence, et/ou d'une pièce de référence, ladite image 2D acquise subit un traitement par des moyens de traitements adaptés pour atténuer des artéfacts et/ou variabilités de l'image 2D;- after the acquisition of at least one 2D image of a test piece, and / or of a reference piece, and / or of a reference piece, said acquired 2D image undergoes processing by means of treatments adapted to attenuate artifacts and / or variabilities of the 2D image;

- après la génération une image 2D simulée à partir dudit modèle 3D modifié, ladite image 2D acquise subit un traitement par des moyens de traitements adaptés pour atténuer des artéfacts et/ou variabilités de l'image 2D;- After generation of a simulated 2D image from said modified 3D model, said acquired 2D image undergoes processing by processing means adapted to attenuate artifacts and / or variabilities of the 2D image;

- l'analyse statistique est obtenue par un apprentissage profond à base de réseaux de neurones ;- statistical analysis is obtained by deep learning based on neural networks;

- l'apprentissage profond à base de réseaux de neurones est configuré pour réaliser un algorithme d'apprentissage adversaire ;- deep learning based on neural networks is configured to perform an adversary learning algorithm;

- l'analyse statistique par apprentissage supervisé comprend :- statistical analysis by supervised learning includes:

o pour au moins une image simulée et au moins une image réelle de la pluralité d'images 2D réelles, extraction automatique d'une signature desdites images, déterminant une pluralité de p descripteurs, un descripteur étant le résultat d'une analyse d'image, o classement automatique de la signature de l'image simulée permettant d'attribuer à ladite image, un label représentatif de la présence d'indication dans la pièce, o rétropagation de l'erreur dudit classement du label pour minimiser une fonction de coût du classement de la signature permettant d'attribuer à l'image un label, o classement automatique de la signature de l'image réelle ou simulée dans un domaine de l'image simulée, ou de l'image réelle, o rétropagation de l'inverse de l'erreur dudit classement du domaine pour maximiser une fonction de coût du classement de la signature de l'imagette dans un domaine, de telle sorte que l'extraction d'une signature soit invariante en fonction du domaine.o for at least one simulated image and at least one real image of the plurality of real 2D images, automatic extraction of a signature from said images, determining a plurality of p descriptors, a descriptor being the result of an image analysis , o automatic classification of the signature of the simulated image making it possible to assign to said image, a label representative of the presence of an indication in the part, o back-propagation of the error of said classification of the label to minimize a cost function of the classification of the signature making it possible to attribute a label to the image, o automatic classification of the signature of the real or simulated image in a domain of the simulated image, or of the real image, o reverse propagation of the reverse the error of said classification of the domain to maximize a cost function of the classification of the signature of the thumbnail in a domain, so that the extraction of a signature is invariant according to the domain.

- l'algorithme d'apprentissage mis en œuvre pour la rétropropagation est la méthode de descente de gradient stochastique.- the learning algorithm implemented for backpropagation is the stochastic gradient descent method.

L'invention concerne également une unité de calcul, comprenant des moyens de traitement et une mémoire, ladite unité étant configurée pour mettre en œuvre un procédé selon l'une des caractéristiques précédentes.The invention also relates to a calculation unit, comprising processing means and a memory, said unit being configured to implement a method according to one of the preceding characteristics.

L'invention concerne également un produit programme d'ordinateur, configuré pour être exécuté par une unité de calcul tel que décrite précédemment et comprenant des instructions de code pour l'exécution d'un procédé selon l'une des caractéristiques précédentes.The invention also relates to a computer program product, configured to be executed by a calculation unit as described above and comprising code instructions for the execution of a method according to one of the preceding characteristics.

PRESENTATION DES FIGURESPRESENTATION OF THE FIGURES

D'autres caractéristiques, buts et avantages de l'invention ressortiront de la description qui suit, qui est purement illustrative et non limitative, et qui doit être lue en regard des dessins annexés, sur lesquels :Other characteristics, objects and advantages of the invention will emerge from the description which follows, which is purely illustrative and not limiting, and which should be read with reference to the appended drawings, in which:

- la figure 1, déjà présentée, illustre un système d'acquisition d'image 2D par un générateur de rayons X ;- Figure 1, already presented, illustrates a 2D image acquisition system by an X-ray generator;

- la figure 2 illustre certaines étapes d'un mode de réalisation conforme à l'invention, ainsi que les liens entre un procédé de CND selon l'invention et un procédé de génération de base de données pour mettre en œuvre un CND ;FIG. 2 illustrates certain steps of an embodiment in accordance with the invention, as well as the links between a CND method according to the invention and a database generation method for implementing a CND;

- la figure 3 illustre les différents dispositifs et produits intervenant dans le cadre de l'invention ;- Figure 3 illustrates the various devices and products involved in the context of the invention;

- la figure 4 illustre un calcul de la position des volets d'un collimateur à partir d'un signal selon le procédé de l'invention ;- Figure 4 illustrates a calculation of the position of the flaps of a collimator from a signal according to the method of the invention;

- la figure 5 illustre une scène modélisant l'acquisition d'une pièce à contrôler selon un mode de réalisation selon un mode de réalisation conforme à l'invention;- Figure 5 illustrates a scene modeling the acquisition of a part to be checked according to an embodiment according to an embodiment according to the invention;

- les figures 6A à 6D illustrent des modèles 3D d'indications contenues dans les pièces à contrôler selon mode de réalisation conforme à l'invention ;- Figures 6A to 6D illustrate 3D models of indications contained in the parts to be checked according to the embodiment according to the invention;

- la figure 7 illustre l'identification des indications dans une image annotée manuellement selon l'état de l'art, et dans une image simulée selon mode de réalisation conforme à l'invention; et- Figure 7 illustrates the identification of indications in an image annotated manually according to the state of the art, and in a simulated image according to embodiment according to the invention; and

- la figure 8 illustre une méthode d'apprentissage adversaire selon l'état de l'art.- Figure 8 illustrates an adversary learning method according to the state of the art.

DESCRIPTION DETAILLEEDETAILED DESCRIPTION

Le CND peut être appliqué à différentes étapes de fabrication d'une pièce 10 à contrôler. La pièce 10 est préférablement en matériau métallique.The CND can be applied at different stages of manufacturing a part 10 to be checked. The part 10 is preferably made of metallic material.

Les pièces sur lesquelles les procédés décrits peuvent être mis en œuvre sont destinées préférentiellement à l'aéronautique. Il s'agit d'aube de turbine haute pression par exemple.The parts on which the methods described can be implemented are preferably intended for aeronautics. It is a high pressure turbine blade for example.

La figure 2 représente certaines étapes d'un mode de réalisation conforme à l'invention.FIG. 2 represents certain steps of an embodiment in accordance with the invention.

Afin de pouvoir effectuer un contrôle non-destructif à l'intérieur de la pièce 10, une étape préliminaire d'acquisition à l'aide d'un système d'imagerie 20, comme un générateur de rayons X, et de moyens de calcul 30 (voir figure 3A) est effectuée. Le générateur de rayons X émet un faisceau traversant l'objet à explorer avant d'être analysé, après atténuation, par un système de détection. Cette étape permet d'obtenir une image 2D de la pièce 10.In order to be able to carry out a non-destructive check inside the part 10, a preliminary acquisition step using an imaging system 20, such as an X-ray generator, and calculation means 30 (see Figure 3A) is performed. The X-ray generator emits a beam passing through the object to be explored before being analyzed, after attenuation, by a detection system. This step provides a 2D image of part 10.

Cette image 2D est appelée une projection. Un ensemble de projections est acquis sans bouger, et les images peuvent être moyennées afin de diminuer le bruit d'acquisition. Par exemple, dans un mode de réalisation, le générateur 21 et le détecteur 22 étant fixé, un bras articulé (exemple : robot type du fabricant Kuka ®) vient saisir automatiquement la pièce 10 et la placer entre le générateur 21 et le détecteur 22 à une position définie à l'avance dans une gamme d'acquisitions.This 2D image is called a projection. A set of projections is acquired without moving, and the images can be averaged in order to reduce the acquisition noise. For example, in one embodiment, the generator 21 and the detector 22 being fixed, an articulated arm (example: typical robot of the manufacturer Kuka®) automatically grasps the piece 10 and places it between the generator 21 and the detector 22 to a position defined in advance in a range of acquisitions.

Une unité de calcul 30 est prévue pour effectuer les traitements informatiques. Elle comprend des moyens de traitement 31 comme un microprocesseur et une mémoire 32.A computing unit 30 is provided for carrying out the computer processing. It includes processing means 31 such as a microprocessor and a memory 32.

En référence à la figure 3B, le procédé mis en œuvre pour détecter automatiquement des indications nécessite une base de données (BDD) 36. BDD 36 est stockée sur au moins un serveur 35, et une unité de calcul 37, qui peut être la même unité de calcul que pour l'acquisition de l'image 2D, est utilisée. L'unité de calcul 37 comprend elle aussi des moyens de traitement de données 38 et une mémoire 39. Le serveur 35 peut être cette unité de calcul 37 et la BDD 36 peut être stockée dans ladite mémoire 39.With reference to FIG. 3B, the method implemented for automatically detecting indications requires a database (BDD) 36. BDD 36 is stored on at least one server 35, and a calculation unit 37, which can be the same calculation unit that for the acquisition of the 2D image, is used. The calculation unit 37 also includes data processing means 38 and a memory 39. The server 35 can be this calculation unit 37 and the BDD 36 can be stored in said memory 39.

El : Apprentissage hors ligneEl: Offline learning

Dans une première phase El, le procédé comporte un apprentissage supervisé de la pièce 10 à partir d'une base de données annotées obtenue par simulation numérique.In a first phase E1, the method includes supervised learning of the part 10 from an annotated database obtained by digital simulation.

Pour atteindre ce but, dans une première étape E10 de la phase El, le procédé réalise un apprentissage statistique, à partir d'images 2D obtenues par simulation et par acquisition par rayons X.To achieve this goal, in a first step E10 of phase E1, the method performs statistical learning, from 2D images obtained by simulation and by X-ray acquisition.

Ainsi, une sous-étape EU de E10, comporte l'acquisition d'au moins une image 2D réelle d'au moins une pièce réelle PI (représentative de la pièce 10) susceptible de contenir des indications potentielles, à l'aide du système d'imagerie 20, comme un générateur de rayons X, et de moyens de calcul 30.Thus, a sub-step EU of E10, comprises the acquisition of at least one real 2D image of at least one real part PI (representative of part 10) likely to contain potential indications, using the system imagery 20, such as an X-ray generator, and computing means 30.

Simulation numériqueNumerical simulation

Le procédé dispose aussi d'un maillage triangulaire 3D d'une pièce à contrôler 10, c'est-à-dire un ensemble de coordonnées 3D des sommets des triangles qui forment le maillage et la connectivité entre les sommets qui définit la topologie du maillage. Ce maillage est récupérable à partir de la conception de la géométrie de la pièce faite sur le logiciel CATIA® par exemple.The method also has a 3D triangular mesh of a part to be checked 10, that is to say a set of 3D coordinates of the vertices of the triangles which form the mesh and the connectivity between the vertices which defines the topology of the mesh. . This mesh is recoverable from the design of the geometry of the part made on the CATIA® software for example.

Par la suite, dans le but de simuler une base de données annotées exhaustive, l'unité de calcul 37 simule des indications dans la pièce pour générer une pièce défectueuse.Thereafter, in order to simulate an exhaustive annotated database, the calculation unit 37 simulates indications in the part to generate a defective part.

Ainsi, il y a plusieurs facteurs qui entrent en jeu pour générer une pièce contenant des indications simulées, tels que par exemple de manière non exhaustive :Thus, there are several factors that come into play to generate a part containing simulated indications, such as for example in a non-exhaustive manner:

- le nombre d'indications simulées par pièce ;- the number of simulated indications per part;

- la typologie des indications (oxyde / retassure / inclusion ...) ;- the typology of the indications (oxide / shrinkage / inclusion ...);

- la localisation des indications dans la pièce (dans le circuit de refroidissement / aux interfaces / dans la matière) ;- the location of the indications in the room (in the cooling circuit / at the interfaces / in the material);

- la morphologie des indications (sphérique / linéique / convexe / texturée ...) ;- the morphology of the indications (spherical / linear / convex / textured ...);

- l'orientation des indications ; et- the orientation of the indications; and

- la composition chimique des indications (air / matériau + ou dense / même matériau que la pièce ...).- the chemical composition of the indications (air / material + or dense / same material as the part, etc.).

En conséquence, pour insérer des indications dans le maillage du modèle 3D de la pièce 10, l'unité de calcul 37 génère aléatoirement un modèle informatique de chaque indication que nous souhaitons insérer dans l'aube (un maillage de l'indication). Différentes méthodes de génération automatique de forme peuvent être utilisées suivant les types d'indications à simuler.Consequently, to insert indications into the mesh of the 3D model of the part 10, the calculation unit 37 randomly generates a computer model of each indication that we wish to insert in the dawn (a mesh of the indication). Different methods of automatic shape generation can be used depending on the types of indications to simulate.

Les indications suivent une morphologie de base et leur insertion dans le matériau suit une loi de comportement donnée, permettant la génération automatique d'une pièce numérique représentative (en taille / morphologie / orientation / position / ...).The indications follow a basic morphology and their insertion into the material follows a given behavior law, allowing the automatic generation of a representative digital part (in size / morphology / orientation / position / ...).

Une liste non exhaustive des types d'indications simulées comporte : soufflure / inclusion / résidu / retassure / texture / fissure / oxyde / casse noyau...A non-exhaustive list of the types of simulated indications includes: blowing / inclusion / residue / shrinkage / texture / crack / oxide / core breakage ...

Par exemple :For example :

- Les soufflures 61, illustrées en figure 6A, sont des bulles de gaz de forme sphérique. Aussi, les soufflures sont simulées par des objets de forme sphérique d'une certaine taille. Leur composition chimique est de l'air.- The blows 61, illustrated in FIG. 6A, are gas bubbles of spherical shape. Also, the blows are simulated by objects of spherical shape of a certain size. Their chemical composition is air.

- Les inclusions 62, illustrées en figure 6B, ont une forme plus aléatoire et elles sont simulées en générant des objets binaires basés sur un algorithme de marche aléatoire. Initialement, une sphère est insérée dans le volume 3D, puis un vecteur aléatoire de taille égale à rayon est tiré et correspond au centre de la sphère suivante à insérer dans l'image. Ce processus est répété un nombre aléatoire de fois.- The inclusions 62, illustrated in FIG. 6B, have a more random form and they are simulated by generating binary objects based on a random walk algorithm. Initially, a sphere is inserted into the 3D volume, then a random vector of size equal to radius is drawn and corresponds to the center of the next sphere to be inserted in the image. This process is repeated a random number of times.

- Les criques 63, illustrées en figure 6C, sont des indications qui ont une forme cylindrique de longueur (préférablement supérieur au diamètre du cylindre, par exemple d'au moins un facteur 10). L'orientation de ces fissures est aléatoire dans l'espace.- The cracks 63, illustrated in FIG. 6C, are indications which have a cylindrical shape of length (preferably greater than the diameter of the cylinder, for example by at least a factor of 10). The orientation of these cracks is random in space.

- Les résidus 64, illustrés en figure 6D, ont une forme beaucoup plus complexe. Afin de générer automatiquement ces formes aléatoires complexes, un bruit structuré est utilisé : le bruit de Perlin. Ce bruit texture est utilisé en synthèse de texture et des paramètres permettent de contrôler la complexité des objets générés. Le cube ci-contre est une réalisation du bruit de Perlin. Afin d'extraire un objet à partir de ce volume 3D, une pondération gaussienne centrée dans le volume est appliquée permettant de borner l'objet (l'écart type du filtre est plus faible suivant un axe du volume afin d'obtenir des objets ayant une forme un peu plus « surfacique »). Le résultat de ce filtre est binarisé (seuil aléatoire) afin d'obtenir un ensemble d'objets binaires. Un objet (une composante connexe) est extrait de cet ensemble et isolé puis maillé.- The residues 64, illustrated in FIG. 6D, have a much more complex shape. In order to automatically generate these complex random shapes, structured noise is used: Perlin noise. This texture noise is used in texture synthesis and parameters allow the complexity of the generated objects to be controlled. The cube opposite is an embodiment of Perlin's noise. In order to extract an object from this 3D volume, a Gaussian weighting centered in the volume is applied making it possible to limit the object (the standard deviation of the filter is lower along an axis of the volume in order to obtain objects having a slightly more "surface" shape). The result of this filter is binarized (random threshold) in order to obtain a set of binary objects. An object (a related component) is extracted from this set and isolated and then meshed.

Ainsi, à partir de ce modèle 3D, dans une sous-étape E12 de E10, l'unité de calcul 37 procède à une simulation du tir des rayons X sur ledit modèle 3D afin de générer une image 2D à partir du maillage triangulaire 3D d'une pièce à contrôler 10 comportant des indications (référencée 10a, cf. figure 5).Thus, from this 3D model, in a sub-step E12 of E10, the calculation unit 37 performs a simulation of the firing of the X-rays on said 3D model in order to generate a 2D image from the 3D triangular mesh d 'a part to be inspected 10 comprising indications (referenced 10a, cf. FIG. 5).

Dans ce but, l'unité de calcul 37 peut utiliser la loi de Beer Lambert qui décrit l'atténuation des rayons X dans la matière, pour reproduire numériquement l'image réelle :For this purpose, the computing unit 37 can use Beer Lambert's law which describes the attenuation of X-rays in matter, to reproduce the real image digitally:

I = I0.I = I 0 .

Avec I le flux traversant la pièce 10, Io le flux initial, μ la densité du matériau traversé, xo la position du tube et Xmax la position du détecteur. Au fur et à mesure que le faisceau de photons traverse l’objet, il est atténué en fonction de l’épaisseur dx traversée et du coefficient d’atténuation μ. Ce coefficient d’atténuation dépend de l’énergie E du photon et du numéro atomique Z de la structure rencontrée à la profondeur x.With I the flux passing through the part 10, Io the initial flux, μ the density of the material crossed, xo the position of the tube and Xmax the position of the detector. As the photon beam passes through the object, it is attenuated as a function of the thickness dx passed through and the attenuation coefficient μ. This attenuation coefficient depends on the energy E of the photon and the atomic number Z of the structure encountered at depth x.

Dans le but d'obtenir des simulations réalistes, l'unité de calcul 37 peut également simuler par Monte Carlo l'atténuation des photons par effet Compton (les photons changent de trajectoire et peuvent ainsi interagir sur une zone du détecteur pour laquelle ils ne sont pas représentatifs des matériaux traversés).In order to obtain realistic simulations, the computing unit 37 can also simulate by Monte Carlo the attenuation of photons by Compton effect (the photons change trajectory and can thus interact on an area of the detector for which they are not not representative of the materials crossed).

Pour simuler d'une manière réaliste la radiographie, l'unité de calcul 37 peut utiliser des suites logicielles complètes. Par exemple :To realistically simulate the radiography, the calculation unit 37 can use complete software suites. For example :

- CIVA : logiciel commercial développé par le CEA ; et- CIVA: commercial software developed by CEA; and

- GATE/GEANT4 : logiciel open source.- GATE / GEANT4: open source software.

La configuration de la simulation de la radiographie, comprend la caractérisation de certains paramètres du système d'acquisition simulé, tels que par exemple les paramètres concernant :The configuration of the radiography simulation includes the characterization of certain parameters of the simulated acquisition system, such as for example the parameters relating to:

- Les filtres : épaisseur, matériau, position...- Filters: thickness, material, position ...

- Le collimateur, épaisseur, matériau, position...- The collimator, thickness, material, position ...

- La pièce 10a à radiographier : position dans le système d'acquisition, matériau...- The part 10a to be radiographed: position in the acquisition system, material, etc.

- La source de rayons X : rayon, angle d'ouverture, spectre, intensité ...- The source of X-rays: radius, opening angle, spectrum, intensity ...

- Le détecteur : taille, pitch, position, matériaux, type, gain...- The detector: size, pitch, position, materials, type, gain ...

Dans la simulation de l'acquisition, l'unité de calcul 37 peut également caractériser les éléments de la scène. Ainsi, ladite unité peut caractériser le matériau de la pièce 10 à partir de sa composition chimique, la proportion de chaque atome et de sa densité.In the simulation of the acquisition, the computing unit 37 can also characterize the elements of the scene. Thus, said unit can characterize the material of the part 10 from its chemical composition, the proportion of each atom and its density.

En conséquence, l'unité de calcul 37 définit un nouvel alliage, dans la simulation, ayant un spectre d'absorptions propre ainsi qu'une densité propre. Le spectre d'émission du tube est caractérisé expérimentalement avec un dosimètre et les caractéristiques du tir RX sont semblables aux conditions expérimentales (tension / intensité / duré d'exposition...).Consequently, the calculation unit 37 defines a new alloy, in the simulation, having a spectrum of own absorptions as well as a specific density. The emission spectrum of the tube is experimentally characterized with a dosimeter and the characteristics of the RX shot are similar to the experimental conditions (voltage / intensity / exposure time, etc.).

La simulation, par exemple par Monte Carlo, de l'atténuation des photons par effet Compton est insérée par le calcul des différentes interactions entre les électrons et la matière, permettant de connaître l'impact des rayons X sur le détecteur.The simulation, for example by Monte Carlo, of the photon attenuation by Compton effect is inserted by calculating the different interactions between electrons and matter, making it possible to know the impact of X-rays on the detector.

Tel que vu précédemment, dans la géométrie de la scène d'acquisition de l'image d'une pièce à inspecter 10, un robot articulé peut saisir la pièce 10 et la placer automatiquement entre la source 21 et le détecteurAs previously seen, in the geometry of the image acquisition scene of a part to be inspected 10, an articulated robot can grasp the part 10 and automatically place it between the source 21 and the detector

22. Pour reproduire en simulation le positionnement précis de la pièce entre la source 21 et le détecteur 22, l'unité de calcul 37 peut ainsi appliquer un algorithme de recalage 3D/2D pour permettre l'appariement entre l'image 2D obtenue et la position 3D de la pièce. L'algorithme de recalage fournit les translations et rotations à appliquer au modèle 3D de la pièce (CAO) afin de le faire correspondre avec la projection obtenue.22. To reproduce in simulation the precise positioning of the part between the source 21 and the detector 22, the calculation unit 37 can thus apply a 3D / 2D registration algorithm to allow matching between the 2D image obtained and the 3D position of the part. The registration algorithm provides the translations and rotations to be applied to the 3D model of the part (CAD) in order to match it with the projection obtained.

Aussi, dans la géométrie de la scène d'acquisition simulée, la source de rayons X est placée à l'origine du repère (0, 0, 0) et le centre du détecteur est placé à la position (0, 0, « distance tube détecteur »). Le positionnement de la pièce 10 est quant à lui donné par le recalage 3D/2D en tenant compte des paramètres du système d'acquisition 20 de manière à générer une image 2D simulée similaire à l'image 2D réelle acquise par le système d'acquisition d'image 20.Also, in the geometry of the simulated acquisition scene, the X-ray source is placed at the origin of the coordinate system (0, 0, 0) and the center of the detector is placed at the position (0, 0, "distance detector tube ”). The positioning of the part 10 is given by the 3D / 2D registration taking into account the parameters of the acquisition system 20 so as to generate a simulated 2D image similar to the real 2D image acquired by the acquisition system. picture 20.

La géométrie de la scène peut également comprendre un collimateur. Ce dernier, pilotable, est placé entre la source de rayons X 21 et la pièce 10 afin de réduire les artéfacts liés au rayonnement diffusé en masquant une partie de ladite pièce 10. Le collimateur comporte quatre volets (préférablement comprenant du plomb, d'une épaisseur de 5mm).The geometry of the scene can also include a collimator. The latter, which can be controlled, is placed between the X-ray source 21 and the part 10 in order to reduce the artefacts linked to the scattered radiation by masking part of said part 10. The collimator has four components (preferably comprising lead, a 5mm thickness).

A partir d'une image 2D réelle, les positions de ces quatre volets sont déduites automatiquement à partir des zones masquées sur ladite image. Ainsi, en référence à la figure 4, celle-ci montre une ligne de profil suivant l'axe x de l'image 2D, ce signal peut être analysé afin de détecter la position des volets sur l'image. Un simple calcul géométrique permet d'en déduire la position 41 des volets en 3D. Le même processus est réalisé suivant l'axe y pour déterminer la position des deux autres volets.From a real 2D image, the positions of these four panes are automatically deduced from the masked areas on said image. Thus, with reference to FIG. 4, this shows a profile line along the x axis of the 2D image, this signal can be analyzed in order to detect the position of the flaps on the image. A simple geometric calculation makes it possible to deduce therefrom the position 41 of the flaps in 3D. The same process is carried out along the y axis to determine the position of the other two flaps.

Également, dans la géométrie de la scène d'acquisition simulée, l'unité de calcul 37 peut insérer un filtre de cuivre de même taille, et à la même position que dans le montage réel du système d'acquisition 20.Also, in the geometry of the simulated acquisition scene, the calculation unit 37 can insert a copper filter of the same size, and at the same position as in the real assembly of the acquisition system 20.

La figure 5 illustre une scène 50 en trois dimensions de l'acquisition d'une vue d'une pièce à contrôler. Ladite scène 50 génère la projection 53, correspondant à l'image 2D simulée, et comporte des modèles 3D correspondant à la source de rayons 21, à un collimateur en plomb 54, à un filtre de cuivre 55, à la pièce à contrôler 10a et au détecteur 22.FIG. 5 illustrates a scene 50 in three dimensions of the acquisition of a view of a part to be checked. Said scene 50 generates the projection 53, corresponding to the simulated 2D image, and includes 3D models corresponding to the ray source 21, to a lead collimator 54, to a copper filter 55, to the part to be checked 10a and to detector 22.

Ladite image simulée 53 est calculée par lancer de rayons entre chaque point du détecteur 52 et le centre du tube de la source 51. Pour chaque rayon, l'unité de calcul 37 calcule l'épaisseur traversée pour chaque matériau, et calcule sa réponse avec la loi de Beer Lambert.Said simulated image 53 is calculated by launching rays between each point of the detector 52 and the center of the tube of the source 51. For each ray, the calculation unit 37 calculates the thickness crossed for each material, and calculates its response with Beer Lambert's law.

L'ensemble des paramètres de la simulation peut être ajusté pour que l'image résultante de la simulation soit la plus proche possible d'une image réelle.All the parameters of the simulation can be adjusted so that the image resulting from the simulation is as close as possible to a real image.

En conséquence, en ayant une connaissance complète de chaque indication, l'unité de calcul 37 déduit leur position sur l'image simulée, ce qui permet d'obtenir une base de données simulées et annotées 36 très précise.Consequently, by having complete knowledge of each indication, the calculation unit 37 deduces their position on the simulated image, which makes it possible to obtain a very precise simulated and annotated database 36.

De manière usuelle, dans une base annotée manuellement par un opérateur, l'annotation des indications est représentée en figure 7 par une boite englobante 71.Usually, in a base manually annotated by an operator, the annotation of the indications is represented in FIG. 7 by an enclosing box 71.

Dans le cadre du procédé conforme à l'invention, la base de données peut également comporter le masque binaire des indications.In the context of the method according to the invention, the database can also include the binary mask of the indications.

Un tel masque, référencé 72, indique les pixels appartenant à une indication et les pixels appartenant au fond.Such a mask, referenced 72, indicates the pixels belonging to an indication and the pixels belonging to the background.

En conséquence, la caractérisation de la base de données simulées selon le procédé est fiable est très précise (le masque binaire 72 des indications est disponible et plus seulement la boite englobante 71).Consequently, the characterization of the simulated database according to the method is reliable is very precise (the binary mask 72 of the indications is available and no longer only the bounding box 71).

De plus, le nombre de pièce simulée 10a et d'indications annotées est donc avantageusement potentiellement infini.In addition, the number of simulated parts 10a and of annotated indications is therefore advantageously potentially infinite.

De plus, la conception de la base de données simulées permet de générer très facilement un nombre très important d'images. Ceci est particulièrement avantageux dans le cadre des méthodes d'apprentissage statistique, qui nécessitent beaucoup de données pour pouvoir obtenir des performances en détection et en fausses alarmes convenables.In addition, the design of the simulated database makes it very easy to generate a very large number of images. This is particularly advantageous in the context of statistical learning methods, which require a lot of data to be able to obtain suitable detection and false alarm performance.

De façon préférentielle, la base de données simulées est constituée de la manière suivante pour une vue donnée de la pièce à inspecter :Preferably, the simulated database is constituted as follows for a given view of the part to be inspected:

- environ 5000 indications réparties uniformément dans toutes les zones d'apparition potentielle de ces indications ; et- around 5000 indications distributed uniformly in all areas where these indications may appear; and

- en moyenne 10 indications par image.- on average 10 indications per image.

Pour améliorer la robustesse de l'apprentissage, les images simulées peuvent être boostées (application de petites transformations géométriques réalistes). Ainsi pour une image simulée donnée, une centaine d'autres images simulées sont générées. Ce boosting de la BDD 36 permet d'augmenter la variabilité et ainsi de limiter le surapprentissage.To improve the robustness of learning, the simulated images can be boosted (application of small realistic geometric transformations). Thus for a given simulated image, a hundred other simulated images are generated. This boosting of the BDD 36 makes it possible to increase the variability and thus limit the over-learning.

Prétraitementpretreatment

Par la suite, les images issues des sous-étapes EU et E12 sont prétraitées dans une sous-étape de prétraitement E13. Ainsi, des prétraitements sont préférablement effectuées pour améliorer la qualité des analyses, suite aux acquisitions réelle ou simulée de l'image 2D de la pièce 10.Thereafter, the images from the EU and E12 sub-steps are pretreated in a pre-processing E13 sub-step. Thus, pretreatments are preferably carried out to improve the quality of the analyzes, following the actual or simulated acquisitions of the 2D image of the part 10.

En effet, au cours de cette acquisition, des artéfacts et des variabilités peuvent apparaître (pixels défectueux, bruit engendré par le flux diffusé, diffraction...). Des prétraitements peuvent donc éventuellement être appliqués sur l'image 2D pour supprimer et/ou atténuer ces artéfacts/variabilités.Indeed, during this acquisition, artefacts and variabilities can appear (defective pixels, noise generated by the diffused flux, diffraction ...). Preprocessings can therefore possibly be applied to the 2D image to remove and / or attenuate these artefacts / variabilities.

Ainsi, l'unité de calcul 30 ou 37 peut mettre en œuvre sur l'image 2D un filtrage du bruit de l'image en utilisant, par exemple, un filtre médian, un filtre gaussien (classe des filtres passe-bas).Thus, the calculation unit 30 or 37 can implement filtering of the noise of the image on the 2D image by using, for example, a median filter, a Gaussian filter (class of low-pass filters).

Également, l'unité de calcul 30 ou 37 peut appliquer une étape de normalisation pour uniformiser les images 2D afin qu'elles soient toutes comparables. Plusieurs méthodes de normalisation peuvent être utilisées indépendamment ou couplées ensemble :Also, the computing unit 30 or 37 can apply a normalization step to standardize the 2D images so that they are all comparable. Several standardization methods can be used independently or coupled together:

- Un recalage des images appliqué aux images 2D afin de les remettre toutes dans un référentiel commun dans le but d'absorber la variabilité de l'acquisition.- A registration of images applied to 2D images in order to put them all in a common frame of reference in order to absorb the variability of the acquisition.

- Un calcul de la valeur médiane et le MAD (Médian Absolute Différence) sur les pixels correspondant à la pièce 10 pour chaque image 2D et figée à des valeurs prédéterminées identiques pour toutes les images 2D.- A calculation of the median value and the MAD (Median Absolute Difference) on the pixels corresponding to part 10 for each 2D image and fixed at identical predetermined values for all 2D images.

- Un calcul du contraste local : la pièce 10 n'a pas toujours une épaisseur constante (ce n'est jamais le cas pour une aube par exemple). Aussi, le contraste local est calculé pour tous les pixels de l'image 2D (soustraction des basses fréquences de l'image uniformisée) (par exemple par filtre bilatéral [1], diffusion anisotropique [2], total variation filter [3], Edge-avoiding wavelets [4]).- A calculation of the local contrast: the part 10 does not always have a constant thickness (this is never the case for a blade for example). Also, the local contrast is calculated for all the pixels of the 2D image (subtraction of the low frequencies of the standardized image) (for example by bilateral filter [1], anisotropic scattering [2], total variation filter [3], Edge-avoiding wavelets [4]).

En outre, un masque de la pièce acquise ou simulée est généré à partir de l'image 2D, c'est-à-dire qu'une segmentation entre deux classes de pixels, air et matière, est effectuée. Cette segmentation peut être réalisée en calculant automatiquement le seuil optimal permettant de séparer les deux classes.In addition, a mask of the acquired or simulated part is generated from the 2D image, that is to say that a segmentation between two classes of pixels, air and material, is carried out. This segmentation can be achieved by automatically calculating the optimal threshold allowing the two classes to be separated.

Un exemple de méthode consiste à calculer l'histogramme des niveaux de gris de l'image et à maximiser la variance interclasse de cet histogramme afin de définir le seuil qui sépare les pixels de l'air et ceux de la matière (voir référence [5]). D'autres méthodes de seuillage automatique sont envisageables (voir référence [6]).An example of a method consists in calculating the histogram of the gray levels of the image and in maximizing the interclass variance of this histogram in order to define the threshold which separates the pixels of air and those of matter (see reference [5 ]). Other automatic thresholding methods are possible (see reference [6]).

Ces méthodes permettent de réaliser l'analyse de la pièce uniquement sur des régions d'intérêt, relatives aux zones de matière de la pièce acquise ou simulée.These methods make it possible to carry out the analysis of the part only on regions of interest, relating to the areas of material of the acquired or simulated part.

Apprentissage statistique superviséSupervised statistical learning

Par la suite, dans une sous-étape E14 de E10, l'unité de calcul 37 procède à l'apprentissage statistique supervisé, avec deux types de données d'entrées : l'ensemble des images 2D simulées avec leurs indications localisées dans lesdites images, et l'ensemble d'images 2D réelles issues de pièces réelles PI.Subsequently, in a sub-step E14 of E10, the calculation unit 37 carries out supervised statistical learning, with two types of input data: the set of simulated 2D images with their indications located in said images , and the set of real 2D images from real PI parts.

L'apprentissage statistique est majoritairement supporté par les images 2D simulées, le nombre des images 2D simulées étant préférablement nettement supérieur au nombre des images 2D réelles. De plus, les indications sont dans les images 2D simulées.Statistical learning is mainly supported by simulated 2D images, the number of simulated 2D images preferably being significantly greater than the number of real 2D images. In addition, the indications are in the simulated 2D images.

Egalement, il est nécessaire de s'assurer qu'un modèle statistique généré par ledit apprentissage soit aussi performant sur les images 2D réelles qu'il l'est sur les images 2D simulées.Also, it is necessary to ensure that a statistical model generated by said learning is as efficient on real 2D images as it is on simulated 2D images.

En effet, même si visuellement, les images simulées sont proches des images réelles, elles ne sont pas exactement identiques.Indeed, even if visually, the simulated images are close to the real images, they are not exactly identical.

Aussi, l'unité de calcul 37 peut utiliser un apprentissage adversaire afin de transférer l'apprentissage issu des images 2D simulées vers les images 2D réelles (« domain adversarial transfert »).Also, the calculation unit 37 can use adversary learning in order to transfer learning from simulated 2D images to real 2D images ("domain adversarial transfer").

La figure 8 illustre une telle méthode d'apprentissage adversaire dans le cadre d'une architecture d'apprentissage profond par un réseau de neurones.FIG. 8 illustrates such an adversary learning method within the framework of a deep learning architecture by a neural network.

De façon connue, pour analyser plusieurs caractéristiques d'une image, un tel réseau de neurones empile des strates de traitements (des couches de neurones), chaque strate analysant une caractéristique de l’image. L’ensemble des strates ainsi empilées formant une couche de traitement.In a known manner, to analyze several characteristics of an image, such a neural network stacks up processing layers (layers of neurons), each layer analyzing a characteristic of the image. All of the strata thus stacked forming a treatment layer.

L’ensemble des sorties d’une couche de traitement permet de reconstituer une image intermédiaire, qui servira de base à la couche de traitement suivante.All the outputs of a processing layer make it possible to reconstruct an intermediate image, which will serve as the basis for the next processing layer.

Des règles d'apprentissage font varier l'efficacité de la transmission des signaux d’un neurone à l’autre, on parle de « poids synaptique », lesdits poids étant modulés.Learning rules vary the efficiency of signal transmission from one neuron to another, we speak of "synaptic weight", said weights being modulated.

Dans le cadre d'une méthode d'apprentissage adversaire selon le procédé, le réseau 80 admet deux entrées 81 : des données « sources » (images 2D simulées) et des données « cibles » (images 2D réelles).In the context of an adversary learning method according to the method, the network 80 admits two inputs 81: "source" data (simulated 2D images) and "target" data (real 2D images).

Les données sources sont associées avec la vérité terrain (les labels : position des indications dans l'image), tandis que les données cibles n'ont pas de label.The source data are associated with the ground truth (the labels: position of the indications in the image), while the target data have no label.

A partir des données sources, dans une étape dite de « feed forward » allant de la première couche vers la dernière couche de traitement, un premier ensemble de couches 82 extrait une signature 82a des images 2D simulées présentées au réseau de neurones.From the source data, in a step called “feed forward” going from the first layer to the last processing layer, a first set of layers 82 extracts a signature 82a from the simulated 2D images presented to the neural network.

Une signature est un ensemble de valeurs numériques, que l'on définit commodément sous la forme d'un vecteur. Ces valeurs numériques sont obtenues à l'aide de descripteurs, qui sont par exemple des opérations de convolution appliquées à l'imagette. Les descripteurs constituent des analyses des niveaux de gris NDG de l'imagette.A signature is a set of numerical values, which are conveniently defined in the form of a vector. These numerical values are obtained using descriptors, which are for example convolution operations applied to the thumbnail. The descriptors constitute analyzes of the NDG gray levels of the thumbnail.

Pour chaque image 2D réelle, le procédé comporte ainsi préférablement une pluralité de descripteurs.For each real 2D image, the method thus preferably comprises a plurality of descriptors.

Puis, toujours dans l'étape dite de « feed forward », un second ensemble de couches 83 permet, à partir d'une signature 82a extraite, la prédiction d'au moins un label 83a correspondant.Then, still in the so-called “feed forward” step, a second set of layers 83 allows, from an extracted signature 82a, the prediction of at least one corresponding label 83a.

Ensuite, pour chaque image 2D simulée, le label 82a prédit dans l'étape de « feed forward » est comparé au label (position de l'indication) associé à ladite image 2D simulée dans la BDD simulée et annotée 36. Si ces labels diffèrent, l'unité de calcul 37 détermine une erreur. L'apprentissage statistique étant réalisé par rétropropagation de l'erreur commise, l'unité de calcul 37 calcule la dérivée de cette erreur pour déterminer comment changer les poids des différentes couches de neurones de façon à réduire l'erreur.Then, for each simulated 2D image, the label 82a predicted in the “feed forward” step is compared to the label (position of the indication) associated with said 2D image simulated in the simulated and annotated BDD 36. If these labels differ , the calculation unit 37 determines an error. Statistical learning being carried out by backpropagation of the error made, the calculation unit 37 calculates the derivative of this error to determine how to change the weights of the different layers of neurons so as to reduce the error.

L'erreur est ainsi rétropropagée dans le réseau couche par couche, de la dernière vers la première couche pour mettre à jour les poids de chaque couche.The error is thus back-propagated in the network layer by layer, from the last to the first layer to update the weights of each layer.

Les algorithmes permettant d'apprendre sur des architectures profondes sont complexes (et s'appuient sur de nombreux « hyper paramètres » qu'il faut choisir avec soin pour ne pas rester bloquer dans des minima locaux peu performants. L'algorithme d'apprentissage mis en œuvre pour la rétropropagation est par exemple par une méthode d'optimisation ou de descente de gradient stochastique.The algorithms allowing to learn on deep architectures are complex (and are based on many "hyper parameters" which must be chosen with care so as not to get stuck in poorly performing local minima. The learning algorithm put implemented for backpropagation is for example by an optimization method or stochastic gradient descent.

Dans un mode de réalisation particulier, le réseau de neurones 80 peut par exemple être un réseau de neurones convolutionnels.In a particular embodiment, the neural network 80 can for example be a convolutional neural network.

Une convolution est une opération mathématique qui permet de modifier l'image initiale par un noyau de convolution en la filtrant.A convolution is a mathematical operation which makes it possible to modify the initial image by a convolution kernel by filtering it.

Ce sont donc ces noyaux de convolution qui sont appris lors de l'apprentissage statistique lors de la mise à jour des poids.It is therefore these convolution kernels that are learned during statistical learning when updating weights.

Un noyau de convolution va analyser une caractéristique de l’image d’entrée. Une opération non linéaire est appliquée à chaque étape (à chaque convolution) : sigmoid, relu, tanh, ... permettant d'extraire des caractéristiques visuelles (détection de côté, angle, extrémité ...).A convolution kernel will analyze a characteristic of the input image. A non-linear operation is applied to each step (at each convolution): sigmoid, re-read, tanh, ... allowing the extraction of visual characteristics (side, angle, end detection ...).

Le noyau de convolution peut être par exemple une matrice de taille 3x3.The convolution kernel can be for example a matrix of size 3x3.

Pour analyser plusieurs caractéristiques, le réseau de neurones 80 empile des strates de noyaux de convolution indépendants, chaque strate analysant une caractéristique de l’image. L’ensemble des strates ainsi empilées forme la couche de traitement convolutif. Le nombre de strates de traitement définit la profondeur de la couche de convolution.To analyze several characteristics, the neural network 80 stacks strata of independent convolution nuclei, each stratum analyzing a characteristic of the image. All of the strata thus stacked form the convolutional treatment layer. The number of treatment layers defines the depth of the convolution layer.

Une couche de pooling permet une étape de sous-échantillonnage de l'image, réduisant ainsi la quantité de paramètres et de calcul, permettant de gros gains en puissance de calcul. La couche de pooling permet également une approche multi-échelle, la couche de convolution suivante traitant une plus grande partie de l'image initiale.A pooling layer allows a step of sub-sampling the image, thus reducing the quantity of parameters and calculation, allowing large gains in computing power. The pooling layer also allows a multi-scale approach, the next convolution layer processing a larger part of the initial image.

Il est donc fréquent d'insérer périodiquement une couche de pooling entre deux couches convolutives successives d'une architecture de méthodes statistiques profondes.It is therefore frequent to periodically insert a pooling layer between two successive convolutional layers of an architecture of deep statistical methods.

À la suite des enchaînements de couches de convolution et de pooling, l'architecture comprend au moins une couche entièrement connectée FC, qui est une couche de type perceptron. Les neurones dans une couche entièrement connectée ont des connexions vers toutes les sorties de la couche précédente (comme on le voit régulièrement dans les réseaux réguliers de neurones). Ainsi, cette couche permet le classement de la signature d'une image et donc d'attribuer au moins un label à l'image de ladite signature.Following the sequences of convolutional and pooling layers, the architecture comprises at least one fully connected layer FC, which is a layer of the perceptron type. The neurons in a fully connected layer have connections to all of the outputs of the previous layer (as seen regularly in regular neural networks). Thus, this layer makes it possible to classify the signature of an image and therefore to assign at least one label to the image of said signature.

En référence de nouveau à la figure 8, l'apprentissage adversaire est permis par une autre branche du réseau, comprenant un troisième ensemble de couches de traitement 84.Referring again to FIG. 8, adversary learning is enabled by another branch of the network, comprising a third set of processing layers 84.

Cette branche du réseau est apprise pour essayer de faire la distinction entre une image source et une image cible. Ainsi, elle classera l'image dans un domaine 84a. Un premier domaine correspondant aux images réelles, et un second domaine correspondant aux images simulées.This branch of the network is learned to try to distinguish between a source image and a target image. Thus, it will classify the image in a domain 84a. A first domain corresponding to real images, and a second domain corresponding to simulated images.

Les poids des neurones de la branche de réseau 84 sont modulés pour que celle-ci soit incapable de faire la distinction entre les images simulées et les images réelles, dans le but que le réseau 80 donne les mêmes performances de détection sur les données sources et les données cibles, donc sur les images 2D simulées et les images 2D réelles.The weights of the neurons of the network branch 84 are modulated so that the latter is unable to distinguish between the simulated images and the real images, with the aim that the network 80 gives the same detection performance on the source data and target data, so on simulated 2D images and real 2D images.

Pour atteindre ce but, l'algorithme d'apprentissage va donc minimiser une fonction de coût du classement de la signature permettant d'attribuer à l'image au moins un label et maximiser une fonction de coût du classement de la signature de l'image dans un domaine.To achieve this goal, the learning algorithm will therefore minimize a cost function of classification of the signature allowing the image to be assigned at least one label and maximize a cost function of classification of the signature of the image. in a domain.

En conséquence, cela signifie que l'algorithme d'apprentissage pénalise quelque peu la tâche principale (prédiction des labels) pour imposer que les couches 82 « extraction de descripteurs » aient le même comportement pour des images cibles et des images sources. Les couches « extraction de descripteurs » 82 seront donc invariantes au domaine des images.Consequently, this means that the learning algorithm somewhat penalizes the main task (prediction of labels) in order to impose that the “descriptor extraction” layers 82 have the same behavior for target images and source images. The “descriptor extraction” layers 82 will therefore be invariant to the image domain.

Dans un mode de réalisation particulier où l'algorithme d'apprentissage mis en œuvre pour la rétropropagation est la méthode de descente de gradient stochastique.In a particular embodiment where the learning algorithm implemented for backpropagation is the stochastic gradient descent method.

Dans la branche de réseau 84, le gradient en sortie sera calculé, inversé et injecté dans les couches « d'extraction de descripteurs » 82.In the network branch 84, the output gradient will be calculated, inverted and injected into the “descriptor extraction” layers 82.

L'apprentissage adversaire est complexe à maîtriser puisque nous apprenons simultanément les poids de 2 branches (83 et 84) qui n'ont pas les mêmes objectifs, voir même des objectifs contradictoires. Pour réaliser un apprentissage adversaire, l'algorithme d'apprentissage impose préférablement une contrainte très faible pour les premières itérations puis accentuer cette contrainte au fur et à mesure de l'apprentissage.Opponent learning is complex to master since we simultaneously learn the weights of 2 branches (83 and 84) which do not have the same objectives, or even contradictory objectives. To carry out adversary learning, the learning algorithm preferably imposes a very weak constraint for the first iterations then accentuate this constraint as the learning progresses.

Cette sous-étape E14 d'apprentissage statistique peut conclure l'étape E10, dont la sortie est un modèle statistique MS.This substep E14 of statistical learning can conclude step E10, the output of which is a statistical model MS.

Validation des performancesPerformance validation

Pour valider le modèle statistique MS obtenu dans l'étape E10 d'apprentissage statistique, il est nécessaire de mesurer les performances en détection et en fausses alarmes sur des données réelles.To validate the statistical model MS obtained in step E10 of statistical learning, it is necessary to measure the performance in detection and in false alarms on real data.

Ainsi, dans une sous-étape E21 de l'étape E20 de validation du modèle statistique, à partir de pièces de test P2, l'unité de calcul 30 procède comme dans la sous-étape EU, à l'acquisition d'image 2D par rayons X. Egalement, comme dans la sous-étape E12, dans une sous-étape E22 de l'étape E20, l'unité de calcul 30 procède à des prétraitements sur les images précédemment acquises.Thus, in a sub-step E21 of the step E20 of validation of the statistical model, from test pieces P2, the calculation unit 30 proceeds as in the sub-step EU, to acquire 2D image by X-rays. Also, as in sub-step E12, in a sub-step E22 of step E20, the calculation unit 30 performs pretreatments on the previously acquired images.

Puis, dans une sous-étape E24, prenant en entrée le modèle statistique déterminé par l'étape E10 et les données prétraitées issues de E22. Le modèle est donc appliqué à cette nouvelle image et le procédé obtient en sortie les probabilités de présences d'indications sous la forme de labels.Then, in a sub-step E24, taking as input the statistical model determined by step E10 and the preprocessed data coming from E22. The model is therefore applied to this new image and the process obtains as an output the probabilities of the presence of indications in the form of labels.

Dans une sous-étape E23 de E20, les images 2D acquises en E21, sont annotées manuellement par un opérateur, en fonction d'une inspection visuelle, de façon à attribuer au moins un label à la pièce de test P2.In a sub-step E23 of E20, the 2D images acquired in E21 are manually annotated by an operator, according to a visual inspection, so as to assign at least one label to the test piece P2.

Ensuite, dans une sous-étape E25, l'unité de calcul 37 compare les prédictions de labels des algorithmes automatiques aux annotations manuelles, labels attribués par les opérateurs. Des indicateurs de corrélation (par exemple un pourcentage de détection, un nombre de fausses alarmes, une matrice de confusion...) sont donc calculés pour voir si la corrélation et les performances sont conformes aux attentes.Then, in a sub-step E25, the calculating unit 37 compares the label predictions of the automatic algorithms to the manual annotations, labels assigned by the operators. Correlation indicators (for example a detection percentage, a number of false alarms, a confusion matrix, etc.) are therefore calculated to see if the correlation and the performances are in line with expectations.

En conséquence, de façon avantageuse, l'étape E20 de validation des performances, est une étape dont le coût est considérablement réduit par rapport à une approche sans simulation : en effet, le nombre d'images à annoter est faible et ne servira que pour valider les performances des algorithmes (l'apprentissage statistique reposant essentiellement sur les données de simulation).Consequently, advantageously, the step E20 of validation of the performances, is a step whose cost is considerably reduced compared to an approach without simulation: in fact, the number of images to be annotated is low and will only be used for validate the performance of algorithms (statistical learning essentially based on simulation data).

Dans le cas où les performances sont insuffisantes (mesurées par les indicateurs), le procédé proposé revient à l'étape précédente E10 de façon à affiner le modèle statistique MS.In the event that performance is insufficient (measured by the indicators), the proposed method returns to the previous step E10 so as to refine the statistical model MS.

Prédiction en ligne E2Online prediction E2

Dans une deuxième phase E2, l'unité de calcul 37 procède au classement en ligne sur l'intégralité des pièces à contrôler P3 issues d'une ligne de production.In a second phase E2, the calculating unit 37 classifies online all of the parts to be inspected P3 from a production line.

Ainsi, dans une étape E31 de E2, à partir des pièces à contrôler, l'unité de calcul 30 procède comme dans la sous-étape EU, à l'acquisition d'image 2D par rayons X.Thus, in a step E31 of E2, on the basis of the parts to be checked, the calculation unit 30 proceeds as in the sub-step EU, to acquire 2D image by X-rays.

Egalement, comme dans la sous-étape E12, dans une étape E32 de E2, l'unité de calcul 30 procède à des prétraitements sur les images précédemment acquises.Also, as in the sub-step E12, in a step E32 of E2, the calculation unit 30 carries out preprocessings on the previously acquired images.

Ainsi, à partir d'images 2D de la pièce à contrôler, les probabilités de présences d'indications sont calculées dans une étape E33 grâce au modèle statistique MS issu de la phase El.Thus, from 2D images of the part to be checked, the probabilities of the presence of indications are calculated in a step E33 using the statistical model MS resulting from the phase E1.

En conséquence, les zones qui diffèrent trop d'une pièce saine sont remontées dans le rapport de contrôle de la pièce. Une cartographie des indications présentes dans l'image d'une pièce à contrôler est donc générée. Si besoin, une inspection visuelle, appelée consolidation, est effectuée par un opérateur pour valider la détection.As a result, areas that differ too much from a healthy room are brought up in the room control report. A map of the indications present in the image of a part to be checked is therefore generated. If necessary, a visual inspection, called consolidation, is carried out by an operator to validate the detection.

En outre, suite à cette inspection visuelle, les données générées par le procédé peuvent venir compléter la base de données 36, de sorte que BDD 39 s'enrichit à mesure que les pièces sont analysées. Préférablement, ces données ne complètent la base de données que si un écart entre le résultat obtenu et la consolidation est observé. Ainsi, la pièce à contrôler devient une pièce de test P2.In addition, following this visual inspection, the data generated by the process can complete the database 36, so that BDD 39 is enriched as the parts are analyzed. Preferably, these data only complete the database if a difference between the result obtained and the consolidation is observed. Thus, the part to be tested becomes a P2 test part.

Les modes de réalisation décrits sont mis en application dans le cadre de pièces métalliques associées à un moyen de contrôle non destructif par rayon X. Cependant, cette méthode peut être déployée suivant d'autres modes de réalisations, par exemple avec des moyens de contrôle tels que par :The embodiments described are implemented in the context of metal parts associated with a non-destructive X-ray control means. However, this method can be deployed according to other embodiments, for example with control means such as by :

- ultrason : le procédé décrit ci-dessus peut de la même manière simuler ce moyen de contrôle et générer des pièces à indications simulées ; et- ultrasound: the process described above can similarly simulate this control means and generate parts with simulated indications; and

- tomographie numérique : la tomographie numérique repose sur la radiographie numérique (acquisition RX de multiples vues à 360° autour de la pièce avec reconstruction de l'image 3D de l'intérieur de la pièce).- digital tomography: digital tomography is based on digital radiography (RX acquisition of multiple 360 ° views around the room with reconstruction of the 3D image of the interior of the room).

Références [1] K. Dabov, A. Foi, V. Katkovnik Image and video denoising by sparse 3D transform-domain collaborative fiitering.References [1] K. Dabov, A. Foi, V. Katkovnik Image and video denoising by sparse 3D transform-domain collaborative fiitering.

[2] Nobuyuki Otsu, A threshold sélection method from gray-level histograms », IEEE Trans. Sys., Man., Cyber., vol. 9, 1979, p. 62-66 (DOI 10.1109/TSMC.1979.4310076).[2] Nobuyuki Otsu, A threshold selection method from gray-level histograms ”, IEEE Trans. Sys., Man., Cyber., Vol. 9, 1979, p. 62-66 (DOI 10.1109 / TSMC.1979.4310076).

[3] M. Sezgin and B. Sankur, Survey over image thresholding techniques and quantitative performance évaluation, Journal of Electronic Imaging, vol. 13, n°l, 2003, p. 146-165 (DOI 10.1117/1.1631315) [4] Carlo Tomasi and Roberto Manduchi, Bilateral fiitering for gray and coior images in Computer Vision, 1998. Sixth International Conférence on . IEEE, 1998, pp. 839- 846.[3] M. Sezgin and B. Sankur, Survey over image thresholding techniques and quantitative performance evaluation, Journal of Electronic Imaging, vol. 13, n ° l, 2003, p. 146-165 (DOI 10.1117 / 1.1631315) [4] Carlo Tomasi and Roberto Manduchi, Bilateral fiitering for gray and coior images in Computer Vision, 1998. Sixth International Conférence on. IEEE, 1998, pp. 839-846.

[5] Pietro Perona and Jitendra Malik (November 1987). Scaie-space and edge détection using anisotropic diffusion. Proceedings of IEEE Computer Society Workshop on Computer Vision, pp. 16-22.[5] Pietro Perona and Jitendra Malik (November 1987). Scaie-space and edge detection using anisotropic diffusion. Proceedings of IEEE Computer Society Workshop on Computer Vision, pp. 16-22.

[6] Rudin, L. I.; Osher, S.; Fatemi, E. (1992). Nonlinear total variation based noise removai aigorithms. Physica D 60: 259-268.[6] Rudin, L. I .; Osher, S .; Fatemi, E. (1992). Nonlinear total variation based noise removai aigorithms. Physica D 60: 259-268.

Claims (11)

Revendicationsclaims 1. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique mettant en œuvre un système radiographique d'acquisition d'images (20), comprenant une étape d'apprentissage statistique d'indications (E10) comprenant les sous-étapes suivantes :1. A method of non-destructive testing of a metal part (10) for aeronautics implementing a radiographic image acquisition system (20), comprising a step of statistical learning of indications (E10) comprising the sub -following steps : - (EU) acquérir une pluralité d'images 2D réelles d'une pièce réelle (PI) susceptible de contenir des indications potentielles ;- (EU) acquire a plurality of real 2D images of a real part (PI) likely to contain potential indications; - (E12) à partir d'un modèle 3D de référence de la pièce métallique (10), modifier ledit modèle 3D pour générer au moins une indication donnée dans une zone donnée dudit modèle ;- (E12) from a reference 3D model of the metal part (10), modifying said 3D model to generate at least one indication given in a given area of said model; - simuler les conditions opératoires d'acquisition de de la pluralité d'images 2D réelles et générer au moins une image 2D simulée à partir dudit modèle 3D modifié ;- simulate the operating conditions for acquiring the plurality of real 2D images and generate at least one simulated 2D image from said modified 3D model; - ajouter l'image 2D simulée à une base de données d'images simulées (39) de la pièce métallique (10), ainsi qu'au moins un élément d'identification de l'indication donnée dans ladite base de données (39) ; et- adding the simulated 2D image to a database of simulated images (39) of the metal part (10), as well as at least one element for identifying the indication given in said database (39) ; and - (E14) à partir de ladite base de données et de la pluralité d'images 2D réelles, mettre en œuvre une analyse statistique par apprentissage supervisée adversaire pour générer un modèle statistique (MS) d'indications dans une pièce métallique (10) ;- (E14) from said database and the plurality of real 2D images, implementing a statistical analysis by supervised adversary learning to generate a statistical model (MS) of indications in a metal part (10); une étape de calcul des probabilités de présences d'indications (E2) dans la pièce métallique à contrôler (10) comprenant les sousétapes suivantes :a step of calculating the probabilities of the presence of indications (E2) in the metal part to be checked (10) comprising the following sub-steps: - (E31) acquérir au moins une image 2D de ladite pièce métallique (10) ;- (E31) acquiring at least a 2D image of said metallic part (10); - (E33) calculer des probabilités de présences d'indications dans ladite image 2D à partir du modèle statistique (MS) ; et en déterminer si la pièce métallique (10) est caractéristique d'une pièce saine.- (E33) calculating probabilities of the presence of indications in said 2D image from the statistical model (MS); and determine if the metal part (10) is characteristic of a healthy part. 2. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique selon la revendication précédente dans lequel l'élément d'identification d'une indication donnée dans ladite base de données est un masque binaire de ladite indication donnée.2. Method of non-destructive testing of a metal part (10) for aeronautics according to the preceding claim wherein the element for identifying a given indication in said database is a binary mask of said given indication. 3. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique selon l'une des revendications précédentes dans lequel l'étape d'apprentissage statistique (E10) comprend également la sous-étape consistant à :3. A method of non-destructive testing of a metal part (10) for aeronautics according to one of the preceding claims in which the statistical learning step (E10) also comprises the sub-step consisting in: estimer des paramètres de la pose 3D de ladite pièce de test (PI) lors de l'acquisition de ladite pluralité d'images 2D réelles ; et dans laquelle la sous-étape de simulation des conditions opératoires d'acquisition de de la pluralité d'images 2D réelles est effectuée à partir desdits paramètres estimés de la pose 3D de ladite pièce de test (PI) pour déterminer des paramètres de recalage d'un modèle 3D de la pièce métallique (10).estimating parameters of the 3D fitting of said test piece (PI) during the acquisition of said plurality of real 2D images; and in which the substep of simulating the operating conditions for acquiring the plurality of real 2D images is carried out from said estimated parameters of the 3D fitting of said test piece (PI) in order to determine registration parameters d '' a 3D model of the metal part (10). 4. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique selon l'une des revendications précédentes dans lequel après l'étape d'apprentissage statistique (E10), le procédé comprend une étape de validation du modèle statistique (E20) comprenant les sous-étapes suivantes :4. A method of non-destructive testing of a metal part (10) for aeronautics according to one of the preceding claims in which after the statistical learning step (E10), the method comprises a step of validating the statistical model ( E20) comprising the following sub-steps: - (E21) acquérir au moins une image 2D d'une pièce de référence (P2),- (E21) acquire at least a 2D image of a reference part (P2), - (E23) attribuer à ladite image 2D au moins un label relatif à la présence d'indications en fonction d'une inspection visuelle de l'image 2D,- (E23) assign to said 2D image at least one label relating to the presence of indications as a function of a visual inspection of the 2D image, - (E24) calculer les probabilités de présences d'indications dans l'image 2D à partir du modèle statistique (MS) et déterminer au moins un label,- (E24) calculate the probabilities of the presence of indications in the 2D image from the statistical model (MS) and determine at least one label, - comparer le(s) label(s) déterminé(s) au(x) label(s) attribué(s), et calculer un indicateur de corrélation,- compare the determined label (s) with the assigned label (s), and calculate a correlation indicator, - si l'indicateur est inférieur à une valeur donnée, poursuivre l'étape d'apprentissage statistique (E10),- if the indicator is less than a given value, continue the statistical learning step (E10), - sinon valider le modèle statistique (MS).- otherwise validate the statistical model (MS). 5. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique selon l'une des revendications précédentes dans lequel après l'acquisition d'au moins une image 2D d'une pièce de test (PI), et/ou d'une pièce de référence (P2), et/ou d'une pièce de référence (P3), ladite image 2D acquise subit un traitement (E13/E22/E32) par des moyens de traitements adaptés pour atténuer des artéfacts et/ou variabilités de l'image 2D.5. Method for non-destructive testing of a metal part (10) for aeronautics according to one of the preceding claims, in which after the acquisition of at least a 2D image of a test part (PI), and / or a reference piece (P2), and / or a reference piece (P3), said acquired 2D image undergoes processing (E13 / E22 / E32) by processing means adapted to attenuate artefacts and / or variability of the 2D image. 6. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique selon l'une des revendications précédentes dans lequel après la génération une image 2D simulée à partir dudit modèle 3D modifié, ladite image 2D acquise subit un traitement par des moyens de traitements adaptés pour atténuer des artéfacts et/ou variabilités de l'image 2D.6. A method of non-destructive testing of a metal part (10) for aeronautics according to one of the preceding claims wherein after generation of a simulated 2D image from said modified 3D model, said acquired 2D image is processed by processing means adapted to attenuate artifacts and / or variabilities of the 2D image. 7. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique selon l'une des revendications précédentes dans lequel l'analyse statistique est obtenue par un apprentissage profond à base de réseaux de neurones.7. A method of non-destructive testing of a metal part (10) for aeronautics according to one of the preceding claims wherein the statistical analysis is obtained by deep learning based on neural networks. 8. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique selon la revendication précédente dans lequel l'apprentissage profond à base de réseaux de neurones est configuré pour réaliser un algorithme d'apprentissage adversaire.8. A method of non-destructive testing of a metal part (10) for aeronautics according to the preceding claim wherein the deep learning based on neural networks is configured to perform an adversary learning algorithm. 9. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique selon l'une des revendications précédentes dans lequel l'analyse statistique par apprentissage supervisée comprend :9. A method of non-destructive testing of a metal part (10) for aeronautics according to one of the preceding claims in which the statistical analysis by supervised learning comprises: -pour au moins une image simulée et au moins une image réelle de la pluralité d'images 2D réelles, l'extraction automatique d'une signature desdites images, déterminant une pluralité de p descripteurs, un descripteur étant le résultat d'une analyse d'image ;for at least one simulated image and at least one real image of the plurality of real 2D images, the automatic extraction of a signature from said images, determining a plurality of p descriptors, a descriptor being the result of an analysis d 'picture ; -le classement automatique de la signature de l'image simulée permettant d'attribuer à ladite image, un label représentatif de la présence d'indications dans la pièce ;the automatic classification of the signature of the simulated image making it possible to attribute to said image a label representative of the presence of indications in the part; -la rétropagation de l'erreur dudit classement du label pour minimiser une fonction de coût du classement de la signature permettant d'attribuer à l'image un label ;the back-propagation of the error of said classification of the label to minimize a cost function of the classification of the signature making it possible to attribute a label to the image; -le classement automatique de la signature de l'image réelle ou simulée dans un domaine de l'image simulée, ou de l'image réelle ; etthe automatic classification of the signature of the real or simulated image in a domain of the simulated image, or of the real image; and - la rétropagation de l'inverse de l'erreur dudit classement du domaine pour maximiser une fonction de coût du classement de la signature de l'imagette dans un domaine ;- backpropagation of the inverse of the error of said classification of the domain to maximize a cost function of the classification of the signature of the thumbnail in a domain; de telle sorte que l'extraction d'une signature soit invariante en fonction du domaine.so that the extraction of a signature is invariant depending on the domain. 10. Procédé de contrôle non-destructif d'une pièce métallique (10) pour aéronautique selon l'une des revendications précédentes dans lequel l'algorithme d'apprentissage mis en œuvre pour la rétropropagation est la méthode de descente de gradient stochastique.10. A method of non-destructive testing of a metal part (10) for aeronautics according to one of the preceding claims in which the learning algorithm used for backpropagation is the stochastic gradient descent method. 11. Produit programme d'ordinateur, destiné à être exécuté par des moyens de traitement (31) d'une unité de calcul (30), ladite unité de calcul comprenant en outre une mémoire (32), et configuré pour mettre en œuvre des étapes du procédé selon l'une quelconque des revendications précédentes.11. computer program product, intended to be executed by processing means (31) of a calculation unit (30), said calculation unit further comprising a memory (32), and configured to implement process steps according to any one of the preceding claims.
FR1762177A 2017-12-14 2017-12-14 NON-DESTRUCTIVE INSPECTION PROCESS FOR AN AERONAUTICAL PART Active FR3075376B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1762177A FR3075376B1 (en) 2017-12-14 2017-12-14 NON-DESTRUCTIVE INSPECTION PROCESS FOR AN AERONAUTICAL PART

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1762177 2017-12-14
FR1762177A FR3075376B1 (en) 2017-12-14 2017-12-14 NON-DESTRUCTIVE INSPECTION PROCESS FOR AN AERONAUTICAL PART

Publications (2)

Publication Number Publication Date
FR3075376A1 true FR3075376A1 (en) 2019-06-21
FR3075376B1 FR3075376B1 (en) 2020-05-22

Family

ID=61224117

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1762177A Active FR3075376B1 (en) 2017-12-14 2017-12-14 NON-DESTRUCTIVE INSPECTION PROCESS FOR AN AERONAUTICAL PART

Country Status (1)

Country Link
FR (1) FR3075376B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161295A (en) * 2019-12-30 2020-05-15 神思电子技术股份有限公司 Background stripping method for dish image
WO2022038159A1 (en) * 2020-08-19 2022-02-24 Commissariat à l'Energie Atomique et aux Energies Alternatives Method for characterizing a part through non-destructive inspection
FR3113529A1 (en) * 2020-08-19 2022-02-25 Commissariat à l'Energie Atomique et aux Energies Alternatives Part characterization process by non-destructive testing

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5331550A (en) * 1991-03-05 1994-07-19 E. I. Du Pont De Nemours And Company Application of neural networks as an aid in medical diagnosis and general anomaly detection

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5331550A (en) * 1991-03-05 1994-07-19 E. I. Du Pont De Nemours And Company Application of neural networks as an aid in medical diagnosis and general anomaly detection

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ASIMENIA DIMOKRANITOU: "ADVERSARIAL AUTOENCODERS FOR ANOMALOUS EVENT DETECTION IN IMAGES", 31 May 2017 (2017-05-31), XP055469673, Retrieved from the Internet <URL:https://media.proquest.com/media/pq/classic/doc/4324144957/fmt/ai/rep/NPDF?hl=&cit:auth=Dimokranitou,+Asimenia&cit:title=Adversarial+Autoencoders+for+Anomalous+Event+Detection+in+Images&cit:pub=ProQuest+Dissertations+and+Theses&cit:vol=&cit:iss=&cit:pg=&cit:date=2017&ic=true&cit:prod=ProQuest+Disser> [retrieved on 20180423] *
HOJJAT SALEHINEJAD ET AL: "Generalization of Deep Neural Networks for Chest Pathology Classification in X-Rays Using Generative Adversarial Networks", 8 November 2017 (2017-11-08), pages 1 - 5, XP055504337, Retrieved from the Internet <URL:https://arxiv.org/pdf/1712.01636v1.pdf> *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161295A (en) * 2019-12-30 2020-05-15 神思电子技术股份有限公司 Background stripping method for dish image
CN111161295B (en) * 2019-12-30 2023-11-21 神思电子技术股份有限公司 Dish image background stripping method
WO2022038159A1 (en) * 2020-08-19 2022-02-24 Commissariat à l'Energie Atomique et aux Energies Alternatives Method for characterizing a part through non-destructive inspection
FR3113529A1 (en) * 2020-08-19 2022-02-25 Commissariat à l'Energie Atomique et aux Energies Alternatives Part characterization process by non-destructive testing
FR3113530A1 (en) * 2020-08-19 2022-02-25 Commissariat à l'Energie Atomique et aux Energies Alternatives Part characterization process by non-destructive testing

Also Published As

Publication number Publication date
FR3075376B1 (en) 2020-05-22

Similar Documents

Publication Publication Date Title
EP3465552B1 (en) Systems and methods incorporating a neural network and a forward physical model for semiconductor applications
US10395356B2 (en) Generating simulated images from input images for semiconductor applications
Che et al. Towards learning-based inverse subsurface scattering
FR3075376A1 (en) NON-DESTRUCTIVE CONTROL METHOD FOR AERONAUTICAL WORKPIECE
Fuchs et al. Defect detection in CT scans of cast aluminum parts: A machine vision perspective
EP3717877A2 (en) Method for characterizing samples using neural networks
Tyystjärvi et al. Automated defect detection in digital radiography of aerospace welds using deep learning
WO2012004491A2 (en) Method for inspecting the quality of a solder joint
KR102622720B1 (en) Image noise reduction using stacked denoising autoencoders
WO2023084543A1 (en) System and method for leveraging neural network based hybrid feature extraction model for grain quality analysis
FR3050274A1 (en) METHOD OF TOPOLOGICAL ANALYSIS OF A COMPOSITE PIECE
FR3050826A1 (en) METHOD OF NON-DESTRUCTIVE CONTROL BY LEARNING
Andriiashen et al. CT-based data generation for foreign object detection on a single X-ray projection
CA3189871A1 (en) Method for characterizing a part through non-destructive inspection
FR3058816A1 (en) METHOD FOR NON-DESTRUCTIVE CONTROL OF METAL PIECE
Gao et al. Mass detection of walnut based on X‐ray imaging technology
EP3080594A1 (en) Non-intrusive measurement of the volume density of a phase in a part
EP2548008A1 (en) Method of radio-synthetic examination of specimens
EP3411851B1 (en) Method of non-destructive inspection of a part by straightening
Ferrato et al. Space optics instrument optimization and characterization with artificial intelligence
FR3117652A1 (en) Registration process for the non-destructive testing of an aeronautical part
Wu Data-driven X-ray Tomographic Imaging and Applications to 4D Material Characterization
CA3188699A1 (en) Method for characterizing a part through non-destructive inspection
FR3126779A1 (en) Method, device and computer program for checking a part by X-ray radiography
FR3119259A1 (en) Anomaly detection in mechanical parts

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190621

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7