EP4200603A1 - Method for characterizing a part through non-destructive inspection - Google Patents

Method for characterizing a part through non-destructive inspection

Info

Publication number
EP4200603A1
EP4200603A1 EP21756011.9A EP21756011A EP4200603A1 EP 4200603 A1 EP4200603 A1 EP 4200603A1 EP 21756011 A EP21756011 A EP 21756011A EP 4200603 A1 EP4200603 A1 EP 4200603A1
Authority
EP
European Patent Office
Prior art keywords
neural network
database
defect
measurements
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP21756011.9A
Other languages
German (de)
French (fr)
Inventor
Clément FISHER
Olivier MESNIL
Roberto MIORELLI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Publication of EP4200603A1 publication Critical patent/EP4200603A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/44Processing the detected response signal, e.g. electronic circuits specially adapted therefor
    • G01N29/4481Neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N25/00Investigating or analyzing materials by the use of thermal means
    • G01N25/72Investigating presence of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N27/00Investigating or analysing materials by the use of electric, electrochemical, or magnetic means
    • G01N27/72Investigating or analysing materials by the use of electric, electrochemical, or magnetic means by investigating magnetic variables
    • G01N27/82Investigating or analysing materials by the use of electric, electrochemical, or magnetic means by investigating magnetic variables for investigating the presence of flaws
    • G01N27/90Investigating or analysing materials by the use of electric, electrochemical, or magnetic means by investigating magnetic variables for investigating the presence of flaws using eddy currents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/26Scanned objects

Definitions

  • the technical field of the invention is the interpretation of measurements by non-destructive testing carried out on a mechanical part or part of a structure.
  • NDT meaning Non-destructive Testing
  • the objective is to carry out a check and/or detect and monitor the appearance of structural defects. This involves monitoring the integrity of a controlled part, so as to prevent the occurrence of accidents, or to extend the period of use of the part under good safety conditions.
  • NDT is commonly implemented in sensitive equipment, so as to optimize replacement or maintenance.
  • the applications are numerous in the control of industrial equipment, for example in oil exploitation, in the nuclear industry, or in transport, for example in aeronautics.
  • the sensors used in the NDT are non-destructive sensors, causing no damage to the parts checked.
  • the controlled parts can be structural elements of industrial equipment or aircraft, or civil engineering works, for example bridges or dams.
  • the methods used are varied. They can for example implement X-rays, or ultrasonic waves or detection by eddy currents.
  • the sensors are connected to computer means, so as to be able to interpret the measurements made.
  • the presence of a defect, in a part, leads to a signature of the defect, measurable by a sensor.
  • the computer means perform an inversion. This involves, from the measurements, obtaining quantitative data relating to the defect, for example its position, or its shape, or its dimensions.
  • the inversion can be performed by taking into account direct analytical models, for example polynomial models, making it possible to establish a relationship between the characteristics of a defect and measurements resulting from a sensor.
  • the inversion of the model allows an estimation of said characteristics from measurements taken.
  • the characteristics of the defects can be estimated by implementing supervised artificial intelligence algorithms, for example neural networks.
  • supervised artificial intelligence algorithms for example neural networks.
  • a difficulty linked to the use of neural networks is the use of a learning phase that is as complete as possible, so as to optimize the performance of the estimation. It takes time and requires a lot of data.
  • the inventors propose a method addressing this question. The objective is to facilitate the learning of a neural network intended to perform an inversion, while maintaining good performance in estimating the characteristics of the defect.
  • a first object of the invention is a method for characterizing a part, the part being likely to comprise a defect, the method comprising the following steps: a) carrying out non-destructive measurements using a sensor, the sensor being placed on the part or facing the part; b) formation of at least one measurement matrix using the measurements carried out during step a); c) use of the matrix as input data for a convolutional neural network, the convolutional neural network comprising:
  • an extraction block configured to extract characteristics from each input data
  • a classification block configured to carry out a classification of the characteristics extracted by the extraction block, the classification block leading to an output layer comprising at least one node; d) depending on the value of each node of the output layer, detection of the presence of a defect in the part, and possible characterization of the detected defect; the method comprising, prior to steps c) and d):
  • a first database comprising measurements carried out or simulated, on a first model part, according to a first configuration, the first configuration being parameterized by parameters, the first database being formed by considering at least one variable parameter and at least one fixed parameter;
  • a first neural network comprising an extraction block and a processing block, the processing block being configured to process characteristics extracted by the extraction block, the first neural network being first trained, using the first database; the method being characterized in that it also comprises:
  • a constitution of a second database comprising measurements carried out or simulated on a second model part, representative of the characterized part, according to a second configuration, the second configuration being parameterized by modifying at least one fixed parameter of the first configuration ;
  • the second convolutional neural network comprising the extraction block of the first neural network, and a classification block, the latter being configured during the second learning;
  • the neural network used is the second convolutional neural network, resulting from the second learning.
  • measurement is meant a measurement of a physical quantity liable to vary in the presence of a defect in the part. It can be an acoustic, electric, electrostatic, magnetic, electromagnetic (for example an intensity of a radiation), or mechanical quantity.
  • the second configuration can notably take into account:
  • the first database may comprise measurements performed or simulated on a model part comprising the defect.
  • the processing block of the first neural network is a classification block, configured, during the first learning, to carry out a classification of the characteristics extracted by the extraction block, the first neural network being a convolutional neural network.
  • the classification block of the second neural network can be initialized by using the classification block of the first neural network.
  • the first neural network is of the auto-encoder type.
  • Said processing block of the first neural network can be configured, during the first learning, to reconstruct data, coming from the first database, and forming input data of the first neural network.
  • the defect may be of the type: delamination, and/or crack, and/or perforation and/or crack propagating from a perforation and/or presence of a porous zone and/or presence of an inclusion and/or or presence of corrosion.
  • the part can be made of a composite material, comprising components assembled together.
  • the defect can then be an assembly defect between the components.
  • the measurements can be representative of a spatial distribution:
  • the defect may be a variation of the spatial distribution with respect to a reference spatial distribution.
  • the reference spatial distribution may have been previously modeled or established experimentally.
  • the measures can be of the type:
  • the process can be such as:
  • the first database is made up from measurements carried out experimentally;
  • the first database and the second database are formed from simulated measurements
  • the first database and the second database are formed from experimental measurements.
  • the first configuration and the second configuration can be parameterized by at least one of the parameters chosen from:
  • the measurement conditions may include at least:
  • the first model part and the second model part may be identical.
  • the second model part has a different shape from the first model part
  • the second model part is made of a different material from the first model part.
  • the second database can comprise a number of data lower than the number of data of the first database.
  • Figures IA and IB schematize the implementation of eddy current measurements on a conductive part.
  • Figure 2A shows the structure of a convolutional neural network.
  • FIG. 2B shows the main steps of a method according to the invention.
  • FIG. 3A shows a defect considered during a first example.
  • FIG. 3B is an example of an image resulting from simulated measurements on the defect shown in FIG. 3A.
  • FIG. 3C presents classification performances of a neural network, considering respectively measurements whose signal-to-noise ratio is respectively 5 dB (left), 20 dB (center), and 40 dB (right).
  • Figure 3D shows classification performance of a neural network according to the invention, considering respectively measurements whose signal-to-noise ratio is respectively 5 dB (left), 20 dB (center), and 40 dB (right ).
  • FIGS. 4A and 4B show a defect considered during a second example.
  • Figure 4C presents comparative classification performance
  • FIG. 5 schematizes a variant of the invention.
  • FIGS IA and IB schematize an example of application of the invention.
  • a sensor 1 is arranged facing a part to be inspected 10, so as to characterize the part. It may in particular be a thermal or mechanical characterization.
  • thermal or mechanical characterization we mean a characterization of the thermal or mechanical properties of the part: temperature, deformation, structure.
  • the part to be characterized can be a monolithic part, or a more complex part resulting from an assembly of several elementary parts, for example an airfoil of an airplane wing or a skin of a fuselage.
  • the characterization may consist in detecting the possible presence of a structural defect 11.
  • the sensor 1 is configured to take measurements of eddy currents generated in the part to be checked 10.
  • the latter is an electrically conductive part. .
  • the principle of non-destructive measurements by eddy currents is known. Under the effect of excitation by a magnetic field 12, eddy currents 13 are induced in the part
  • sensor 1 is a coil, powered by an amplitude modulated current. It generates a magnetic field 12, the field lines of which are shown in Figure IA. Eddy currents 13 are induced, forming current loops on the part 10. The eddy currents 13 generate a reaction magnetic field 14, the latter acting on the impedance of the coil 1. Thus, the measurement of the impedance of coil 1 is representative of the eddy currents 13 formed in part 10. In the presence of a fault
  • the eddy currents 13 are modified, which results in a variation in the impedance of the coil.
  • the measurement of the impedance of the coil constitutes a signature of the fault.
  • sensor 1 acts as part 10 excitation, as well as part reaction sensor in response to excitation.
  • the sensor is moved along the part, parallel to it.
  • the part extends along an X axis and a Y axis.
  • the sensor can be moved parallel to each axis, which is materialized by the double arrows.
  • a matrix of sensors can be implemented.
  • a series of measurements is thus available, forming a spatial distribution, preferably two-dimensional, of a measured quantity, in this case the impedance of sensor 1. It is usual to distinguish the real and imaginary parts of the impedance.
  • the measured impedance is generally compared with an impedance in the absence of a fault, so as to obtain a map of the impedance variation AH.
  • a measurement matrix M can be formed, representing the real part or the imaginary part of the impedance measured at each measurement point.
  • the sensor 1 is connected to a processing unit 2, comprising a memory 3 comprising instructions to enable the implementation of a measurement processing algorithm, the main steps of which are described below.
  • the processing unit is usually a computer, connected to a screen 4.
  • the measurement matrix M corresponds to a spatial distribution of the response of the part to excitation, each measurement being a signature of the part.
  • An inversion must be carried out, so as to be able to conclude that a defect is present, and, if necessary, a characterization of the latter.
  • the inversion is performed by the processing algorithm implemented by the processing unit 2.
  • structural defect it is understood a mechanical defect affecting the part. It may in particular be a crack, or a delamination, or a perforation, forming for example a through hole, or a crack propagating from a hole, or from an abnormally porous.
  • the structural defect can also be a presence of an inclusion of an undesirable material, or of a corroded zone.
  • the structural defect may affect the surface of part 10 located opposite the sensor. It can also be located deep in the room. The type of sensor used is selected according to the fault to be characterised.
  • the part to be checked 10 can be made of a composite material. It then comprises components assembled to one another. It can be an assembly of plates or fibers.
  • the defect may be an assembly defect: it may be a local delamination of plates, or a decohesion of fibers or fiber strands, or non-uniformity in the orientation of fibers, or a defect resulting from an impact or shock.
  • the part to be inspected 10 has mechanical properties that are spatially distributed along the part.
  • the defect may be a variation in the spatial distribution of the mechanical properties with respect to a reference spatial distribution. It may for example be a part of the part, in which the mechanical properties do not correspond to reference mechanical properties, or are outside a tolerance range.
  • the mechanical property can be the Young's modulus, or the density, or a speed of propagation of a wave acoustic.
  • the reference spatial distribution can come from a specification, and correspond to an objective to be achieved. It can result from a model or from experimental measurements.
  • the preceding paragraph also applies to electrical or magnetic properties, or else to a stress to which the part to be inspected is exposed. It may for example be a temperature stress or a mechanical stress, for example a pressure stress, to which the part is subjected during its operation.
  • the characterization of the part can consist in establishing a temperature of the part, or a level of mechanical stress (force, pressure, deformation) to which the part is subjected.
  • the characterization can also consist in establishing a spatial distribution of a temperature of the part or, more generally, of a stress to which the part is subjected.
  • the defect is then a difference between the spatial distribution and a reference spatial distribution.
  • a defect can be the appearance of a hot spot, at the level of which the temperature of the part is abnormally high compared to a reference spatial distribution of the temperature. .
  • the characterization of the defect aims to determine the type of defect, among the types mentioned above. It may also include a location of the fault, as well as an estimate of all or part of its dimensions.
  • the processing of the measurements can be carried out by implementing a supervised artificial intelligence algorithm, for example based on a neural network.
  • the learning of the algorithm can be carried out by constituting a database formed from measurements carried out or simulated on a part comprising a defect whose characteristics are known: type of defect, dimensions, location, possibly porosity or other physical quantity to characterize the defect.
  • the database can be established by simulation, using dedicated simulation software.
  • An example of dedicated software is the CIVA software (supplier: Extende), which notably makes it possible to simulate different non-destructive testing methods: ultrasound propagation, eddy current effects and X-ray radiography.
  • CIVA software supplied: Extende
  • Such software makes it possible to simulate measurements from of a model of the part.
  • the use of such software can make it possible to constitute a database allowing the learning of the artificial intelligence algorithm used.
  • FIG. 2A schematizes the architecture of such a network.
  • the convolutional neural network includes a feature extraction block Ai, connected to a processing block Bi.
  • the processing block is configured to process the features extracted from the extraction block Ai.
  • the processing block Bi is a classification block. It allows a classification based on the features extracted by the extraction block Ai.
  • the convolutional neural network is fed by input data Ain, which correspond to one or more images.
  • the input data form an image, obtained by a concatenation of two images representing respectively the real part and the imaginary part of the variation in impedance AH measured at different measurement points, regularly distributed, facing the room, according to a matrix arrangement.
  • the feature extraction block Ai comprises J layers Ci...Cj...Cj downstream of the input data. J being an integer greater than or equal to 1.
  • Each layer Cj is obtained by applying a convolution filter to the images of a previous layer Cj-i.
  • the index j is the rank of each layer.
  • the layer Co corresponds to the input data Ai n .
  • the parameters of the convolution filters applied to each layer are determined during training.
  • the last layer Cj can include a number of terms exceeding several tens, or even several hundreds, or even several thousands. These terms correspond to features extracted from each image forming the input data.
  • the method may include dimension reduction operations, for example operations usually designated by the term “pooling”. This involves replacing the values of a group of pixels by a single value, for example the average, or the maximum value, or the minimum value of the group considered.
  • the last layer Cj is the subject of an operation usually designated by the term “Flatten” (flattening), so that the values of this layer form a vector.
  • the classification block Bi is an interconnected neural network, usually designated by the term “fully connected” or multilayer perceptron. It has a Bin input layer, and a Bout output layer.
  • the input layer Bin is formed by the characteristics of the vector resulting from the extraction block Ai. Between the Bin input layer and the Bout output layer, one or more hidden layers H can be provided. There is thus successively the input layer B in , each hidden layer H and the output layer B out .
  • Each layer can be assigned a rank k.
  • Each layer comprises nodes, the number of nodes of a layer being able to be different from the number of nodes of another layer.
  • the value of a node y nk of a layer of rank k is such that
  • WHERE is the value of a node of the previous layer k — 1, m representing an order of the node of the previous layer, m being an integer between 1 and Mu, Mu corresponding to the dimension of the previous layer, of rank k — 1; b m is a bias associated with each node y mk -i of the previous layer; f n is an activation function associated with the node of order n of the considered layer, n being an integer between 1 and Mk, Mk corresponding to the dimension of the layer of rank kw mn is a weighting term for the node of order m of the previous layer (rank k-1) and the node of order n of the layer considered (rank k).
  • each activation function f n is determined by a person skilled in the art. It may for example be an activation function f n of hyperbolic or sigmoid tangent type.
  • the output layer B or t comprises values making it possible to characterize a defect identified by the images of the input layer A in . It constitutes the result of the inversion carried out by the algorithm.
  • the output layer may have only one node, taking the value 0 or 1 depending on whether the analysis reveals the presence of a defect or not.
  • the output layer can comprise as many nodes as defect types considered, each node corresponding to a probability of presence of a type of defect among predetermined types (crack, hole, delamination, etc.). ).
  • the output layer can comprise as many nodes as dimensions of a defect, which supposes taking into account a geometric model of defect.
  • the output layer can include coordinates indicating the position, two-dimensional or three-dimensional, of a defect in the part.
  • the output layer can contain information about the inspected part, for example a spatial distribution of mechanical properties (for example Young's modulus), or electrical or magnetic or thermal (for example temperature) or geometric (for example at least one dimension of the part).
  • the dimension of the output layer corresponds to a number of points of the part in which the mechanical property is estimated on the basis of the input data.
  • the applications can be combined, so as to obtain both location and dimensioning, or location, identification and dimensioning.
  • the extraction block Ai can be established, for a measurement modality, using learning that is as exhaustive as possible, called first learning, taking into account a large database.
  • the classification block can be adapted to different specific cases, in which the measurement modality is implemented.
  • the invention makes it possible to parameterize different classification blocks Bi, B 2 , for different applications, while keeping the same extraction block Ai.
  • the extraction block Ai and a first classification block Bi are parameterized.
  • the first learning phase is implemented using a first DBi database, established according to a first configuration, by considering a first model part.
  • the method includes the use of a second database DB 2 , on the basis of which a second learning is carried out.
  • the second database is established according to a second configuration, different from the first configuration.
  • the first configuration is parameterized by different parameters Pi, i being an integer identifying each parameter.
  • These parameters may include in particular:
  • Pi constitution of the database: experimental data or simulated data, or simulated data with different levels of precision or fidelity
  • P2 shape of the model part considered
  • P4 measurement conditions, for example acquisition time, positioning of the sensor relative to the part, references of the sensor used or modeled, environmental parameters (temperature, humidity, possibly pressure), measurement noise, type of processing performed on the measurements to estimate a property of the part, whether it is an electrical, magnetic or mechanical property;
  • the first database DBi comprises different images, representative of measurements carried out or simulated on the first model part, by varying certain parameters Pj, called variable parameters, while other parameters P ⁇ j are fixed for all the images from the first database.
  • the first DBi database is formed by only varying the parameter P 8 , representing the dimensions of the defect considered, while the parameters Pi to P 7 are constant.
  • variable parameters correspond to the characteristics intended to be estimated by the neural network.
  • the first database DBi may comprise a first number of images Ni which may exceed several hundreds, or even several thousands.
  • the first neural network, formed by the combination of the blocks Ai and Bi is then supposed to present a satisfactory prediction performance.
  • An important element of the invention is to be able to use the first learning to perform the second learning, according to a different configuration.
  • different configuration it is understood that at least one of the fixed parameters of the first configuration is modified.
  • the following examples show different possibilities for modifying a parameter: Modification of the first parameter Pi: the second learning is carried out by considering experimental measurements, in-situ, whereas the first learning is carried out by considering simulated measurements or carried out under laboratory conditions (or any other combination of experimental measurements and simulation). According to one possibility, the level of precision of the first database DBi and of the second database DB 2 are different.
  • the first learning and the second learning are carried out based on simulated measurements with a respectively low and high level of precision:
  • the first database can be obtained by a first analytical model, fast but not very precise, while the second database can result from a semi-analytical, numerical or stochastic model, slower to implement but more precise.
  • the first database can be obtained with a sensor generating less precise measurements than the sensor used to constitute the second database.
  • the number of sensors used (or simulated) can be different during the constitution of each database.
  • Modification of the second parameter P 2 the second learning is carried out by considering a second model part, the shape of which is different from the first model part: the second model part can be rounded or curved while the first model part is flat.
  • the first learning can for example be performed on a model part whose geometry is simple, easily modeled, or easy to manufacture.
  • the second learning can then be carried out by considering a part whose geometry is more complex, and corresponds more to reality.
  • Modification of the third parameter P3 the second learning is carried out by considering a second model part whose material has a different composition from the first model part: it can for example be a different alloy, or a realistic alloy, exhibiting a certain variability compared to a theoretical alloy considered during the first learning. The same reasoning applies to a composite material.
  • Modification of the fourth parameter P 4 the measurement conditions taken into account in the second learning are different than during the first learning.
  • the position of the sensor relative to the model part is different, or the temperature or humidity to which the sensor is exposed is different.
  • the type of sensor may also be different.
  • the second learning can be carried out by taking into account a realistic response of the sensor, including for example taking into account the measurement noise.
  • the first database can be obtained by using a sensor (or a simulation) assigned a level of noise and/or uncertainty different from the sensor making it possible to obtain the second database.
  • Modification of the fifth parameter P 5 the second learning is carried out by considering a number and/or a type of fault different from that considered in the first learning
  • the first learning is carried out by fixing certain parameters. At least one of these parameters is modified during the second training, to constitute the second DB2 database.
  • An important aspect of the invention is that during the second learning, the extraction block Ai, resulting from the first learning, is retained. It is considered that the first learning is sufficiently exhaustive for the performance of the extraction block, in terms of extraction of characteristics of the images supplied as input, to be considered sufficient.
  • the extraction block can then be used during the second learning. In other words, the characteristics extracted by the block Ai constitute a good descriptor of the measurements forming the input layer.
  • the second learning is thus limited to an update of the parameterization of the classification block, so as to obtain a second classification block B2 adapted to the configuration of the second learning.
  • the second learning can then be implemented with a second DB2 database comprising less data than the first database.
  • the second classification block B2 can be initialized by taking into account the parameters governing the first classification block Bi.
  • the second classification block B2 may comprise the same number of hidden layers as the first classification block Bi. The latter can have the same number of nodes as the layers of the first classification block.
  • the dimension of the output layer depends on the characteristics of the defect to be estimated. Also, the dimension of the layer of output of the second classification block B2 may be different from that of the first classification block Bi.
  • the number of hidden layers and/or the dimension of the hidden layers of the second classification block is different from the number of hidden layers and/or the dimension of the hidden layers of the first classification block.
  • the advantage of the invention is that with a sufficiently complete first learning, the second learning can be established by considering a number of data significantly lower than the number of data used to carry out the first learning. By significantly lower number of data, we mean at least 10 times or even 100 times less data.
  • the second database DB2, formed to establish the second training, is smaller than the first database DBi.
  • the method allows an implementation of a first learning in laboratory conditions, on the basis of simulations or optimized experimental conditions.
  • This first learning is followed by a second learning closer to the reality of the field: taking into account experimental measurements, and/or more realistic measurement conditions, or a more complex shape or constitution of the part.
  • the invention makes it possible to limit the number of measurements necessary for the second learning, while making it possible to obtain a neural network exhibiting good prediction performance. This is an important advantage, since acquiring measurements under realistic conditions is usually more complex than obtaining measurements in the laboratory or simulated measurements.
  • the second learning can allow the taking into account of non-modelable specificities, for example measurement noise, or variations relative to the composition or to the shape of the part.
  • Another advantage of the invention is to be able to use a first learning, carried out on a part made of a certain material, to carry out a second “frugal” learning, on a similar part, of a different material.
  • the first learning can be perceived as a general learning, being suitable for different particular applications, or for different types or shapes of parts, or for different types of defects. It is essentially intended to have an extraction block Ai making it possible to extract relevant characteristics from the input data.
  • the second learning is more targeted learning, on a particular application, or on a particular type of part, or on a particular type of defect.
  • the invention facilitates obtaining the second training, because it requires significantly less input data than the first training.
  • the same first learning can be used to perform different second learnings, corresponding respectively to different configurations.
  • the first training can be performed on a first database that is relatively easy to obtain, compared to the second database. This makes it possible to provide a first more exhaustive database, taking into account for example a great variability in the dimensions and/or in the shape of the defect.
  • FIG. 2B The main steps of the invention are schematized in FIG. 2B.
  • Step 100 constitution of the first DBi database.
  • the first DBi database is formed according to a first configuration.
  • the first configuration is parameterized by first parameters, some of these first parameters being fixed.
  • the first database is formed of images representative of measurements obtained (performed or simulated) according to the first configuration.
  • Step 110 first learning.
  • the first database is used to parameterize the blocks Ai and Bi, so as to optimize the prediction performance of a first convolutional neural network CNNi.
  • Step 120 constitution of the second database DB 2 .
  • the second database DB 2 is formed according to a second configuration. As previously described, at least one parameter, considered fixed during the first configuration, is modified.
  • the size of the second database is preferably at least 10 times smaller than the size of the first database.
  • Step 130 second learning.
  • the second database DB 2 is used to train a second convolutional neural network CNN 2 formed by the first extraction block Ai, resulting from the first training, and a second block of classification B 2 , specific to the configuration adopted during the second learning.
  • the configuration relating to the second learning can correspond to conditions considered to be close to the measurement conditions.
  • the neural network convolutional CNN2 resulting from the second training is intended to be implemented to interpret measurements carried out on examined parts. This is the subject of the next step.
  • Step 200 performing measurements
  • Measurements are taken, on an examined part, according to the measurement configuration considered during the second learning.
  • Step 210 Interpretation of the measurements
  • the convolutional neural network CNN2 resulting from the second learning, is used to estimate the characteristics of a defect possibly present in the part examined, from the measurements carried out during step 200. These characteristics can be established from the output layer B or t of the CNN2 convolutional neural network. This network is therefore used to perform the step of inverting the measurements.
  • FIG. 3A represents a simple defect, of the T-crack type, having 7 position or dimension characteristics: characteristics X1, X2 and X4 are lengths or widths of two branches along a plane P X Y; the characteristics X5 and X6 are depths of the two branches perpendicular to the plane P X Y; the characteristic X3 is an angular characteristic; characteristics X7 and X8 are characteristics of position of the defect in the plan PXY-
  • Measurements carried out according to an eddy current modality were simulated, by describing a scan consisting of 41 ⁇ 46 measurement points at a distance of 0.3 mm above the part.
  • the part was a flat metal part.
  • the regular plot represented in FIG. 3A illustrates the movement of the sensor along the part, parallel to the plane P X Y.
  • the image formed in FIG. 3B is an image of the real part of the variation in impedance AH.
  • the variation in impedance corresponds to a difference, at each measurement point, between respectively simulated impedances in the presence and in the absence of a fault in the part.
  • a first learning was carried out on the basis of simulations. During the first training, 2000 images were used taking into account a very low noise level (signal to noise ratio of 40 dB). Each input image is a concatenation of an image of the real part and of an image of the imaginary part of the impedance variation AH measured at each measurement point. During this learning, the dimensions of the defect were varied, the shape remaining the same.
  • the first learning made it possible to parameterize a first convolutional neural network CNNi, comprising a first extraction block Ai and a first classification block Bi as previously described.
  • the input layer comprises two images, corresponding respectively to the real part and to the imaginary part of the variation in impedance AH at the different measurement points.
  • the extraction block Ai comprises four convolution layers Ci to C4 such that:
  • Ci is obtained by applying 32 convolution kernels of 5x5 dimensions to the two input images.
  • C2 is obtained by applying 32 convolution kernels of dimensions 3x3 to the layer Ci.
  • C3 is obtained by applying 64 convolution kernels of dimensions 3 ⁇ 3 to the layer C 2 .
  • a Maxpooling operation (grouping according to a maximum criterion) by groups of 2x2 pixels is performed between layers C2 and C3 as well as between layer C3 and layer C4, the latter being converted into a vector of dimension 1024.
  • the dimension vector 1024 from the extraction block Ai constitutes the input layer Bin of a fully connected classification block Bi comprising a single hidden layer H (512 nodes), connected to an output layer Bout.
  • the latter is a vector of dimension 8, each term corresponding respectively to an estimate of dimensions XI to X8.
  • the first CNNi convolutional neural network was tested to estimate the 8 dimensional parameters X1 to X8 shown in Figure 3A.
  • simulated test images were used, representative of experimental measurements with three levels of signal to noise ratio (SNR), respectively 5dB (low signal to noise ratio), 20 dB (medium signal to noise ratio), and 40 dB (high signal-to-noise ratio).
  • SNR signal to noise ratio
  • 5dB low signal to noise ratio
  • 20 dB medium signal to noise ratio
  • 40 dB high signal-to-noise ratio
  • the signal-to-noise ratio was simulated by adding Gaussian white noise to the matrices (or images) forming the input layer of the neural network.
  • Figure 3C shows the XI dimension prediction performance using test images whose signal-to-noise ratio is 5 dB (left), 20 dB (center), 40 dB (right), respectively.
  • the abscissa axis corresponds to the true values
  • the ordinate axis corresponds to the values estimated by the neural network CNNi. It is observed that the prediction performances are not satisfactory when the signal-to-noise ratio does not correspond to that which was considered during learning. On the other hand, the estimation performance is satisfactory when the signal-to-noise ratio corresponds to that considered during learning.
  • indicators relating to the prediction performance have been indicated: MAE (Mean Absolute Error - Mean Absolute Error), MSE (Mean Squared Error - Mean Squared Error) and R2 (coefficient of determination).
  • the inventors trained a second CNN2 neural network, using, in a second database, 20 simulated images taking into account a signal-to-noise ratio of 40 dB and 20 simulated images taking into account a signal-to-noise ratio of 5 dB, a total of 40 frames.
  • the second neural network CNN2 was parameterized by keeping the extraction block Ai of the first neural network CNNi. Only the B2 classification block of the second neural network was parameterized, keeping the same number of layers and the same number of nodes per layer of the first CNNi neural network.
  • FIG. 3D shows the estimation performance of the second neural network, relative to the estimation of the first dimension XI.
  • Figure 3D is presented identically to Figure 3C: test images whose signal-to-noise ratio is 5 dB (left), 20 dB (center) and 40 dB (right). The estimation performances are correct whatever the signal-to-noise ratio considered.
  • This first example demonstrates the relevance of the invention: it allows rapid adaptation of a neural network when passing from a first configuration to a second configuration by modifying a parameter kept fixed during the first configuration, by occurrence the signal-to-noise ratio.
  • the second neural network was parameterized using a database of 40 images, ie 50 times less than the database used during training of the first neural network.
  • Example 2 During a second example, the inventors went from a first learning configuration, taking into account a defect of a first predetermined shape, to a second learning configuration, based on a second shape, different from the first form.
  • the second fault is shown in Figures 4A and 4B.
  • the second complex defect is of the crack type forming three Ts presenting 23 position or dimension characteristics: the characteristics X1, X2, X3, X4, X5, X6 are lengths of branches along a plane PXY; the characteristics X7, X8, X9 and X10 are angles in the PXY plane;
  • characteristics Xll, X12, X13, X14, X15, X16, X17, X18, X19 and X20 are position characteristics; the characteristics X21, X22, X23, not represented in FIG. 4B, are the thicknesses of each T perpendicular to the plane PXY-
  • the inventors have parameterized a reference neural network CNN re f, by constituting a reference database DB re f.
  • the DB reference database re f comprised 2000 images, each image being obtained by a concatenation of images of the real part and the imaginary part of the impedance variation, obtained by simulation of measurements, according to 89x69 measurement points regularly distributed according to a matrix mesh.
  • the trajectory of the sensor has been shown in FIG. 4A.
  • the reference neural network CNN ref was a convolutional neural network, of a structure analogous to the neural networks CNNi and CNN2 described in connection with the first example. The only differences are: the dimension of the input layer, the latter comprising two images of dimension 89 ⁇ 69, corresponding respectively to the real part and to the imaginary part of the impedance variation AH; the dimension of the output layer, comprising 23 nodes, each node corresponding to an estimate of a dimension X1 to X23.
  • Curve (a) in Figure 4C shows the estimation performance (coefficient of determination) of the 23 dimensions using the reference neural network.
  • the determination coefficients relating to each dimension were calculated on the basis of an application of the reference neural network to 400 different defects.
  • the estimation performance is very good, which is not surprising since the reference neural network is a network specifically designed for this form of fault.
  • the inventors compared the performance of the reference neural network with: on the one hand an auxiliary neural network derived from a reduced database DB aux , established in the same way as the reference database DB re f, but comprising only 50 images, corresponding to 50 sets of different dimensions, on the other hand a neural network formed according to the invention.
  • the reduced DB aU x database was formed based on 50 different X1...X23 feature sets.
  • the auxiliary neural network was parameterized based on this reduced database.
  • the structure of the auxiliary neural network was identical to that of the reference neural network CNN ref .
  • the classification performances are plotted in FIG. 4C (curve b). Unsurprisingly, the classification performance is poor, which is due to the “under-training” of the auxiliary neural network.
  • the determination coefficients relating to each dimension were calculated on the basis of an application of the auxiliary neural network and of the neural network according to the invention to 400 different defects.
  • a first CNNi neural network was configured, using a first DBi database comprising 2000 images resulting from simulations as described in connection with the first example, on a "simple" defect, as shown in Fig. 3A.
  • the dimension of each image was 89x69.
  • the input layer was formed of two images, respectively representing the real and imaginary parts of the impedance variation AH measured at 89 ⁇ 69 measurement points. As in example 1, the measurement points are regularly distributed according to a matrix mesh.
  • the dimensions XI to X8 of the single defect were varied.
  • auxiliary database DB aux specific to the complex defect
  • a second database DB 2 to parameterize a second neural network CNN 2 , the latter using the extraction block Ai of the first neural network CNNi neurons.
  • the parameterization of the second neural network is then reduced to a parameterization of the classification block B 2 of the second neural network CNN 2 .
  • the latter corresponds to a neural network according to the invention.
  • the classification block B 2 of the convolutional neural network CNN 2 was parameterized by modifying parameters, considered to be fixed during the constitution of the extraction block Ai of the first convolutional neural network CNNi. In this case, it is the shape of the defect.
  • the extraction block Ai of the first convolutional neural network CNNi is parameterized by taking into account a simple form of defect (defect in T represented on the FIG. 3A), while the classification block B2 of the second convolutional neural network CNN2 is parameterized taking into account a different shape (complex defect comprising three Ts represented in FIG. 4B).
  • the second neural network CNN 2 is a neural network according to the invention.
  • the inventors implemented the second neural network on test images.
  • the estimation performance of the CNN neural network 2 is represented in FIG. 4C, curve (c). It can be observed that despite a learning performed with the same database as the auxiliary network, which is a frugal database, the classification performances are superior to those of the auxiliary neural network. This confirms the advantage of the invention.
  • the input data of the neural networks were formed of matrices resulting from simulations of measurements carried out according to the eddy current modality.
  • the invention can be applied to other methods usually practiced in the field of non-destructive testing, provided that the input data is presented in matrix form, comparable to an image. More specifically, the other possible methods are: ultrasonic testing, in which an acoustic wave propagates through an examined part. This concerns ultrasound-type measurements, in which the measurements are generally representative of the reflection, by a defect, of an incident ultrasonic wave. This also concerns the propagation of guided ultrasonic waves.
  • the physical quantities addressed are the properties of propagation of ultrasonic waves in the material, the presence of a defect resulting in a variation of the properties of propagation with respect to a part in the absence of a defect. It is possible to obtain representative images of the propagation of an ultrasonic wave along or through a part.
  • Inspections by X or gamma rays according to which the examined part is subjected to irradiation by ionizing electromagnetic radiation.
  • the presence of a defect results in a modification of the transmission properties of the irradiation radiation.
  • the measurements make it possible to obtain images representative of the transmission of the irradiation radiation through the part examined.
  • Thermography inspections according to which the examined part is subjected to illumination by electromagnetic radiation in the infra- Red.
  • the presence of a defect results in a modification of the reflection properties of the illuminating radiation.
  • the measurements make it possible to obtain images representative of the reflection of the illumination radiation by the part examined.
  • transducers are arranged on the part, each transducer being configured to emit or detect a bending wave propagating through the plate.
  • the wave propagation parameters depend on the elastic properties of the part, and in particular on the density and the Young's modulus. These depend on the room temperature.
  • the propagation parameters of the bending wave make it possible to estimate the temperature of the part.
  • different piezoelectric transducers are available punctually around a part of the part, several emitter/detector pairs can be defined. It is then possible to estimate a spatial distribution of the temperature in the part of the room delimited by the transducers, according to reconstruction algorithms known to those skilled in the art.
  • the defect may be an anomaly in the spatial distribution of the temperature with respect to a reference spatial distribution.
  • a first extraction block Ai is implemented coupled with a reconstruction block B′i.
  • the reconstruction block B′i is a block for processing the data extracted by the first extraction block Ai.
  • This variant implements a first neural network CNN'i, of the auto-encoder type. As represented in FIG. 5, the first neural network comprises the extraction block Ai and the reconstruction block B′i.
  • a neural network of the auto-encoder type is a structure comprising an extraction block Ai, called encoder, making it possible to extract relevant information from an input datum Ain , defined in a starting space.
  • the input datum is thus projected into a space, called latent space.
  • the information extracted by the extraction block is called code.
  • the auto-encoder comprises a reconstruction block B′i, allowing reconstruction of the code, so as to obtain an output datum A out , defined in a space generally identical to the starting space.
  • the learning is carried out in such a way as to minimize an error between the input datum A in and the output data A or t.
  • the code, extracted by the extraction block is considered to be representative of the main characteristics of the input data.
  • the extraction block Ai allows compression of the information contained in the input datum A in .
  • the first neural network can in particular be of the convolutional auto-encoder type: each layer of the extraction block Ai results from the application of a convolution kernel to a preceding layer.
  • the convolution layers Ci...Cj...Cj have been represented, the layer Cj being the last layer of the extraction block Ai, comprising the code.
  • the layers Di...Dj...Dj of the processing block B'i have also been shown, the layer Dj corresponding to the output datum A or t.
  • the reconstruction block B′i does not aim to determine the characteristics of a defect.
  • the reconstruction block allows a reconstruction of the output datum A or t, on the basis of the code (layer Cj), the reconstruction being as faithful as possible to the input datum Ai n .
  • the classification block Bi and the reconstruction block B'i are used for the same purpose: to allow parameterization of the first extraction block Ai, the latter being able to be used during the second learning, to parameterize the second classification block B 2 .
  • the method follows steps 100 to 210 previously described in connection with FIG. 2B.
  • the first learning (step 110) consists in setting the extraction block Ai. It can be performed on the basis of at least a first database.
  • the use of an auto-encoder makes it possible to combine different first databases. Some databases are representative of healthy parts, without defects, while other databases are representative of parts with a defect. For example, it is possible to combine: databases bringing together measurements taken on a healthy part, at different temperatures, in order to learn the effect of a temperature variation on the measurements; databases gathering measurements taken on a part with a defect, at a constant temperature, in order to learn the effect of the presence of a defect on the measurements.
  • steps 120 to 210 are performed as previously described. This involves carrying out a second learning, on the basis of the second database, so as to parameterize a classification block B2, by using the extraction block Ai resulting from the first learning.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrochemistry (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Investigating Or Analyzing Materials By The Use Of Magnetic Means (AREA)
  • Image Analysis (AREA)

Abstract

A method for characterizing a part (10), comprising: a) performing measurements using a sensor (11), the sensor being arranged on the part or facing the part; b) forming at least one measurement matrix (M) using the measurements taken in step a); c) using the matrix as input datum for a convolutional neural network (CNN2), comprising: - an extraction block (A1), configured so as to extract features from each input datum; - a classification block (B2), configured so as to classify the extracted features, the classification block leading onto at least one node; d) detecting the presence of a defect in the part on the basis of each node. The neural network implemented in step c) is established taking into account the extraction block of another previously parameterized neural network.

Description

Description Description
Titre : Procédé de caractérisation d'une pièce par contrôle non destructif Title: Process for characterizing a part by non-destructive testing
DOMAINE TECHNIQUE TECHNICAL AREA
Le domaine technique de l'invention est l'interprétation de mesures par contrôle non destructif réalisées sur une pièce mécanique ou une partie d'une structure. The technical field of the invention is the interpretation of measurements by non-destructive testing carried out on a mechanical part or part of a structure.
ART ANTERIEUR PRIOR ART
Le CND, signifiant Contrôle Non destructif consiste à effectuer une surveillance de pièces ou de structures mécaniques, à l'aide de capteurs, de façon non destructive. L'objectif est d'effectuer un contrôle et/ou détecter et suivre l'apparition de défauts structurels. Il s'agit de suivre l'intégrité d'une pièce contrôlée, de façon à prévenir la survenue d'accidents, ou de prolonger la durée d'utilisation de la pièce dans de bonnes conditions de sécurité. NDT, meaning Non-destructive Testing, consists of monitoring parts or mechanical structures, using sensors, in a non-destructive way. The objective is to carry out a check and/or detect and monitor the appearance of structural defects. This involves monitoring the integrity of a controlled part, so as to prevent the occurrence of accidents, or to extend the period of use of the part under good safety conditions.
Le CND est couramment mis en œuvre dans des équipements sensibles, de façon à optimiser le remplacement ou la maintenance. Les applications sont nombreuses dans le contrôle d'équipements industriels, par exemple dans l'exploitation pétrolière, dans le nucléaire, ou dans les transports, par exemple dans l'aéronautique. NDT is commonly implemented in sensitive equipment, so as to optimize replacement or maintenance. The applications are numerous in the control of industrial equipment, for example in oil exploitation, in the nuclear industry, or in transport, for example in aeronautics.
Les capteurs utilisés dans le CND sont des capteurs non destructifs, n'induisant pas de dommage sur les pièces contrôlées. Les pièces contrôlées peuvent être des éléments structurels d'équipements industriels ou d'aéronefs, ou des ouvrages de génie civil, par exemple des ponts ou des barrages. Les méthodes mises en œuvre sont variées. Elles peuvent par exemple mettre en œuvre des rayons X, ou des ondes ultrasonores ou la détection par courants de Foucault.The sensors used in the NDT are non-destructive sensors, causing no damage to the parts checked. The controlled parts can be structural elements of industrial equipment or aircraft, or civil engineering works, for example bridges or dams. The methods used are varied. They can for example implement X-rays, or ultrasonic waves or detection by eddy currents.
Lors de leur mise en œuvre, les capteurs sont reliés à des moyens informatiques, de façon à pouvoir interpréter les mesures effectuées. La présence d'un défaut, dans une pièce, entraîne une signature du défaut, mesurable par un capteur. Les moyens informatiques effectuent une inversion. Il s'agit, à partir des mesures, d'obtenir des données quantitatives relatives au défaut, par exemple sa position, ou sa forme, ou ses dimensions. During their implementation, the sensors are connected to computer means, so as to be able to interpret the measurements made. The presence of a defect, in a part, leads to a signature of the defect, measurable by a sensor. The computer means perform an inversion. This involves, from the measurements, obtaining quantitative data relating to the defect, for example its position, or its shape, or its dimensions.
L'inversion peut être réalisée en prenant en compte des modèles analytiques directs, par exemple des modèles polynomiaux, permettant d'établir une relation entre des caractéristiques d'un défaut et des mesures résultant d'un capteur. L'inversion du modèle permet une estimation desdites caractéristiques à partir de mesures réalisées. Selon une autre approche, les caractéristiques des défauts peuvent être estimées en mettant en œuvre des algorithmes d'intelligence artificielle supervisée, par exemple des réseaux de neurones. Cependant, une difficulté liée à l'utilisation de réseaux de neurones est le recours à une phase d'apprentissage aussi complète que possible, de façon à optimiser les performances de l'estimation. Cela prend du temps et nécessite un nombre important de données. Les inventeurs proposent un procédé adressant cette question. L'objectif est de faciliter l'apprentissage d'un réseau de neurones destiné à effectuer une inversion, tout en conservant une bonne performance dans l'estimation des caractéristiques du défaut. The inversion can be performed by taking into account direct analytical models, for example polynomial models, making it possible to establish a relationship between the characteristics of a defect and measurements resulting from a sensor. The inversion of the model allows an estimation of said characteristics from measurements taken. According to another approach, the characteristics of the defects can be estimated by implementing supervised artificial intelligence algorithms, for example neural networks. However, a difficulty linked to the use of neural networks is the use of a learning phase that is as complete as possible, so as to optimize the performance of the estimation. It takes time and requires a lot of data. The inventors propose a method addressing this question. The objective is to facilitate the learning of a neural network intended to perform an inversion, while maintaining good performance in estimating the characteristics of the defect.
EXPOSE DE L'INVENTION DISCLOSURE OF THE INVENTION
Un premier objet de l'invention est un procédé de caractérisation d'une pièce, la pièce étant susceptible de comporter un défaut, le procédé comportant les étapes suivantes : a) réalisation de mesures non destructives à l'aide d'un capteur, le capteur étant disposé sur la pièce ou face à la pièce ; b) formation d'au moins une matrice de mesures à l'aide des mesures effectuées lors de l'étape a); c) utilisation de la matrice en tant que donnée d'entrée d'un réseau de neurones convolutif, le réseau de neurones convolutif comportant : A first object of the invention is a method for characterizing a part, the part being likely to comprise a defect, the method comprising the following steps: a) carrying out non-destructive measurements using a sensor, the sensor being placed on the part or facing the part; b) formation of at least one measurement matrix using the measurements carried out during step a); c) use of the matrix as input data for a convolutional neural network, the convolutional neural network comprising:
- un bloc d'extraction, configuré pour extraire des caractéristiques de chaque donnée d'entrée ; - an extraction block, configured to extract characteristics from each input data;
- un bloc de classification, configuré pour effectuer une classification des caractéristiques extraites par le bloc d'extraction, le bloc de classification débouchant sur une couche de sortie comportant au moins un nœud ; d) en fonction de la valeur de chaque nœud de la couche de sortie, détection de la présence d'un défaut dans la pièce, et caractérisation éventuelle du défaut détecté ; le procédé comportant, préalablement aux étapes c) et d) : - a classification block, configured to carry out a classification of the characteristics extracted by the extraction block, the classification block leading to an output layer comprising at least one node; d) depending on the value of each node of the output layer, detection of the presence of a defect in the part, and possible characterization of the detected defect; the method comprising, prior to steps c) and d):
- constitution d'une première base de données, la première base de données comportant des mesures effectuées ou simulées, sur une première pièce modèle, selon une première configuration, la première configuration étant paramétrée par des paramètres, la première base de donnée étant formée en considérant au moins un paramètre variable et au moins un paramètre fixe ; - constitution of a first database, the first database comprising measurements carried out or simulated, on a first model part, according to a first configuration, the first configuration being parameterized by parameters, the first database being formed by considering at least one variable parameter and at least one fixed parameter;
- prise en compte d'un premier réseau de neurones, comportant un bloc d'extraction et un bloc de traitement, le bloc de traitement étant configuré pour traiter des caractéristiques extraites par le bloc d'extraction, le premier réseau de neurones ayant fait d'objet d'un premier apprentissage, en utilisant la première base de données; le procédé étant caractérisé en ce qu'il comporte également : - taking into account a first neural network, comprising an extraction block and a processing block, the processing block being configured to process characteristics extracted by the extraction block, the first neural network being first trained, using the first database; the method being characterized in that it also comprises:
- une constitution d'une deuxième base de données, comportant des mesures effectuées ou simulées sur une deuxième pièce modèle, représentative de la pièce caractérisée, selon une deuxième configuration, la deuxième configuration étant paramétrée en modifiant au moins un paramètre fixe de la première configuration ; - a constitution of a second database, comprising measurements carried out or simulated on a second model part, representative of the characterized part, according to a second configuration, the second configuration being parameterized by modifying at least one fixed parameter of the first configuration ;
- un deuxième apprentissage, en utilisant la deuxième base de données, de façon à paramétrer un deuxième réseau de neurones convolutif, le deuxième réseau de neurones convolutif comportant le bloc d'extraction du premier réseau de neurones, et un bloc de classification, ce dernier étant paramétré lors du deuxième apprentissage ; - a second learning, using the second database, so as to parameterize a second convolutional neural network, the second convolutional neural network comprising the extraction block of the first neural network, and a classification block, the latter being configured during the second learning;
- de telle sorte que lors de l'étape c), le réseau de neurones utilisé est le deuxième réseau de neurones convolutif, résultant du deuxième apprentissage. - such that during step c), the neural network used is the second convolutional neural network, resulting from the second learning.
Par mesure, il est entendu une mesure d'une grandeur physique susceptible de varier en présence d'un défaut dans la pièce. Il peut s'agir d'une grandeur acoustique, électrique, électrostatique, magnétique, électromagnétique (par exemple une intensité d'un rayonnement), ou mécanique. By measurement is meant a measurement of a physical quantity liable to vary in the presence of a defect in the part. It can be an acoustic, electric, electrostatic, magnetic, electromagnetic (for example an intensity of a radiation), or mechanical quantity.
La deuxième configuration peut notamment prendre en compte : The second configuration can notably take into account:
- une deuxième pièce modèle différente de la première pièce modèle ; - a second model part different from the first model part;
- et/ou des mesures expérimentales tandis que la première configuration prend en compte des mesures simulées, ou réciproquement ; - And/or experimental measurements while the first configuration takes simulated measurements into account, or vice versa;
- et/ou une forme du défaut différente de la forme du défaut considérée sur la première pièce modèle ; - and/or a shape of the defect different from the shape of the defect considered on the first model part;
- et/ou des conditions de mesure différentes par rapport aux conditions de mesure prises en compte dans la première configuration (par exemple type de capteur, température, humidité, bruit de mesure) ; - and/or different measurement conditions with respect to the measurement conditions taken into account in the first configuration (for example type of sensor, temperature, humidity, measurement noise);
- et/ou un type de défaut différent du type de défaut pris en compte lors de la première configuration. - and/or a type of fault different from the type of fault taken into account during the first configuration.
La première base de données peut comporter des mesures effectuées ou simulées sur une pièce modèle comportant le défaut. The first database may comprise measurements performed or simulated on a model part comprising the defect.
Selon un mode de réalisation, le bloc de traitement du premier réseau de neurones est un bloc de classification, configuré, lors du premier apprentissage, pour effectuer une classification des caractéristiques extraites par le bloc d'extraction, le premier réseau de neurones étant un réseau de neurones convolutif. Lors du deuxième apprentissage, le bloc de classification du deuxième réseau de neurones peut être initialisé en utilisant le bloc de classification du premier réseau de neurones. According to one embodiment, the processing block of the first neural network is a classification block, configured, during the first learning, to carry out a classification of the characteristics extracted by the extraction block, the first neural network being a convolutional neural network. During the second training, the classification block of the second neural network can be initialized by using the classification block of the first neural network.
Selon un mode de réalisation, le premier réseau de neurones est de type auto-encodeur. Ledit bloc de traitement du premier réseau de neurones peut être configuré, lors du premier apprentissage, pour reconstruire des données, issues de la première base de données, et formant des données d'entrée du premier réseau de neurones. According to one embodiment, the first neural network is of the auto-encoder type. Said processing block of the first neural network can be configured, during the first learning, to reconstruct data, coming from the first database, and forming input data of the first neural network.
Le défaut peut être de type : délaminage, et/ou fissure, et/ou perforation et/ou fissure se propageant à partir d'une perforation et/ou présence d'une zone poreuse et/ou une présence d'une inclusion et/ou présence de corrosion. The defect may be of the type: delamination, and/or crack, and/or perforation and/or crack propagating from a perforation and/or presence of a porous zone and/or presence of an inclusion and/or or presence of corrosion.
La pièce peut être constituée d'un matériau composite, composant des composants assemblés les uns aux autres. Le défaut peut alors être un défaut d'assemblage entre les composants.The part can be made of a composite material, comprising components assembled together. The defect can then be an assembly defect between the components.
Les mesures peuvent être représentatives d'une distribution spatiale : The measurements can be representative of a spatial distribution:
- de propriétés électriques ou magnétiques ou mécaniques de la pièce ; - electrical, magnetic or mechanical properties of the part;
- et/ou de dimensions de la pièce ; - and/or dimensions of the room;
- et/ou de propriétés de propagation d'une onde acoustique ou mécanique ou électromagnétique à travers ou le long de la pièce ; - and/or propagation properties of an acoustic, mechanical or electromagnetic wave through or along the part;
- et/ou de propriétés de réflexion d'une onde acoustique ou mécanique ou d'une onde électromagnétique, notamment visible ou infra-rouge, par la pièce ; - and/or properties of reflection of an acoustic or mechanical wave or of an electromagnetic wave, in particular visible or infrared, by the part;
- et/ou de propriétés de transmission d'une onde électromagnétique X ou gamma par la pièce ; - and/or transmission properties of an X or gamma electromagnetic wave by the part;
- et/ou d'une température de la pièce. - and/or a room temperature.
Le défaut peut être une variation de la distribution spatiale par rapport à une distribution spatiale de référence. La distribution spatiale de référence peut avoir été préalablement modélisée ou établie expérimentalement. The defect may be a variation of the spatial distribution with respect to a reference spatial distribution. The reference spatial distribution may have been previously modeled or established experimentally.
Les mesures peuvent être de type : The measures can be of the type:
- mesure de courants de Foucault formés dans la pièce sous l'effet d'une excitation de la pièce par un champ magnétique ; - measurement of eddy currents formed in the part under the effect of excitation of the part by a magnetic field;
- et/ou mesure d'une propagation d'ondes acoustiques ou mécanique se propageant à travers ou le long de la pièce ; - and/or measurement of propagation of acoustic or mechanical waves propagating through or along the part;
- et/ou mesure de la réflexion d'une lumière infra-rouge ou visible lorsque la pièce est illuminée par une lumière infra-rouge ou visible; - et/ou mesure de la transmission d'un rayonnement X ou gamma à travers la pièce lorsque ladite pièce est irradiée par une source de rayonnement X ou gamma. - and/or measurement of the reflection of infrared or visible light when the part is illuminated by infrared or visible light; and/or measurement of the transmission of X or gamma radiation through the part when said part is irradiated by a source of X or gamma radiation.
Le procédé peut être tel que : The process can be such as:
- la première base de données constituée à partir de mesures simulées ; - the first database constituted from simulated measurements;
- et la deuxième base de données est formée à partir de mesures effectuées expérimentalement; ou - and the second database is formed from measurements carried out experimentally; Where
- la première base de données est constituée à partir de mesures effectuées expérimentalement ; - the first database is made up from measurements carried out experimentally;
- et la deuxième base de donnée est formée à partir de mesures simulées ; ou - and the second database is formed from simulated measurements; Where
- la première base de données et la deuxième base de données sont constituées à partir de mesures simulées ; ou - the first database and the second database are formed from simulated measurements; Where
- la première base de données et la deuxième base de données sont constituées à partir de mesures expérimentales. - the first database and the second database are formed from experimental measurements.
La première configuration et la deuxième configuration peuvent être paramétrées par au moins un des paramètres choisis parmi : The first configuration and the second configuration can be parameterized by at least one of the parameters chosen from:
- type de mesure : expérimentale ou simulée ; - type of measurement: experimental or simulated;
- forme de la pièce modèle ; - shape of the model part;
- matériau formant la pièce modèle ; - material forming the model part;
- conditions de mesure ; - measurement conditions;
- type de défaut considéré ; - type of defect considered;
- localisation du défaut dans la pièce modèle ; - location of the defect in the model part;
- forme du défaut dans la pièce modèle ; - shape of the defect in the model part;
- au moins une dimension du défaut de la pièce modèle. - at least one dimension of the defect of the model part.
Les conditions de mesure peuvent comprendre au moins : The measurement conditions may include at least:
- positionnement du capteur par rapport à la pièce modèle et/ou nombre de capteurs ;- positioning of the sensor relative to the model part and/or number of sensors;
- température et/ou humidité et/ou conditions environnementales à laquelle est mis en œuvre le capteur ; - temperature and/or humidity and/or environmental conditions at which the sensor is implemented;
- état de surface de la pièce inspectée ; - surface condition of the part inspected;
- niveau de bruit de mesure ; - measurement noise level;
- type de capteur utilisé ; - incertitudes associées aux mesures. - type of sensor used; - uncertainties associated with the measurements.
La première pièce modèle et la deuxième pièce modèle peuvent être identiques. The first model part and the second model part may be identical.
Selon une possibilité : According to one possibility:
- la deuxième pièce modèle a une forme différente de la première pièce modèle ; - the second model part has a different shape from the first model part;
- et/ou la deuxième pièce modèle est formée d'un matériau différent de la première pièce modèle. - And/or the second model part is made of a different material from the first model part.
La deuxième base de données peut comporter un nombre de données inférieur au nombre de données de la première base de données. The second database can comprise a number of data lower than the number of data of the first database.
La caractérisation du défaut peut comporter : The characterization of the fault may include:
- une identification du type de défaut, parmi des types prédéterminés ; - an identification of the type of fault, among predetermined types;
- et/ou une estimation d'au moins une dimension du défaut ; - and/or an estimate of at least one dimension of the defect;
- et/ou une localisation du défaut dans la pièce. - and/or location of the fault in the part.
- et/ou une détermination d'un nombre de défauts dans la pièce. - and/or a determination of a number of defects in the part.
L'invention sera mieux comprise à la lecture de l'exposé des exemples de réalisation présentés, dans la suite de la description, en lien avec les figures listées ci-dessous. The invention will be better understood on reading the description of the embodiments presented, in the remainder of the description, in connection with the figures listed below.
FIGURES FIGURES
Les figures IA et IB schématisent la mise en œuvre de mesures par courants de Foucault sur une pièce conductrice. Figures IA and IB schematize the implementation of eddy current measurements on a conductive part.
La figure 2A représente la structure d'un réseau de neurones convolutif. Figure 2A shows the structure of a convolutional neural network.
La figure 2B montre les principales étapes d'un procédé selon l'invention. FIG. 2B shows the main steps of a method according to the invention.
La figure 3A montre un défaut considéré lors d'un premier exemple. FIG. 3A shows a defect considered during a first example.
La figure 3B est un exemple d'image résultant de mesures simulées sur le défaut représenté sur la figure 3A. FIG. 3B is an example of an image resulting from simulated measurements on the defect shown in FIG. 3A.
La figure 3C présente des performances de classification d'un réseau de neurones, en considérant respectivement des mesures dont le rapport signal à bruit est respectivement de 5 dB (gauche), 20 dB (centre), et 40 dB (droite). FIG. 3C presents classification performances of a neural network, considering respectively measurements whose signal-to-noise ratio is respectively 5 dB (left), 20 dB (center), and 40 dB (right).
La figure 3D présente des performances de classification d'un réseau de neurones selon l'invention, en considérant respectivement des mesures dont le rapport signal à bruit est respectivement de 5 dB (gauche), 20 dB (centre), et 40 dB (droite). Figure 3D shows classification performance of a neural network according to the invention, considering respectively measurements whose signal-to-noise ratio is respectively 5 dB (left), 20 dB (center), and 40 dB (right ).
Les figures 4A et 4B montrent un défaut considéré lors d'un deuxième exemple. FIGS. 4A and 4B show a defect considered during a second example.
La figure 4C présente des performances de classification comparées : Figure 4C presents comparative classification performance:
- d'un réseau de neurones de référence (courbe a) ; - a reference neural network (curve a);
- d'un réseau de neurones auxiliaire (courbe b) ; - d'un réseau de neurones selon l'invention (courbe c). - an auxiliary neural network (curve b); - of a neural network according to the invention (curve c).
La figure 5 schématise une variante de l'invention. FIG. 5 schematizes a variant of the invention.
EXPOSE DE MODES DE REALISATION PARTICULIERS DESCRIPTION OF PARTICULAR EMBODIMENTS
Les figures IA et IB schématisent un exemple d'application de l'invention. Un capteur 1 est disposé face à une pièce à contrôler 10, de façon à caractériser la pièce. Il peut notamment s'agir d'une caractérisation thermique ou mécanique. Par caractérisation thermique ou mécanique, on entend une caractérisation de propriétés thermiques ou mécaniques de la pièce : température, déformation, structure. Figures IA and IB schematize an example of application of the invention. A sensor 1 is arranged facing a part to be inspected 10, so as to characterize the part. It may in particular be a thermal or mechanical characterization. By thermal or mechanical characterization, we mean a characterization of the thermal or mechanical properties of the part: temperature, deformation, structure.
La pièce à caractériser peut être une pièce monolithique, ou une pièce plus complexe résultant d'un assemblage de plusieurs pièces élémentaires, par exemple une voilure d'une aile d'avion ou une peau d'un fuselage. The part to be characterized can be a monolithic part, or a more complex part resulting from an assembly of several elementary parts, for example an airfoil of an airplane wing or a skin of a fuselage.
La caractérisation peut consister à détecter une présence éventuelle d'un défaut structurel 11. Dans cet exemple, le capteur 1 est configuré pour effectuer des mesures de courants de Foucault générés dans la pièce à contrôler 10. Cette dernière est un pièce conductrice d'électricité. Le principe des mesures non destructives par courants de Foucault est connu. Sous l'effet d'une excitation par un champ magnétique 12, des courants de Foucault 13 sont induits dans la pièceThe characterization may consist in detecting the possible presence of a structural defect 11. In this example, the sensor 1 is configured to take measurements of eddy currents generated in the part to be checked 10. The latter is an electrically conductive part. . The principle of non-destructive measurements by eddy currents is known. Under the effect of excitation by a magnetic field 12, eddy currents 13 are induced in the part
10. Dans l'exemple représenté, le capteur 1 est une bobine, alimentée par un courant modulé en amplitude. Elle génère un champ magnétique 12, dont des lignes de champ sont représentées sur la figure IA. Des courants de Foucault 13 sont induits, formant des boucles de courant sur la pièce 10. Les courants de Foucault 13 engendrent un champ magnétique de réaction 14, ce dernier agissant sur l'impédance de la bobine 1. Ainsi, la mesure de l'impédance de la bobine 1 est représentative des courants de Foucault 13 formés dans la pièce 10. En présence d'un défaut10. In the example shown, sensor 1 is a coil, powered by an amplitude modulated current. It generates a magnetic field 12, the field lines of which are shown in Figure IA. Eddy currents 13 are induced, forming current loops on the part 10. The eddy currents 13 generate a reaction magnetic field 14, the latter acting on the impedance of the coil 1. Thus, the measurement of the impedance of coil 1 is representative of the eddy currents 13 formed in part 10. In the presence of a fault
11, comme schématisé sur la figure IB, les courants de Foucault 13 sont modifiés, ce qui se traduit par une variation d'impédance de la bobine. Ainsi, la mesure de l'impédance de la bobine constitue une signature du défaut. 11, as shown diagrammatically in FIG. 1B, the eddy currents 13 are modified, which results in a variation in the impedance of the coil. Thus, the measurement of the impedance of the coil constitutes a signature of the fault.
Dans cet exemple le capteur 1 joue le rôle d'excitation de la pièce 10, ainsi que de capteur de la réaction de la pièce en réponse à l'excitation. Généralement, le capteur est déplacé le long de la pièce, parallèlement à cette dernière. Dans l'exemple représenté, la pièce s'étend selon un axe X et un axe Y. Le capteur peut être déplacé parallèlement à chaque axe, ce qui est matérialisé par les doubles flèches. De façon alternative, on peut mettre en œuvre une matrice de capteurs.In this example, sensor 1 acts as part 10 excitation, as well as part reaction sensor in response to excitation. Typically, the sensor is moved along the part, parallel to it. In the example shown, the part extends along an X axis and a Y axis. The sensor can be moved parallel to each axis, which is materialized by the double arrows. Alternatively, a matrix of sensors can be implemented.
On dispose ainsi d'une série de mesures, formant une distribution spatiale, de préférence bidimensionnelle, d'une grandeur mesurée, en l'occurrence l'impédance du capteur 1. Il est usuel de distinguer les parties réelle et imaginaire de l'impédance. L'impédance mesurée est généralement comparée à une impédance en l'absence de défaut, de façon à obtenir une cartographie de la variation d'impédance AH. On peut former une matrice de mesures M, représentant la partie réelle ou la partie imaginaire de l'impédance mesurée en chaque point de mesure. A series of measurements is thus available, forming a spatial distribution, preferably two-dimensional, of a measured quantity, in this case the impedance of sensor 1. It is usual to distinguish the real and imaginary parts of the impedance. The measured impedance is generally compared with an impedance in the absence of a fault, so as to obtain a map of the impedance variation AH. A measurement matrix M can be formed, representing the real part or the imaginary part of the impedance measured at each measurement point.
Le capteur 1 est relié à une unité de traitement 2, comportant une mémoire 3 comprenant des instructions pour permettre la mise en œuvre d'un algorithme de traitement de mesures, dont les principales étapes sont décrites par la suite. L'unité de traitement est usuellement un ordinateur, relié à un écran 4. The sensor 1 is connected to a processing unit 2, comprising a memory 3 comprising instructions to enable the implementation of a measurement processing algorithm, the main steps of which are described below. The processing unit is usually a computer, connected to a screen 4.
Comme décrit en lien avec l'art antérieur, la matrice de mesures M correspond à une répartition spatiale de la réponse de la pièce à l'excitation, chaque mesure étant une signature de la pièce. Une inversion doit être effectuée, de façon à pouvoir conclure à la présence d'un défaut, et, le cas échéant, une caractérisation de ce dernier. L'inversion est effectuée par l'algorithme de traitement mis en œuvre par l'unité de traitement 2. As described in connection with the prior art, the measurement matrix M corresponds to a spatial distribution of the response of the part to excitation, each measurement being a signature of the part. An inversion must be carried out, so as to be able to conclude that a defect is present, and, if necessary, a characterization of the latter. The inversion is performed by the processing algorithm implemented by the processing unit 2.
Par défaut structurel, il est entendu un défaut mécanique affectant la pièce. Il peut notamment s'agir d'une fissure, ou d'un délaminage, ou d'une perforation, formant par exemple un trou traversant, ou d'une fissure se propageant à partir d'un trou, ou d'une zone anormalement poreuse. Le défaut structurel peut également être une présence d'une inclusion d'un matériau indésirable, ou d'une zone corrodée. Le défaut structurel peut affecter la surface de la pièce 10 située face au capteur. Il peut également être localisé en profondeur dans la pièce. Le type de capteur utilisé est sélectionné en fonction du défaut à caractériser. By structural defect, it is understood a mechanical defect affecting the part. It may in particular be a crack, or a delamination, or a perforation, forming for example a through hole, or a crack propagating from a hole, or from an abnormally porous. The structural defect can also be a presence of an inclusion of an undesirable material, or of a corroded zone. The structural defect may affect the surface of part 10 located opposite the sensor. It can also be located deep in the room. The type of sensor used is selected according to the fault to be characterised.
La pièce à contrôler 10 peut être formée d'un matériau composite. Elle comporte alors des composants assemblés les uns aux autres. Il peut s'agir d'un assemblage de plaques ou de fibres. Le défaut peut être un défaut d'assemblage : il peut s'agir d'un délaminage local de plaques, ou une décohésion de fibres ou de torons de fibres, ou une non uniformité de l'orientation de fibres, ou défaut résultat d'un impact ou choc. The part to be checked 10 can be made of a composite material. It then comprises components assembled to one another. It can be an assembly of plates or fibers. The defect may be an assembly defect: it may be a local delamination of plates, or a decohesion of fibers or fiber strands, or non-uniformity in the orientation of fibers, or a defect resulting from an impact or shock.
La pièce à contrôler 10 présente des propriétés mécaniques spatialement distribuées le long de la pièce. Le défaut peut être une variation de la distribution spatiale des propriétés mécaniques par rapport à une distribution spatiale de référence. Il peut par exemple s'agir d'une partie de la pièce, dans laquelle les propriétés mécaniques ne correspondent pas à des propriétés mécaniques de référence, ou sont en dehors d'une plage de tolérance. La propriété mécanique peut être le module d'Young, ou la densité, ou une vitesse de propagation d'une onde acoustique. La distribution spatiale de référence peut être issue d'une spécification, et correspondre à un objectif à atteindre. Elle peut résulter d'un modèle ou de mesures expérimentales. The part to be inspected 10 has mechanical properties that are spatially distributed along the part. The defect may be a variation in the spatial distribution of the mechanical properties with respect to a reference spatial distribution. It may for example be a part of the part, in which the mechanical properties do not correspond to reference mechanical properties, or are outside a tolerance range. The mechanical property can be the Young's modulus, or the density, or a speed of propagation of a wave acoustic. The reference spatial distribution can come from a specification, and correspond to an objective to be achieved. It can result from a model or from experimental measurements.
Le paragraphe précédent s'applique également à des propriétés électriques ou magnétiques, ou encore à une contrainte à laquelle est exposée la pièce à contrôler. Il peut par exemple s'agir d'une contrainte de température ou d'une contrainte mécanique, par exemple une contrainte de pression, à laquelle est soumise la pièce au cours de son exploitation. Aussi, la caractérisation de la pièce peut consister à établir une température de la pièce, ou un niveau de contrainte mécanique (effort, pression, déformation) auquel est soumis la pièce. La caractérisation peut également consister à établir une distribution spatiale d'une température de la pièce ou, de façon plus générale, d'une contrainte à laquelle est soumise la pièce. Le défaut est alors un écart entre la distribution spatiale et une distribution spatiale de référence. Lorsque l'on considère une distribution spatiale de le température de la pièce, un défaut peut être l'apparition d'un point chaud, au niveau duquel la température de la pièce est anormalement élevée par rapport à une distribution spatiale de référence de la température. The preceding paragraph also applies to electrical or magnetic properties, or else to a stress to which the part to be inspected is exposed. It may for example be a temperature stress or a mechanical stress, for example a pressure stress, to which the part is subjected during its operation. Also, the characterization of the part can consist in establishing a temperature of the part, or a level of mechanical stress (force, pressure, deformation) to which the part is subjected. The characterization can also consist in establishing a spatial distribution of a temperature of the part or, more generally, of a stress to which the part is subjected. The defect is then a difference between the spatial distribution and a reference spatial distribution. When considering a spatial distribution of the temperature of the part, a defect can be the appearance of a hot spot, at the level of which the temperature of the part is abnormally high compared to a reference spatial distribution of the temperature. .
La caractérisation du défaut vise à déterminer le type de défaut, parmi les types précédemment cités. Elle peut également comporter une localisation du défaut, ainsi qu'une estimation de tout ou partie de ses dimensions. The characterization of the defect aims to determine the type of defect, among the types mentioned above. It may also include a location of the fault, as well as an estimate of all or part of its dimensions.
Le traitement des mesures peut être réalisé en mettant en œuvre un algorithme d'intelligence artificielle supervisé, par exemple basé sur un réseau de neurones. L'apprentissage de l'algorithme peut être effectué en constituant une base de données formées à partir de mesures réalisées ou simulées sur une pièce comportant un défaut dont les caractéristiques sont connues : type de défaut, dimensions, localisation, éventuellement porosité ou autre grandeur physique permettant de caractériser le défaut. The processing of the measurements can be carried out by implementing a supervised artificial intelligence algorithm, for example based on a neural network. The learning of the algorithm can be carried out by constituting a database formed from measurements carried out or simulated on a part comprising a defect whose characteristics are known: type of defect, dimensions, location, possibly porosity or other physical quantity to characterize the defect.
La base de données peut être établie par simulation, en utilisant un logiciel de simulation dédié. Un exemple de logiciel dédié est le logiciel CIVA (fournisseur : Extende), permettant notamment de simuler différentes modalités de contrôle non destructif : propagation d'ultrasons, effets de courants de Foucault et radiographie X. Un tel logiciel permet de simuler des mesures à partir d'une modélisation de la pièce. Le recours d'un tel logiciel peut permettre de constituer une base de données permettant l'apprentissage de l'algorithme d'intelligence artificielle utilisé.The database can be established by simulation, using dedicated simulation software. An example of dedicated software is the CIVA software (supplier: Extende), which notably makes it possible to simulate different non-destructive testing methods: ultrasound propagation, eddy current effects and X-ray radiography. Such software makes it possible to simulate measurements from of a model of the part. The use of such software can make it possible to constitute a database allowing the learning of the artificial intelligence algorithm used.
Pour ce type d'application, les inventeurs ont estimé que le recours à un réseau de neurones convolutif est approprié. En effet, les données d'entrée sont matricielles et peuvent être assimilées à des images. Chaque image correspond à une cartographie d'une grandeur physique mesurée, et susceptible de varier en présence d'un défaut dans la pièce. La figure 2A schématise l'architecture d'un tel réseau. For this type of application, the inventors have considered that the use of a convolutional neural network is appropriate. Indeed, the input data is matrix and can be likened to pictures. Each image corresponds to a mapping of a measured physical quantity, and liable to vary in the presence of a defect in the part. FIG. 2A schematizes the architecture of such a network.
Le réseau de neurones convolutif comporte un bloc d'extraction de caractéristiques Ai, relié à un bloc de traitement Bi. Le bloc de traitement est configuré pour traiter les caractéristiques extraites du bloc d'extraction Ai. Dans cet exemple, le bloc de traitement Bi est un bloc de classification. Il permet une classification sur la base des caractéristiques extraites par le bloc d'extraction Ai. Le réseau de neurones convolutif est alimentée par des données d'entrée Ain, qui correspondent à une ou plusieurs images. Dans l'exemple considéré, les données d'entrée forment une image, obtenue par une concaténation de deux images représentant respectivement la partie réelle et la partie imaginaire de la variation d'impédance AH mesurée en différents points de mesure, régulièrement répartis, face à la pièce, selon un arrangement matriciel. The convolutional neural network includes a feature extraction block Ai, connected to a processing block Bi. The processing block is configured to process the features extracted from the extraction block Ai. In this example, the processing block Bi is a classification block. It allows a classification based on the features extracted by the extraction block Ai. The convolutional neural network is fed by input data Ain, which correspond to one or more images. In the example considered, the input data form an image, obtained by a concatenation of two images representing respectively the real part and the imaginary part of the variation in impedance AH measured at different measurement points, regularly distributed, facing the room, according to a matrix arrangement.
Le bloc d'extraction de caractéristiques Ai comporte J couches Ci...Cj...Cj en aval des données d'entrée. J étant un entier supérieur ou égal à 1. Chaque couche Cj est obtenue par application d'un filtre de convolution aux images d'une couche précédente Cj-i. L'indice j est le rang de chaque couche. La couche Co correspond aux données d'entrée Ain. Les paramètres des filtres de convolution appliqués à chaque couche sont déterminés lors de l'apprentissage. La dernière couche Cj peut comporter un nombre de termes dépassant plusieurs dizaines, voire plusieurs centaines, voire plusieurs milliers. Ces termes correspondent à des caractéristiques extraites de chaque image formant les données d'entrée. The feature extraction block Ai comprises J layers Ci...Cj...Cj downstream of the input data. J being an integer greater than or equal to 1. Each layer Cj is obtained by applying a convolution filter to the images of a previous layer Cj-i. The index j is the rank of each layer. The layer Co corresponds to the input data Ai n . The parameters of the convolution filters applied to each layer are determined during training. The last layer Cj can include a number of terms exceeding several tens, or even several hundreds, or even several thousands. These terms correspond to features extracted from each image forming the input data.
Entre deux couches successives, le procédé peut comporter des opérations de réduction de dimension, par exemple des opérations usuellement désignées par le terme « pooling » (regroupement). Il s'agit de remplacer les valeurs d'un groupe de pixels par une seule valeur, par exemple la moyenne, ou la valeur maximale, ou la valeur minimale du groupe considéré. On peut par exemple appliquer un "max pooling" (regroupement maximal), ce qui correspond au remplacement des valeurs de chaque groupe de pixels par la valeur maximale des pixels dans le groupe. La dernière couche Cj fait l'objet d'une opération usuellement désignée par le terme « Flatten » (aplatissement), de façon que les valeurs de cette couche forment un vecteur. Ces valeurs constituent les caractéristiques extraites de chaque image. Between two successive layers, the method may include dimension reduction operations, for example operations usually designated by the term “pooling”. This involves replacing the values of a group of pixels by a single value, for example the average, or the maximum value, or the minimum value of the group considered. One can for example apply a "max pooling" (maximum grouping), which corresponds to the replacement of the values of each group of pixels by the maximum value of the pixels in the group. The last layer Cj is the subject of an operation usually designated by the term “Flatten” (flattening), so that the values of this layer form a vector. These values constitute the features extracted from each image.
Le bloc de classification Bi est un réseau de neurones interconnecté, usuellement désigné par le terme « fully connected » ou perceptron multicouches. Il comporte une couche d'entrée Bin, et une couche de sortie Bout. La couche d'entrée Bin est formée par les caractéristiques du vecteur résultant du bloc d'extraction Ai. Entre la couche d'entrée Bin et la couche de sortie Bout, on peut prévoir une ou plusieurs couches cachées H. On dispose ainsi successivement de la couche d'entrée Bin, de chaque couche cachée H et de la couche de sortie Bout. The classification block Bi is an interconnected neural network, usually designated by the term “fully connected” or multilayer perceptron. It has a Bin input layer, and a Bout output layer. The input layer Bin is formed by the characteristics of the vector resulting from the extraction block Ai. Between the Bin input layer and the Bout output layer, one or more hidden layers H can be provided. There is thus successively the input layer B in , each hidden layer H and the output layer B out .
A chaque couche peut être attribué un rang k. Le rang k = 0 correspond à la couche d'entrée Bin. Chaque couche comporte des nœuds, le nombre de nœuds d'une couche pouvant être différent du nombre de nœuds d'une autre couche. D'une façon générale, la valeur d'un nœud yn k d'une couche de rang k est telle que Each layer can be assigned a rank k. The rank k=0 corresponds to the input layer B in . Each layer comprises nodes, the number of nodes of a layer being able to be different from the number of nodes of another layer. In general, the value of a node y nk of a layer of rank k is such that
OÙ est la valeur d'un nœud de la couche précédente k — 1, m représentant un ordre du nœud de la couche précédente, m étant un entier compris entre 1 et Mu, Mu correspondant à la dimension de la couche précédente, de rang k — 1 ; bm est un biais associé à chaque nœud ym k-i de la couche précédente ; fn est une fonction d'activation associé au nœud d'ordre n de la couche considérée, n étant un entier compris entre 1 et Mk, Mk correspondant à la dimension de la couche de rang k wm n est un terme de pondération pour le noeud d'ordre m de la couche précédente (rang k-1) et le nœud d'ordre n de couche considérée (rang k). WHERE is the value of a node of the previous layer k — 1, m representing an order of the node of the previous layer, m being an integer between 1 and Mu, Mu corresponding to the dimension of the previous layer, of rank k — 1; b m is a bias associated with each node y mk -i of the previous layer; f n is an activation function associated with the node of order n of the considered layer, n being an integer between 1 and Mk, Mk corresponding to the dimension of the layer of rank kw mn is a weighting term for the node of order m of the previous layer (rank k-1) and the node of order n of the layer considered (rank k).
La forme de chaque fonction d'activation fn est déterminée par l'homme du métier. Il peut par exemple s'agir d'une fonction d'activation fn de type tangente hyperbolique ou sigmoïde.The form of each activation function f n is determined by a person skilled in the art. It may for example be an activation function f n of hyperbolic or sigmoid tangent type.
La couche de sortie Bout comporte des valeurs permettant de caractériser un défaut identifié par les images de la couche d'entrée Ain. Elle constitue le résultat de l'inversion effectuée par l'algorithme. The output layer B or t comprises values making it possible to characterize a defect identified by the images of the input layer A in . It constitutes the result of the inversion carried out by the algorithm.
Dans l'application la plus simple, la couche de sortie peut ne comporter qu'un seul nœud, prenant la valeur 0 ou 1 selon que l'analyse révèle la présence d'un défaut ou non. In the simplest application, the output layer may have only one node, taking the value 0 or 1 depending on whether the analysis reveals the presence of a defect or not.
Dans une application d'identification, la couche de sortie peut comporter autant de nœuds que de types de défaut considérés, chaque nœud correspondant à une probabilité de présence d'un type de défaut parmi des types prédéterminés (fissure, trou, délaminage...). Dans une application de dimensionnement, la couche de sortie peut comporter autant de nœuds que de dimensions d'un défaut, ce qui suppose une prise en compte d'un modèle géométrique de défaut. In an identification application, the output layer can comprise as many nodes as defect types considered, each node corresponding to a probability of presence of a type of defect among predetermined types (crack, hole, delamination, etc.). ). In a dimensioning application, the output layer can comprise as many nodes as dimensions of a defect, which supposes taking into account a geometric model of defect.
Dans une application de localisation, la couche de sortie peut comporter des coordonnées indiquant la position, bidimensionnelle ou tridimensionnelle, d'un défaut dans la pièce. In a localization application, the output layer can include coordinates indicating the position, two-dimensional or three-dimensional, of a defect in the part.
Dans une application de caractérisation, la couche de sortie peut contenir des informations sur la pièce inspectée, par exemple une distribution spatiale de propriétés mécaniques (par exemple le module d'Young), ou électriques ou magnétiques ou thermiques (par exemple la température) ou géométriques (par exemple au moins une dimension de la pièce). La dimension de la couche de sortie correspond à un nombre de points de la pièce en lesquels la propriété mécanique est estimée sur la base des données d'entrée. In a characterization application, the output layer can contain information about the inspected part, for example a spatial distribution of mechanical properties (for example Young's modulus), or electrical or magnetic or thermal (for example temperature) or geometric (for example at least one dimension of the part). The dimension of the output layer corresponds to a number of points of the part in which the mechanical property is estimated on the basis of the input data.
Les applications peuvent être combinées, de façon à obtenir à la fois une localisation et un dimensionnement, ou une localisation, une identification et un dimensionnement. The applications can be combined, so as to obtain both location and dimensioning, or location, identification and dimensioning.
Un élément important de l'invention est que le bloc d'extraction Ai peut être établi, pour une modalité de mesure, en utilisant un apprentissage aussi exhaustif que possible, dit premier apprentissage, en prenant en compte une base de données importante. Le bloc de classification peut être adapté à différents cas spécifiques, dans lesquelles la modalité de mesure est mise en œuvre. Autrement dit, l'invention rend possible le paramétrage de différents blocs de classification Bi, B2, pour différentes applications, tout en conservant un même bloc d'extraction Ai. An important element of the invention is that the extraction block Ai can be established, for a measurement modality, using learning that is as exhaustive as possible, called first learning, taking into account a large database. The classification block can be adapted to different specific cases, in which the measurement modality is implemented. In other words, the invention makes it possible to parameterize different classification blocks Bi, B 2 , for different applications, while keeping the same extraction block Ai.
D'une façon générale, au cours d'une première phase d'apprentissage, le bloc d'extraction Ai et un premier bloc de classification Bi sont paramétrés. La première phase d'apprentissage est mise en œuvre en utilisant une première base de données DBi, établie selon une première configuration, en considérant une première pièce modèle. Le procédé comporte une utilisation d'une deuxième base de données DB2, sur la base de laquelle un deuxième apprentissage est effectué. La deuxième base de donnée est établie selon une deuxième configuration, différente de la première configuration. Generally, during a first learning phase, the extraction block Ai and a first classification block Bi are parameterized. The first learning phase is implemented using a first DBi database, established according to a first configuration, by considering a first model part. The method includes the use of a second database DB 2 , on the basis of which a second learning is carried out. The second database is established according to a second configuration, different from the first configuration.
La première configuration est paramétrée par différents paramètres Pi, i étant un entier identifiant chaque paramètre. Ces paramètres peuvent notamment comprendre : The first configuration is parameterized by different parameters Pi, i being an integer identifying each parameter. These parameters may include in particular:
Pi : constitution de la base de données : données expérimentales ou données simulées, ou données simulées avec différents niveaux de précision ou de fidélité ; P2 : forme de la pièce modèle considérée ; Pi: constitution of the database: experimental data or simulated data, or simulated data with different levels of precision or fidelity; P2: shape of the model part considered;
P3 : matériau de la pièce modèle considérée ; P3: material of the model part considered;
P4 : conditions de mesures, par exemple durée d'acquisition, positionnement du capteur par rapport à la pièce, références du capteur utilisé ou modélisé, paramètres environnementaux (température, humidité, éventuellement pression), bruit de mesure, type de traitement effectué sur les mesures pour estimer une propriété de la pièce, qu'il s'agisse d'une propriété électrique, magnétique ou mécanique; P4: measurement conditions, for example acquisition time, positioning of the sensor relative to the part, references of the sensor used or modeled, environmental parameters (temperature, humidity, possibly pressure), measurement noise, type of processing performed on the measurements to estimate a property of the part, whether it is an electrical, magnetic or mechanical property;
Ps : type de défaut considéré ; Ps: type of fault considered;
Ps : localisation du défaut dans la pièce modèle ; Ps: location of the fault in the model part;
P7 : forme du défaut considéré ; P7: shape of the defect considered;
P8 : dimensions du défaut considéré. P 8 : dimensions of the defect considered.
Par fidélité, évoquée en lien avec le premier paramètre Pi, on entend une capacité du modèle à représenter la réalité. By fidelity, mentioned in connection with the first parameter Pi, we mean the capacity of the model to represent reality.
La première base de données DBi comporte différentes images, représentatives de mesures effectuées ou simulées sur la première pièce modèle, en faisant varier certains paramètres Pj, dits paramètres variables, tandis que d'autres paramètres P^j sont fixes pour l'ensemble des images de la première base de données. Par exemple, la première base de donnée DBi est constituée en ne faisant varier que le paramètre P8, représentant les dimensions du défaut considéré, tandis que les paramètres Pi à P7 sont constants. The first database DBi comprises different images, representative of measurements carried out or simulated on the first model part, by varying certain parameters Pj, called variable parameters, while other parameters P^j are fixed for all the images from the first database. For example, the first DBi database is formed by only varying the parameter P 8 , representing the dimensions of the defect considered, while the parameters Pi to P 7 are constant.
Il est entendu que lors de chaque apprentissage, les caractéristiques du défaut que l'on cherche à estimer sont connues. Généralement, les paramètres variables correspondent aux caractéristiques destinées à être estimées par le réseau de neurones. It is understood that during each learning, the characteristics of the defect that one seeks to estimate are known. Generally, the variable parameters correspond to the characteristics intended to be estimated by the neural network.
La première base de données DBi peut comporter un premier nombre d'image Ni pouvant dépasser plusieurs centaines, voire plusieurs milliers. Ainsi, suite au premier apprentissage, le premier réseau de neurones, formé par la combinaison des blocs Ai et Bi est alors supposé présenter une performance de prédiction satisfaisante. The first database DBi may comprise a first number of images Ni which may exceed several hundreds, or even several thousands. Thus, following the first learning, the first neural network, formed by the combination of the blocks Ai and Bi is then supposed to present a satisfactory prediction performance.
Un élément important de l'invention est de pouvoir utiliser le premier apprentissage pour effectuer le deuxième apprentissage, selon une configuration différente. Par configuration différente, il est entendu qu'on modifie au moins un des paramètres fixes de la première configuration. Les exemples suivants montrent différentes possibilités de modifications d'un paramètre : Modification du premier paramètre Pi : le deuxième apprentissage est réalisé en considérant des mesures expérimentales, in-situ, alors que le premier apprentissage est réalisé en considérant des mesures simulées ou effectuées dans des conditions de laboratoire (ou toute autre combinaison de mesures expérimentales et de simulation). Selon une possibilité, le niveau de précision de la première base de données DBi et de la deuxième base de données DB2 sont différents. Par exemple, le premier apprentissage et le deuxième apprentissage sont réalisées en se basant sur des mesures simulées avec un niveau de précision respectivement faible et élevé : la première base de données peut être obtenue par un premier modèle analytique, rapide mais peu précis, tandis que la deuxième base de données peut résulter d'un modèle semi-analytique, numérique ou stochastique, plus lent à mettre en œuvre mais plus précis. De façon similaire, la première base de donnée peut être obtenue avec un capteur générant des mesures moins précises que le capteur utilisé pour constituer la deuxième base de données.An important element of the invention is to be able to use the first learning to perform the second learning, according to a different configuration. By different configuration, it is understood that at least one of the fixed parameters of the first configuration is modified. The following examples show different possibilities for modifying a parameter: Modification of the first parameter Pi: the second learning is carried out by considering experimental measurements, in-situ, whereas the first learning is carried out by considering simulated measurements or carried out under laboratory conditions (or any other combination of experimental measurements and simulation). According to one possibility, the level of precision of the first database DBi and of the second database DB 2 are different. For example, the first learning and the second learning are carried out based on simulated measurements with a respectively low and high level of precision: the first database can be obtained by a first analytical model, fast but not very precise, while the second database can result from a semi-analytical, numerical or stochastic model, slower to implement but more precise. Similarly, the first database can be obtained with a sensor generating less precise measurements than the sensor used to constitute the second database.
Lorsque la première et la deuxième base de données sont obtenues expérimentalement, ou par simulation, le nombre de capteurs utilisés (ou simulés) peut être différent lors de la constitution de chaque base de données. When the first and the second database are obtained experimentally, or by simulation, the number of sensors used (or simulated) can be different during the constitution of each database.
Modification du deuxième paramètre P2: le deuxième apprentissage est réalisé en considérant une deuxième pièce modèle, dont la forme est différente de la première pièce modèle : la deuxième pièce modèle peut être bombée ou incurvée alors que la première pièce modèle est plane. Le premier apprentissage peut par exemple être effectué sur une pièce modèle dont la géométrie est simple, aisément modélisable, ou facile à fabriquer. Le deuxième apprentissage peut alors être effectué en considérant une pièce dont la géométrie est plus complexe, et correspondant davantage à la réalité. Modification du troisième paramètre P3: le deuxième apprentissage est réalisé en considérant une deuxième pièce modèle dont le matériau a une composition différente de la première pièce modèle : il peut par exemple s'agir d'un alliage différent, ou d'un alliage réaliste, présentant une certaine variabilité par rapport à un alliage théorique considéré lors du premier apprentissage. Le même raisonnement s'applique à un matériau composite. Modification of the second parameter P 2 : the second learning is carried out by considering a second model part, the shape of which is different from the first model part: the second model part can be rounded or curved while the first model part is flat. The first learning can for example be performed on a model part whose geometry is simple, easily modeled, or easy to manufacture. The second learning can then be carried out by considering a part whose geometry is more complex, and corresponds more to reality. Modification of the third parameter P3: the second learning is carried out by considering a second model part whose material has a different composition from the first model part: it can for example be a different alloy, or a realistic alloy, exhibiting a certain variability compared to a theoretical alloy considered during the first learning. The same reasoning applies to a composite material.
Modification du quatrième paramètre P4: les conditions de mesures prises en compte dans le deuxième apprentissage sont différentes que lors du premier apprentissage. Par exemple, la position du capteur par rapport à la pièce modèle est différente, ou la température ou l'humidité à laquelle est exposé le capteur est différente. Le type de capteur peut également être différent. Le deuxième apprentissage peut être effectué en prenant en compte une réponse réaliste du capteur, incluant par exemple une prise en compte du bruit de mesure. La première base de données peut être obtenues en utilisant un capteur (ou une simulation) affecté d'un niveau de bruit et/ou d'incertitude différent du capteur permettant d'obtenir la deuxième base de données. Modification of the fourth parameter P 4 : the measurement conditions taken into account in the second learning are different than during the first learning. For example, the position of the sensor relative to the model part is different, or the temperature or humidity to which the sensor is exposed is different. The type of sensor may also be different. The second learning can be carried out by taking into account a realistic response of the sensor, including for example taking into account the measurement noise. The first database can be obtained by using a sensor (or a simulation) assigned a level of noise and/or uncertainty different from the sensor making it possible to obtain the second database.
Modification du cinquième paramètre P5: le deuxième apprentissage est réalisé en considérant un nombre et/ou un type de défaut différent de celui considéré dans le premier apprentissage Modification of the fifth parameter P 5 : the second learning is carried out by considering a number and/or a type of fault different from that considered in the first learning
Modification des sixième, septième et huitième paramètres Pg, P7, Ps : la position, la forme, ou les dimensions du défaut sont respectivement modifiées au cours du deuxième apprentissage. Modification of the sixth, seventh and eighth parameters Pg, P7, Ps: the position, the shape, or the dimensions of the defect are respectively modified during the second learning.
D'une façon générale, le premier apprentissage est réalisé en fixant certains paramètres. Au moins l'un de ces paramètres est modifié lors du deuxième apprentissage, pour constituer la deuxième base de données DB2. In general, the first learning is carried out by fixing certain parameters. At least one of these parameters is modified during the second training, to constitute the second DB2 database.
Un aspect important de l'invention est que lors du deuxième apprentissage, le bloc d'extraction Ai, issu du premier apprentissage, est conservé. On considère que le premier apprentissage est suffisamment exhaustif pour que la performance du bloc d'extraction, en terme d'extraction de caractéristiques des images fournies en entrée, soit considérée comme suffisante. Le bloc d'extraction peut alors être utilisé lors du deuxième apprentissage. Autrement dit, les caractéristiques extraites par le bloc Ai constituent un bon descripteur des mesures formant la couche d'entrée. An important aspect of the invention is that during the second learning, the extraction block Ai, resulting from the first learning, is retained. It is considered that the first learning is sufficiently exhaustive for the performance of the extraction block, in terms of extraction of characteristics of the images supplied as input, to be considered sufficient. The extraction block can then be used during the second learning. In other words, the characteristics extracted by the block Ai constitute a good descriptor of the measurements forming the input layer.
Le deuxième apprentissage se limite ainsi à une mise à jour du paramétrage du bloc de classification, de façon à obtenir un deuxième bloc de classification B2 adapté à la configuration du deuxième apprentissage. Le deuxième apprentissage peut alors être mis en œuvre avec une deuxième base de données DB2 comportant moins de données que la première base de données. The second learning is thus limited to an update of the parameterization of the classification block, so as to obtain a second classification block B2 adapted to the configuration of the second learning. The second learning can then be implemented with a second DB2 database comprising less data than the first database.
Au cours du deuxième apprentissage, le deuxième bloc de classification B2 peut être initialisé en prenant en compte les paramètres régissant le premier bloc de classification Bi. Selon une possibilité, le deuxième bloc de classification B2 peut comporter un même nombre de couches cachées que le premier bloc de classification Bi. Ces dernières peuvent posséder le même nombre de nœuds que les couches du premier bloc de classification. La dimension de la couche de sortie dépend des caractéristiques du défaut à estimer. Aussi, la dimension de la couche de sortie du deuxième bloc de classification B2 peut être différente de celle du premier bloc de classification Bi. Selon une possibilité, le nombre de couches cachées et/ou la dimension des couches cachées du deuxième bloc de classification est différent du nombre de couches cachées et/ou de la dimension des couches cachées du premier bloc de classification. During the second learning, the second classification block B2 can be initialized by taking into account the parameters governing the first classification block Bi. According to one possibility, the second classification block B2 may comprise the same number of hidden layers as the first classification block Bi. The latter can have the same number of nodes as the layers of the first classification block. The dimension of the output layer depends on the characteristics of the defect to be estimated. Also, the dimension of the layer of output of the second classification block B2 may be different from that of the first classification block Bi. According to one possibility, the number of hidden layers and/or the dimension of the hidden layers of the second classification block is different from the number of hidden layers and/or the dimension of the hidden layers of the first classification block.
L'avantage de l'invention est que moyennant un premier apprentissage suffisamment complet, le deuxième apprentissage peut être établi en considérant un nombre de données significativement inférieur au nombre de données utilisées pour réaliser le premier apprentissage. Par nombre de données significativement inférieur, on entend au moins 10 fois voire 100 fois moins de données. La deuxième base de données DB2, constituée pour établir le deuxième apprentissage, est plus petite que la première base de données DBi. On parle d'apprentissage frugal, dans la mesure ou le nombre de données requises est modeste. The advantage of the invention is that with a sufficiently complete first learning, the second learning can be established by considering a number of data significantly lower than the number of data used to carry out the first learning. By significantly lower number of data, we mean at least 10 times or even 100 times less data. The second database DB2, formed to establish the second training, is smaller than the first database DBi. We speak of frugal learning, insofar as the amount of data required is modest.
La méthode permet une mise en œuvre d'un premier apprentissage dans des conditions de laboratoire, sur la base de simulations ou de conditions expérimentales optimisées. Ce premier apprentissage est suivi d'un deuxième apprentissage plus proche de la réalité du terrain : prise en compte de mesures expérimentales, et/ou de conditions de mesure plus réalistes, ou d'une forme ou une constitution de la pièce plus complexe. L'invention permet une limitation du nombre de mesures nécessaires au deuxième apprentissage, tout en permettant l'obtention d'un réseau de neurones présentant de bonnes performances de prédiction. Cela constitue un avantage important, puisque l'acquisition de mesures dans des conditions réalistes est habituellement plus complexe que l'obtention de mesures en laboratoire ou de mesures simulées. Le deuxième apprentissage peut permettre la prise en compte de spécificités non modélisables, par exemple le bruit de mesure, ou des variations relativement à la composition ou à la forme de la pièce. The method allows an implementation of a first learning in laboratory conditions, on the basis of simulations or optimized experimental conditions. This first learning is followed by a second learning closer to the reality of the field: taking into account experimental measurements, and/or more realistic measurement conditions, or a more complex shape or constitution of the part. The invention makes it possible to limit the number of measurements necessary for the second learning, while making it possible to obtain a neural network exhibiting good prediction performance. This is an important advantage, since acquiring measurements under realistic conditions is usually more complex than obtaining measurements in the laboratory or simulated measurements. The second learning can allow the taking into account of non-modelable specificities, for example measurement noise, or variations relative to the composition or to the shape of the part.
Un autre intérêt de l'invention est de pouvoir utiliser un premier apprentissage, réalisé sur une pièce selon un certain matériau, pour effectuer un deuxième apprentissage « frugal », sur une pièce similaire, d'un matériau différent. Another advantage of the invention is to be able to use a first learning, carried out on a part made of a certain material, to carry out a second “frugal” learning, on a similar part, of a different material.
Le premier apprentissage peut être perçu comme un apprentissage général, pouvant convenir à différentes applications particulières, ou à différents types ou formes de pièces, ou à différents types de défauts. Il est essentiellement destiné à disposer d'un bloc d'extraction Ai permettant d'extraire des caractéristiques pertinentes des données d'entrée. Le deuxième apprentissage est un apprentissage plus ciblé, sur une application particulière, ou sur un type de pièce particulière, ou à un type de défaut particulier. L'invention facilite l'obtention du deuxième apprentissage, car elle nécessite nettement moins de données d'entrée que le premier apprentissage. Ainsi, un même premier apprentissage peut être utilisé pour effectuer différents deuxièmes apprentissages, correspondant respectivement à des configurations différentes.The first learning can be perceived as a general learning, being suitable for different particular applications, or for different types or shapes of parts, or for different types of defects. It is essentially intended to have an extraction block Ai making it possible to extract relevant characteristics from the input data. The second learning is more targeted learning, on a particular application, or on a particular type of part, or on a particular type of defect. The invention facilitates obtaining the second training, because it requires significantly less input data than the first training. Thus, the same first learning can be used to perform different second learnings, corresponding respectively to different configurations.
Le premier apprentissage peut être réalisé sur une première base de données relativement facile à obtenir, par rapport à la deuxième base de données. Cela permet de prévoir une première base de donnée plus exhaustive, prenant par exemple en compte une grande variabilité dans les dimensions et/ou dans la forme du défaut. The first training can be performed on a first database that is relatively easy to obtain, compared to the second database. This makes it possible to provide a first more exhaustive database, taking into account for example a great variability in the dimensions and/or in the shape of the defect.
Les principales étapes de l'invention sont schématisées sur la figure 2B. The main steps of the invention are schematized in FIG. 2B.
Etape 100 : constitution de la première base de données DBi. Step 100: constitution of the first DBi database.
Au cours de cette étape, on constitue la première base de données DBi selon une première configuration. Comme précédemment décrit, la première configuration est paramétrée par des premiers paramètres, certains de ces premiers paramètres étant fixes. La première base de données est formée d'images représentatives de mesures obtenues (effectuées ou simulées) selon la première configuration. During this step, the first DBi database is formed according to a first configuration. As previously described, the first configuration is parameterized by first parameters, some of these first parameters being fixed. The first database is formed of images representative of measurements obtained (performed or simulated) according to the first configuration.
Etape 110 : premier apprentissage. Step 110: first learning.
Au cours de cette étape, la première base de données est utilisée pour paramétrer les blocs Ai et Bi, de façon à optimiser la performance de prédiction d'un premier réseau de neurones convolutif CNNi. During this step, the first database is used to parameterize the blocks Ai and Bi, so as to optimize the prediction performance of a first convolutional neural network CNNi.
Etape 120 : constitution de la deuxième base de données DB2. Step 120: constitution of the second database DB 2 .
Au cours de cette étape, on constitue la deuxième base de données DB2 selon une deuxième configuration. Comme précédemment décrit, au moins un paramètre, considéré comme fixe lors de la première configuration, est modifié. La taille de la deuxième base de données est de préférence au moins 10 fois inférieure à la taille de la première base de données. During this step, the second database DB 2 is formed according to a second configuration. As previously described, at least one parameter, considered fixed during the first configuration, is modified. The size of the second database is preferably at least 10 times smaller than the size of the first database.
Etape 130 : deuxième apprentissage. Step 130: second learning.
Au cours de cette étape, on utilise la deuxième base de données DB2 pour effectuer un apprentissage d'un deuxième réseau de neurones convolutif CNN2 formé par le premier bloc d'extraction Ai, résultant du premier apprentissage, et d'un deuxième bloc de classification B2, propre à la configuration adoptée lors du deuxième apprentissage. During this step, the second database DB 2 is used to train a second convolutional neural network CNN 2 formed by the first extraction block Ai, resulting from the first training, and a second block of classification B 2 , specific to the configuration adopted during the second learning.
La configuration relative au deuxième apprentissage peut correspondre à des conditions considérées comme proche des conditions de mesures. En effet, le réseau de neurones convolutif CNN2 résultant du deuxième apprentissage est destiné à être mis en œuvre pour interpréter des mesures effectuées sur des pièces examinées. C'est l'objet de l'étape suivante. The configuration relating to the second learning can correspond to conditions considered to be close to the measurement conditions. In fact, the neural network convolutional CNN2 resulting from the second training is intended to be implemented to interpret measurements carried out on examined parts. This is the subject of the next step.
Etape 200 : réalisation de mesures Step 200: performing measurements
Des mesures sont réalisées, sur une pièce examinée, selon la configuration de mesure considérée lors du deuxième apprentissage. Measurements are taken, on an examined part, according to the measurement configuration considered during the second learning.
Etape 210 : Interprétation des mesures Step 210: Interpretation of the measurements
On utilise le réseau de neurones convolutif CNN2, résultant du deuxième apprentissage, pour estimer les caractéristiques d'un défaut éventuellement présent dans la pièce examinée, à partir des mesures effectuées lors de l'étape 200. Ces caractéristiques peuvent être établies à partir de la couche de sortie Bout du réseau de neurones convolutif CNN2. Ce réseau est donc utilisé pour effectuer l'étape d'inversion des mesures. The convolutional neural network CNN2, resulting from the second learning, is used to estimate the characteristics of a defect possibly present in the part examined, from the measurements carried out during step 200. These characteristics can be established from the output layer B or t of the CNN2 convolutional neural network. This network is therefore used to perform the step of inverting the measurements.
Exemple 1. Example 1.
Un premier exemple de mise en œuvre de l'invention est présenté en lien avec les figures 3A à 3D. La figure 3A représente un défaut simple, de type fissure en T, présentant 7 caractéristiques de position ou de dimension : les caractéristiques XI, X2 et X4 sont des longueurs ou des largeurs de deux branches selon un plan PXY ; les caractéristiques X5 et X6 sont des profondeurs des deux branches perpendiculairement au plan PXY ; la caractéristique X3 est une caractéristique angulaire ; les caractéristiques X7 et X8 sont des caractéristiques de position du défaut dans le plan PXY-A first example of implementation of the invention is presented in connection with FIGS. 3A to 3D. FIG. 3A represents a simple defect, of the T-crack type, having 7 position or dimension characteristics: characteristics X1, X2 and X4 are lengths or widths of two branches along a plane P X Y; the characteristics X5 and X6 are depths of the two branches perpendicular to the plane P X Y; the characteristic X3 is an angular characteristic; characteristics X7 and X8 are characteristics of position of the defect in the plan PXY-
On a simulé des mesures effectuées selon une modalité de courants de Foucault, en décrivant un balayage constitué par 41 x 46 points de mesure à une distance de 0,3 mm en dessus de la pièce. La pièce était une pièce métallique plane. Le tracé régulier représenté sur la figure 3A illustre le déplacement du capteur le long de la pièce, parallèlement au plan PXY- L'image formée sur la figure 3B est une image de la partie réelle de la variation d'impédance AH. La variation d'impédance correspond à une différence, en chaque point de mesure, entre des impédances respectivement simulées en présence et en absence de défaut dans la pièce. La figure 3B a été obtenue en considérant les caractéristiques suivantes : XI = 11.822 mm ; X2 = 0.086 mm; X3 = - 9.88° ; X4 = 11.835 mm ; X5 = 0.635 mm ; X6 = 1.127 mm ; X7 = 27.489 mm ; X8 = 24.099 mm. Un premier apprentissage a été effectué sur la base de simulations. Au cours du premier apprentissage, on a utilisé 2000 images en prenant en compte un niveau de bruit très faible (rapport signal à bruit de 40 dB). Chaque image d'entrée est une concaténation d'une image de la partie réelle et d'une image de la partie imaginaire de la variation d'impédance AH mesurée en chaque point de mesure. Au cours de cet apprentissage, on a fait varier les dimensions du défaut, la forme restant la même. Measurements carried out according to an eddy current modality were simulated, by describing a scan consisting of 41×46 measurement points at a distance of 0.3 mm above the part. The part was a flat metal part. The regular plot represented in FIG. 3A illustrates the movement of the sensor along the part, parallel to the plane P X Y. The image formed in FIG. 3B is an image of the real part of the variation in impedance AH. The variation in impedance corresponds to a difference, at each measurement point, between respectively simulated impedances in the presence and in the absence of a fault in the part. FIG. 3B was obtained by considering the following characteristics: XI=11.822 mm; X2 = 0.086mm; X3 = -9.88°; X4 = 11.835mm; X5 = 0.635mm; X6 = 1.127mm; X7 = 27.489mm; X8 = 24.099mm. A first learning was carried out on the basis of simulations. During the first training, 2000 images were used taking into account a very low noise level (signal to noise ratio of 40 dB). Each input image is a concatenation of an image of the real part and of an image of the imaginary part of the impedance variation AH measured at each measurement point. During this learning, the dimensions of the defect were varied, the shape remaining the same.
Le premier apprentissage a permis de paramétrer un premier réseau de neurones convolutif CNNi, comportant un premier bloc d'extraction Ai et un premier bloc de classification Bi tels que précédemment décrits. La couche d'entrée comporte deux images, correspondant respectivement à la partie réelle et à la partie imaginaire de la variation d'impédance AH aux différents points de mesure. Le bloc d'extraction Ai comporte quatre couches de convolution Ci à C4 telles que : The first learning made it possible to parameterize a first convolutional neural network CNNi, comprising a first extraction block Ai and a first classification block Bi as previously described. The input layer comprises two images, corresponding respectively to the real part and to the imaginary part of the variation in impedance AH at the different measurement points. The extraction block Ai comprises four convolution layers Ci to C4 such that:
Ci est obtenue en appliquant 32 noyaux de convolution de dimensions 5x5 aux deux images d'entrée. Ci is obtained by applying 32 convolution kernels of 5x5 dimensions to the two input images.
C2 est obtenue en appliquant 32 noyaux de convolution de dimensions 3x3 à la couche Ci. C2 is obtained by applying 32 convolution kernels of dimensions 3x3 to the layer Ci.
C3 est obtenue en appliquant 64 noyaux de convolution de dimensions 3x3 à la couche C2. C3 is obtained by applying 64 convolution kernels of dimensions 3×3 to the layer C 2 .
Une opération de Maxpooling (regroupement selon un critère maximum) par groupes de 2x2 pixels est effectuée entre les couches C2 et C3 ainsi qu'entre la couche C3 et la couche C4, cette dernière étant convertie en un vecteur de dimension 1024. A Maxpooling operation (grouping according to a maximum criterion) by groups of 2x2 pixels is performed between layers C2 and C3 as well as between layer C3 and layer C4, the latter being converted into a vector of dimension 1024.
Le vecteur de dimension 1024 issu du bloc d'extraction Ai constitue la couche d'entrée Bin d'un bloc de classification Bi fully connected comportant une seule couche cachée H (512 nœuds), reliée à une couche de sortie Bout. Cette dernière est un vecteur de dimension 8, chaque terme correspondant respectivement à une estimation des dimensions XI à X8. The dimension vector 1024 from the extraction block Ai constitutes the input layer Bin of a fully connected classification block Bi comprising a single hidden layer H (512 nodes), connected to an output layer Bout. The latter is a vector of dimension 8, each term corresponding respectively to an estimate of dimensions XI to X8.
Le premier réseau de neurones convolutif CNNi a été testé pour estimer les 8 paramètres dimensionnels XI à X8 représentés sur la figure 3A. Lors du test, on a utilisé des images de tests simulées, et représentatives de mesures expérimentales présentant trois niveaux de rapport signal à bruit (SNR), respectivement 5dB (rapport signal à bruit faible), 20 dB (rapport signal à bruit moyen), et 40 dB (rapport signal à bruit élevé). Sur les images de test, on a fait varier les différentes caractéristiques XI à X8. Le rapport signal sur bruit a été simulé en ajoutant un bruit blanc gaussien aux matrices (ou images) formant la couche d'entrée du réseau de neurones. La figure 3C montre les performances de prédiction de la dimension XI en utilisant des images de test dont le rapport signal sur bruit est respectivement égal à 5 dB (gauche), 20 dB (centre), 40 dB (à droite). Sur chacune des courbes, l'axe des abscisses correspond aux valeurs vraies et l'axe des ordonnées correspond aux valeurs estimées par le réseau de neurones CNNi. On observe que les performances de prédiction ne sont pas satisfaisantes lorsque le rapport signal sur bruit ne correspond pas à celui ayant été considéré lors de l'apprentissage. En revanche, la performance d'estimation est satisfaisante lorsque le rapport signal sur bruit correspond à celui considéré lors de l'apprentissage. Sur la figure 3C, on a indiqué des indicateurs relatifs à la performance de prédiction : MAE (Mean Absolute Error - Erreur absolue moyenne), MSE (Mean Squared Error - Erreur quadratique moyenne) et R2 (coefficient de détermination). The first CNNi convolutional neural network was tested to estimate the 8 dimensional parameters X1 to X8 shown in Figure 3A. During the test, simulated test images were used, representative of experimental measurements with three levels of signal to noise ratio (SNR), respectively 5dB (low signal to noise ratio), 20 dB (medium signal to noise ratio), and 40 dB (high signal-to-noise ratio). On the test images, we varied the different characteristics XI to X8. The signal-to-noise ratio was simulated by adding Gaussian white noise to the matrices (or images) forming the input layer of the neural network. Figure 3C shows the XI dimension prediction performance using test images whose signal-to-noise ratio is 5 dB (left), 20 dB (center), 40 dB (right), respectively. On each of the curves, the abscissa axis corresponds to the true values and the ordinate axis corresponds to the values estimated by the neural network CNNi. It is observed that the prediction performances are not satisfactory when the signal-to-noise ratio does not correspond to that which was considered during learning. On the other hand, the estimation performance is satisfactory when the signal-to-noise ratio corresponds to that considered during learning. In FIG. 3C, indicators relating to the prediction performance have been indicated: MAE (Mean Absolute Error - Mean Absolute Error), MSE (Mean Squared Error - Mean Squared Error) and R2 (coefficient of determination).
Les inventeurs ont formé un deuxième réseau de neurones CNN2, en utilisant, dans une deuxième base de données, 20 images simulées en prenant en compte un rapport signal sur bruit de 40 dB et 20 images simulées en prenant en compte un rapport signal sur bruit de 5 dB, soit un total de 40 images. Comme précédemment décrit, le deuxième réseau de neurones CNN2 a été paramétré en conservant le bloc d'extraction Ai du premier réseau de neurones CNNi. Seul le bloc de classification B2 du deuxième réseau de neurones a été paramétré, en conservant le même nombre de couches et le même nombre de nœuds par couche du premier réseau de neurones CNNi. The inventors trained a second CNN2 neural network, using, in a second database, 20 simulated images taking into account a signal-to-noise ratio of 40 dB and 20 simulated images taking into account a signal-to-noise ratio of 5 dB, a total of 40 frames. As previously described, the second neural network CNN2 was parameterized by keeping the extraction block Ai of the first neural network CNNi. Only the B2 classification block of the second neural network was parameterized, keeping the same number of layers and the same number of nodes per layer of the first CNNi neural network.
Le deuxième réseau de neurones CNN2 a été testé sur les mêmes données de test que le premier réseau de neurones, i-e avec des images de test présentant des rapports signal à bruit respectivement égaux à 5 dB, 20 dB et 40 dB. La figure 3D montre les performances d'estimation du deuxième réseau de neurones, relativement à l'estimation de la première dimension XI. La figure 3D est présentée de façon identique à la figure 3C : images de test dont le rapport signal sur bruit est de 5 dB (gauche), 20 dB (centre) et 40 dB (droite). Les performances d'estimation sont correctes quel que soit le rapport signal à bruit considéré. The second CNN neural network 2 was tested on the same test data as the first neural network, ie with test images presenting signal to noise ratios respectively equal to 5 dB, 20 dB and 40 dB. FIG. 3D shows the estimation performance of the second neural network, relative to the estimation of the first dimension XI. Figure 3D is presented identically to Figure 3C: test images whose signal-to-noise ratio is 5 dB (left), 20 dB (center) and 40 dB (right). The estimation performances are correct whatever the signal-to-noise ratio considered.
Ce premier exemple démontre la pertinence de l'invention : elle permet une adaptation rapide d'un réseau de neurones lorsque l'on passe d'une première configuration à une deuxième configuration en modifiant un paramètre maintenu fixe durant la première configuration, en l'occurrence le rapport signal à bruit. On notera que le deuxième réseau de neurones a été paramétré à l'aide d'une base de données de 40 images, soit 50 fois moins que la base de données utilisée lors de l'apprentissage du premier réseau de neurones. This first example demonstrates the relevance of the invention: it allows rapid adaptation of a neural network when passing from a first configuration to a second configuration by modifying a parameter kept fixed during the first configuration, by occurrence the signal-to-noise ratio. It will be noted that the second neural network was parameterized using a database of 40 images, ie 50 times less than the database used during training of the first neural network.
Exemple 2 Au cours d'un deuxième exemple, les inventeurs sont passés d'une première configuration d'apprentissage, prenant en compte un défaut d'une première forme prédéterminée, à une deuxième configuration d'apprentissage, basée sur un deuxième forme, différente de la première forme. Le deuxième défaut est représenté sur les figures 4A et 4B. Example 2 During a second example, the inventors went from a first learning configuration, taking into account a defect of a first predetermined shape, to a second learning configuration, based on a second shape, different from the first form. The second fault is shown in Figures 4A and 4B.
Le deuxième défaut complexe, est de type fissure formant trois T présentant 23 caractéristiques de position ou de dimension : les caractéristiques XI, X2, X3, X4, X5, X6 sont des longueurs de branches selon un plan PXY ; les caractéristiques X7, X8, X9 et X10 sont des angles dans le plan PXY ; The second complex defect is of the crack type forming three Ts presenting 23 position or dimension characteristics: the characteristics X1, X2, X3, X4, X5, X6 are lengths of branches along a plane PXY; the characteristics X7, X8, X9 and X10 are angles in the PXY plane;
- les caractéristiques Xll, X12, X13, X14, X15, X16, X17, X18, X19 et X20 sont des caractéristiques de position; les caractéristiques X21, X22, X23, non représentées sur la figure 4B, sont les épaisseurs de chaque T perpendiculairement au plan PXY-- characteristics Xll, X12, X13, X14, X15, X16, X17, X18, X19 and X20 are position characteristics; the characteristics X21, X22, X23, not represented in FIG. 4B, are the thicknesses of each T perpendicular to the plane PXY-
Les inventeurs ont paramétré un réseau de neurones de référence CNNref, en constituant une base de données de référence DBref. La base de données de référence DBref comportait 2000 images, chaque image étant obtenue par une concaténation d'images de la partie réelle et de la partie imaginaire de la variation d'impédance, obtenues par simulation de mesures, selon 89x69 points de mesure régulièrement répartis selon un maillage matriciel. On a représenté, sur la figure 4A, la trajectoire du capteur. The inventors have parameterized a reference neural network CNN re f, by constituting a reference database DB re f. The DB reference database re f comprised 2000 images, each image being obtained by a concatenation of images of the real part and the imaginary part of the impedance variation, obtained by simulation of measurements, according to 89x69 measurement points regularly distributed according to a matrix mesh. The trajectory of the sensor has been shown in FIG. 4A.
Le réseau de neurones de référence CNNref était un réseau de neurones convolutif, d'une structure analogue aux réseaux de neurones CNNi et CNN2 décrits en lien avec le premier exemple. Les seules différences sont : la dimension de la couche d'entrée, cette dernière comportant deux images de dimension 89x69, correspondant respectivement à la partie réelle et à la partie imaginaire de la variation d'impédance AH ; la dimension de la couche de sortie, comportant 23 nœuds, chaque nœud correspondant à une estimation d'une dimension XI à X23. The reference neural network CNN ref was a convolutional neural network, of a structure analogous to the neural networks CNNi and CNN2 described in connection with the first example. The only differences are: the dimension of the input layer, the latter comprising two images of dimension 89×69, corresponding respectively to the real part and to the imaginary part of the impedance variation AH; the dimension of the output layer, comprising 23 nodes, each node corresponding to an estimate of a dimension X1 to X23.
La courbe (a) de la figure 4C montre la performance d'estimation (coefficient de détermination) des 23 dimensions à l'aide du réseau de neurones de référence. Les coefficients de détermination relatifs à chaque dimension ont été calculés sur la base d'une application du réseau de neurones de référence à 400 défauts différents. La performance d'estimation est très bonne, ce qui n'est pas surprenant car le réseau de neurones de référence est un réseau spécifiquement conçu pour cette forme de défaut. Les inventeurs ont comparé les performances du réseau de neurones de référence avec : d'une part un réseau de neurones auxiliaire issu d'une base de données réduite DBaux, établie de la même façon que la base de données de référence DBref, mais ne comportant que 50 images, correspondant à 50 jeux de dimensions différentes, d'autre part un réseau de neurones constitué selon l'invention. Curve (a) in Figure 4C shows the estimation performance (coefficient of determination) of the 23 dimensions using the reference neural network. The determination coefficients relating to each dimension were calculated on the basis of an application of the reference neural network to 400 different defects. The estimation performance is very good, which is not surprising since the reference neural network is a network specifically designed for this form of fault. The inventors compared the performance of the reference neural network with: on the one hand an auxiliary neural network derived from a reduced database DB aux , established in the same way as the reference database DB re f, but comprising only 50 images, corresponding to 50 sets of different dimensions, on the other hand a neural network formed according to the invention.
On a formé la base de données réduite DBaUx en se basant sur 50 jeux de caractéristiques X1...X23 différents. Le réseau de neurones auxiliaire a été paramétré sur la base de cette base de données réduite. La structure du réseau de neurones auxiliaire était identique à celle du réseau de neurone de référence CNNref. Les performances de classification sont reportées sur la figure 4C (courbe b). Sans surprise, les performances de classification sont médiocres, ce qui est dû au « sous-apprentissage » du réseau de neurones auxiliaire. Les coefficients de détermination relatifs à chaque dimension ont été calculés sur la base d'une application du réseau de neurones auxiliaire et du réseau de neurones selon l'invention à 400 défauts différents. The reduced DB aU x database was formed based on 50 different X1...X23 feature sets. The auxiliary neural network was parameterized based on this reduced database. The structure of the auxiliary neural network was identical to that of the reference neural network CNN ref . The classification performances are plotted in FIG. 4C (curve b). Unsurprisingly, the classification performance is poor, which is due to the “under-training” of the auxiliary neural network. The determination coefficients relating to each dimension were calculated on the basis of an application of the auxiliary neural network and of the neural network according to the invention to 400 different defects.
Les inventeurs ont constitué un réseau de neurones selon l'invention. Pour cela, un premier réseau de neurones CNNi a été paramétré, en utilisant une première base de données DBi comportant 2000 images résultant de simulations telles que décrites en lien avec le premier exemple, sur un défaut « simple », tel que représenté sur la figure 3A. La dimension de chaque image était de 89x69. La couche d'entrée était formée de deux images, représentant respectivement les parties réelle et imaginaire de la variation d'impédance AH mesurée en 89x69 points de mesure. De même que dans l'exemple 1, les points de mesure sont régulièrement répartis selon un maillage matriciel. Pour constituer la première base de données, on a fait varier les dimensions XI à X8 du défaut simple. The inventors have constituted a neural network according to the invention. For this, a first CNNi neural network was configured, using a first DBi database comprising 2000 images resulting from simulations as described in connection with the first example, on a "simple" defect, as shown in Fig. 3A. The dimension of each image was 89x69. The input layer was formed of two images, respectively representing the real and imaginary parts of the impedance variation AH measured at 89×69 measurement points. As in example 1, the measurement points are regularly distributed according to a matrix mesh. To constitute the first database, the dimensions XI to X8 of the single defect were varied.
Ils ont ensuite utilisé la base de données auxiliaire DBaux, spécifique au défaut complexe, en tant que deuxième base de données DB2, pour paramétrer un deuxième réseau de neurones CNN2, ce dernier utilisant le bloc d'extraction Ai du premier réseau de neurones CNNi. Le paramétrage du deuxième réseau de neurones s'est alors réduit à un paramétrage du bloc de classification B2 du deuxième réseau de neurones CNN2. Ce dernier correspond à un réseau de neurones selon l'invention. Le bloc de classification B2 du réseau de neurones convolutif CNN2 a été paramétré en modifiant des paramètres, considérés comme fixes durant la constitution du bloc d'extraction Ai du premier réseau de neurones convolutif CNNi. En l'occurrence, il s'agit de la forme du défaut. En effet, le bloc d'extraction Ai du premier réseau de neurones convolutif CNNi est paramétré en prenant en compte une forme simple de défaut (défaut en T représenté sur la figure 3A), tandis que le bloc de classification B2 du deuxième réseau de neurones convolutif CNN2 est paramétré en prenant en compte une forme différente (défaut complexe comportant trois T représenté sur la figure 4B). They then used the auxiliary database DB aux , specific to the complex defect, as a second database DB 2 , to parameterize a second neural network CNN 2 , the latter using the extraction block Ai of the first neural network CNNi neurons. The parameterization of the second neural network is then reduced to a parameterization of the classification block B 2 of the second neural network CNN 2 . The latter corresponds to a neural network according to the invention. The classification block B 2 of the convolutional neural network CNN 2 was parameterized by modifying parameters, considered to be fixed during the constitution of the extraction block Ai of the first convolutional neural network CNNi. In this case, it is the shape of the defect. Indeed, the extraction block Ai of the first convolutional neural network CNNi is parameterized by taking into account a simple form of defect (defect in T represented on the FIG. 3A), while the classification block B2 of the second convolutional neural network CNN2 is parameterized taking into account a different shape (complex defect comprising three Ts represented in FIG. 4B).
Le deuxième réseau de neurones CNN2 est un réseau de neurones selon l'invention. Les inventeurs ont mis en œuvre le deuxième réseau de neurones sur des images de test. Les performances d'estimation du réseau de neurones CNN2 sont représentées sur la figure 4C, courbe (c). On peut observer qu'un dépit d'un apprentissage réalisé avec la même base de données que le réseau auxiliaire, qui est une base de données frugale, les performances de classification sont supérieures à celles du réseau de neurones auxiliaires. Cela confirme l'intérêt de l'invention. The second neural network CNN 2 is a neural network according to the invention. The inventors implemented the second neural network on test images. The estimation performance of the CNN neural network 2 is represented in FIG. 4C, curve (c). It can be observed that despite a learning performed with the same database as the auxiliary network, which is a frugal database, the classification performances are superior to those of the auxiliary neural network. This confirms the advantage of the invention.
Variante 1 Variant 1
Dans les exemples qui précèdent, les données d'entrée des réseaux de neurones étaient formées de matrices résultant de simulations de mesures effectuées selon la modalité de courants de Foucault. L'invention peut s'appliquer à d'autres modalités usuellement pratiquées dans le domaine du contrôle non destructif, sous réserve que les données d'entrée soient présentées sous forme matricielle, assimilable à une image. Plus précisément, les autres modalités envisageables sont : les contrôles par ultrasons, selon lesquels une onde acoustique se propage à travers une pièce examinée. Cela concerne les mesures de type échographie, dans lesquelles les mesures sont généralement représentatives de la réflexion, par un défaut, d'une onde ultrasonore incidente. Cela concerne également la propagation d'ondes ultrasonores guidées. Dans ce type de modalité, les grandeurs physiques adressées sont les propriétés de propagation d'ondes ultrasonore dans la matière, la présence d'un défaut se traduisant par une variation des propriétés de propagation par rapport à une pièce en l'absence de défaut. On peut obtenir des images représentatives de la propagation d'une onde ultrasonore le long d'une pièce ou à travers cette dernière. In the preceding examples, the input data of the neural networks were formed of matrices resulting from simulations of measurements carried out according to the eddy current modality. The invention can be applied to other methods usually practiced in the field of non-destructive testing, provided that the input data is presented in matrix form, comparable to an image. More specifically, the other possible methods are: ultrasonic testing, in which an acoustic wave propagates through an examined part. This concerns ultrasound-type measurements, in which the measurements are generally representative of the reflection, by a defect, of an incident ultrasonic wave. This also concerns the propagation of guided ultrasonic waves. In this type of modality, the physical quantities addressed are the properties of propagation of ultrasonic waves in the material, the presence of a defect resulting in a variation of the properties of propagation with respect to a part in the absence of a defect. It is possible to obtain representative images of the propagation of an ultrasonic wave along or through a part.
Les contrôles par rayons X ou gamma, selon lesquels la pièce examinée est soumise à une irradiation par un rayonnement électromagnétique ionisant. La présence d'un défaut se traduit par une modification des propriétés de transmission du rayonnement d'irradiation. Les mesures permettent d'obtenir des images représentatives de la transmission du rayonnement d'irradiation à travers la pièce examinée. Inspections by X or gamma rays, according to which the examined part is subjected to irradiation by ionizing electromagnetic radiation. The presence of a defect results in a modification of the transmission properties of the irradiation radiation. The measurements make it possible to obtain images representative of the transmission of the irradiation radiation through the part examined.
Les contrôles par thermographie, selon lesquels la pièce examinée est soumise à une illumination par un rayonnement électromagnétique dans la bande spectrale infra- rouge. La présence d'un défaut se traduit par une modification des propriétés de réflexion du rayonnement d'illumination. Les mesures permettent d'obtenir des images représentatives de la réflexion du rayonnement d'illumination par la pièce examinée.Thermography inspections, according to which the examined part is subjected to illumination by electromagnetic radiation in the infra- Red. The presence of a defect results in a modification of the reflection properties of the illuminating radiation. The measurements make it possible to obtain images representative of the reflection of the illumination radiation by the part examined.
Les contrôles par mesures de paramètres de propagation d'une onde de flexion dans la pièce. Selon une telle modalité, on dispose des transducteurs sur la pièce, chaque transducteur étant configuré pour émettre ou détecter une onde de flexion se propageant à travers la plaque. Les paramètres de propagation de l'onde (en particulier vitesse de groupe et/ou l'amplitude) dépendent des propriétés élastiques de la pièce, et notamment de la densité et du module d'Young. Ces derniers dépendent de la température de la pièce. Ainsi, les paramètres de propagation de l'onde de flexion permettent d'estimer la température de la pièce. Lorsqu'on dispose de différents transducteurs piézoélectriques disposés ponctuellement autour d'une partie de la pièce, on peut définir plusieurs couples émetteurs/détecteurs. Il est alors possible d'estimer une distribution spatiale de la température dans la partie de pièce délimitée par les transducteurs, selon des algorithmes de reconstruction connus de l'homme du métier. Le défaut peut être une anomalie dans la distribution spatiale de la température par rapport à une distribution spatiale de référence. Controls by measurement of propagation parameters of a bending wave in the part. According to such a modality, transducers are arranged on the part, each transducer being configured to emit or detect a bending wave propagating through the plate. The wave propagation parameters (in particular group speed and/or amplitude) depend on the elastic properties of the part, and in particular on the density and the Young's modulus. These depend on the room temperature. Thus, the propagation parameters of the bending wave make it possible to estimate the temperature of the part. When different piezoelectric transducers are available punctually around a part of the part, several emitter/detector pairs can be defined. It is then possible to estimate a spatial distribution of the temperature in the part of the room delimited by the transducers, according to reconstruction algorithms known to those skilled in the art. The defect may be an anomaly in the spatial distribution of the temperature with respect to a reference spatial distribution.
Variante 2 Variant 2
Selon une autre variante, lors du premier apprentissage, on met en œuvre un premier bloc d'extraction Ai couplé à un bloc de reconstruction B'i. A l'instar du premier bloc de classification Bi précédemment décrit, le bloc de reconstruction B'i est un bloc de traitement des données extraites par le premier bloc d'extraction Ai. Cette variante met en œuvre un premier réseau de neurones CNN'i, de type auto-encodeur. Comme représenté sur la figure 5, le premier réseau de neurones comporte le bloc d'extraction Ai et le bloc de reconstruction B'i. According to another variant, during the first learning, a first extraction block Ai is implemented coupled with a reconstruction block B′i. Like the first classification block Bi previously described, the reconstruction block B′i is a block for processing the data extracted by the first extraction block Ai. This variant implements a first neural network CNN'i, of the auto-encoder type. As represented in FIG. 5, the first neural network comprises the extraction block Ai and the reconstruction block B′i.
De façon connue de l'homme du métier, un réseau de neurones de type auto-encodeur est une structure comportant un bloc d'extraction Ai, dit encodeur, permettant d'extraire une information pertinente à partir d'une donnée d'entrée Ain, définie dans un espace de départ. La donnée d'entrée est ainsi projetée dans un espace, dit espace latent. Dans l'espace latent, l'information extraite par le bloc d'extraction est appelée code. L'auto-encodeur comporte un bloc de reconstruction B'i, permettant une reconstruction du code, de façon à obtenir une donnée de sortie Aout, définie dans un espace généralement identique à l'espace de départ. L'apprentissage est effectué de façon à minimiser une erreur entre la donnée d'entrée Ain et la donnée de sortie Aout. Suite à l'apprentissage, le code, extrait par le bloc d'extraction, est considéré comme représentatif des caractéristiques principales de la donnée d'entrée. Autrement dit, le bloc d'extraction Ai permet une compression de l'information contenue dans la donnée d'entrée Ain. In a manner known to those skilled in the art, a neural network of the auto-encoder type is a structure comprising an extraction block Ai, called encoder, making it possible to extract relevant information from an input datum Ain , defined in a starting space. The input datum is thus projected into a space, called latent space. In latent space, the information extracted by the extraction block is called code. The auto-encoder comprises a reconstruction block B′i, allowing reconstruction of the code, so as to obtain an output datum A out , defined in a space generally identical to the starting space. The learning is carried out in such a way as to minimize an error between the input datum A in and the output data A or t. Following learning, the code, extracted by the extraction block, is considered to be representative of the main characteristics of the input data. In other words, the extraction block Ai allows compression of the information contained in the input datum A in .
Le premier réseau de neurones peut notamment être de type auto-encodeur convolutif : chaque couche du bloc d'extraction Ai résulte de l'application d'un noyau de convolution à une couche précédente. Sur la figure 5, on a représenté les couches de convolution Ci...Cj...Cj, la couche Cj étant la dernière couche du bloc d'extraction Ai, comportant le code. On a également représenté les couches Di...Dj...Dj du bloc de traitement B'i, la couche Dj correspondant à la donnée de sortie Aout. The first neural network can in particular be of the convolutional auto-encoder type: each layer of the extraction block Ai results from the application of a convolution kernel to a preceding layer. In FIG. 5, the convolution layers Ci...Cj...Cj have been represented, the layer Cj being the last layer of the extraction block Ai, comprising the code. The layers Di...Dj...Dj of the processing block B'i have also been shown, the layer Dj corresponding to the output datum A or t.
Contrairement au bloc de classification Bi, précédemment décrit, le bloc de reconstruction B'i ne vise pas à déterminer les caractéristiques d'un défaut. Le bloc de reconstruction permet une reconstruction de la donnée sortie Aout, sur la base du code (couche Cj), la reconstruction étant aussi fidèle que possible à la donnée d'entrée Ain. Le bloc de classification Bi et le bloc de reconstruction B'i sont utilisés à une même finalité : permettre un paramétrage du premier bloc d'extraction Ai, ce dernier pouvant être utilisé durant le deuxième apprentissage, pour paramétrer le deuxième bloc de classification B2. Contrary to the classification block Bi, previously described, the reconstruction block B′i does not aim to determine the characteristics of a defect. The reconstruction block allows a reconstruction of the output datum A or t, on the basis of the code (layer Cj), the reconstruction being as faithful as possible to the input datum Ai n . The classification block Bi and the reconstruction block B'i are used for the same purpose: to allow parameterization of the first extraction block Ai, the latter being able to be used during the second learning, to parameterize the second classification block B 2 .
Selon cette variante, le procédé suit les étapes 100 à 210 précédemment décrites en lien avec la figure 2B. Le premier apprentissage (étape 110) consiste à paramétrer le bloc d'extraction Ai. Il peut être effectué sur la base d'au moins une première base de données. L'utilisation d'un auto-encodeur permet de combiner différentes premières bases de données. Certaines bases de données sont représentatives de pièces saines, sans défaut, tandis que d'autres bases de données sont représentatives de pièces comportant un défaut. Par exemple, on peut combiner : des bases de données rassemblant des mesures effectuées sur une pièce saine, à différentes températures, cela pour apprendre l'effet d'une variation de température sur les mesures ; des bases de données rassemblant des mesures effectuées sur une pièce comportant un défaut, à une température constante, cela pour apprendre l'effet de la présence d'un défaut sur les mesures. According to this variant, the method follows steps 100 to 210 previously described in connection with FIG. 2B. The first learning (step 110) consists in setting the extraction block Ai. It can be performed on the basis of at least a first database. The use of an auto-encoder makes it possible to combine different first databases. Some databases are representative of healthy parts, without defects, while other databases are representative of parts with a defect. For example, it is possible to combine: databases bringing together measurements taken on a healthy part, at different temperatures, in order to learn the effect of a temperature variation on the measurements; databases gathering measurements taken on a part with a defect, at a constant temperature, in order to learn the effect of the presence of a defect on the measurements.
Le fait d'effectuer un premier apprentissage en combinant différentes bases de données, représentatives de situations différentes, permet d'obtenir un bloc d'extraction de données concentrant l'information utile de chaque image. A la suite de l'apprentissage, les étapes 120 à 210 sont effectuées comme précédemment décrit. Il s'agit d'effectuer un deuxième apprentissage, sur la base de la deuxième base de données, de façon à paramétrer un bloc de classification B2, en utilisant le bloc d'extraction Ai résultant du premier apprentissage. The fact of carrying out a first learning by combining different databases, representative of different situations, makes it possible to obtain a data extraction block concentrating the useful information of each image. Following learning, steps 120 to 210 are performed as previously described. This involves carrying out a second learning, on the basis of the second database, so as to parameterize a classification block B2, by using the extraction block Ai resulting from the first learning.

Claims

27 REVENDICATIONS 27 CLAIMS
1. Procédé de caractérisation d'une pièce (10), la pièce étant susceptible de comporter un défaut (11), le procédé comportant les étapes suivantes : a) réalisation de mesures non destructives à l'aide d'un capteur (1), le capteur étant disposé sur la pièce ou face à la pièce ; b) formation d'au moins une matrice de mesures (M) à l'aide des mesures effectuées lors de l'étape a); c) utilisation de la matrice en tant que donnée d'entrée d'un réseau de neurones convolutif (CNN2), le réseau de neurones convolutif comportant : 1. Method for characterizing a part (10), the part being likely to comprise a defect (11), the method comprising the following steps: a) carrying out non-destructive measurements using a sensor (1) , the sensor being arranged on the part or facing the part; b) formation of at least one measurement matrix (M) using the measurements carried out during step a); c) use of the matrix as input data for a convolutional neural network (CNN2), the convolutional neural network comprising:
- un bloc d'extraction (Ai), configuré pour extraire des caractéristiques de chaque donnée d'entrée ; - an extraction block (Ai), configured to extract characteristics from each input datum;
- un bloc de classification (B2), configuré pour effectuer une classification des caractéristiques extraites par le bloc d'extraction, le bloc de classification débouchant sur une couche de sortie comportant au moins un nœud ; d) en fonction de la valeur de chaque nœud de la couche de sortie, détection de la présence d'un défaut dans la pièce, et caractérisation éventuelle du défaut détecté ; le procédé comportant, préalablement aux étapes c) et d) : - a classification block (B2), configured to carry out a classification of the characteristics extracted by the extraction block, the classification block leading to an output layer comprising at least one node; d) depending on the value of each node of the output layer, detection of the presence of a defect in the part, and possible characterization of the detected defect; the method comprising, prior to steps c) and d):
- constitution d'une première base de données (DB1), la première base de données comportant des mesures effectuées ou simulées, sur une première pièce modèle, selon une première configuration, la première configuration étant paramétrée par des paramètres (Pi), choisis parmi : - constitution of a first database (DB1), the first database comprising measurements carried out or simulated, on a first model part, according to a first configuration, the first configuration being parameterized by parameters (Pi), chosen from among :
• type de mesure : expérimentale ou simulée; • type of measurement: experimental or simulated;
• forme de la pièce modèle; • shape of the model part;
• matériau formant la pièce modèle; • material forming the model part;
• conditions de mesure; • measurement conditions;
• type de défaut considéré; • type of defect considered;
• localisation du défaut dans la pièce modèle; • location of the defect in the model part;
• forme du défaut dans la pièce modèle; • shape of the defect in the model part;
• au moins une dimension du défaut de la pièce modèle ; la première base de données étant formée en considérant au moins un desdits paramètres variable et au moins un desdits paramètres fixe, la première base de données comportant des mesures effectuées ou simulées en présence du défaut dans la pièce modèle; - prise en compte d'un premier réseau de neurones (CNNi, CNN'i), comportant un bloc d'extraction (Ai) et un bloc de traitement (Bi, B'i), le bloc de traitement étant configuré pour traiter des caractéristiques extraites par le bloc d'extraction, le premier réseau de neurones ayant fait d'objet d'un premier apprentissage, en utilisant la première base de données (DBi); le procédé étant caractérisé en ce qu'il comporte également : • at least one dimension of the defect of the model part; the first database being formed by considering at least one of said variable parameters and at least one of said fixed parameters, the first database comprising measurements made or simulated in the presence of the defect in the model part; - taking into account a first neural network (CNNi, CNN'i), comprising an extraction block (Ai) and a processing block (Bi, B'i), the processing block being configured to process characteristics extracted by the extraction block, the first neural network having been the subject of a first training, using the first database (DBi); the method being characterized in that it also comprises:
- une constitution d'une deuxième base de données (DB2), comportant des mesures effectuées ou simulées sur une deuxième pièce modèle, représentative de la pièce caractérisée, selon une deuxième configuration, la deuxième configuration étant paramétrée en modifiant au moins un paramètre fixe de la première configuration ;- a constitution of a second database (DB2), comprising measurements carried out or simulated on a second model part, representative of the characterized part, according to a second configuration, the second configuration being parameterized by modifying at least one fixed parameter of the first configuration;
- un deuxième apprentissage, en utilisant la deuxième base de données (DB2), de façon à configurer un deuxième réseau de neurones convolutif (CNN2), le deuxième réseau de neurones convolutif comportant le bloc d'extraction (Ai) du premier réseau de neurones (CNNi, CNN'l), et un bloc de classification (B2), ce dernier étant configuré lors du deuxième apprentissage ; - a second training, using the second database (DB2), so as to configure a second convolutional neural network (CNN2), the second convolutional neural network comprising the extraction block (Ai) of the first neural network (CNNi, CNN'1), and a classification block (B2), the latter being configured during the second learning;
- de telle sorte que lors de l'étape c), le réseau de neurones utilisé est le deuxième réseau de neurones convolutif (CNN2), résultant du deuxième apprentissage. - so that during step c), the neural network used is the second convolutional neural network (CNN 2 ), resulting from the second learning.
2. Procédé selon l'une quelconque des revendications précédentes, dans lequel le bloc de traitement du premier réseau de neurones est un bloc de classification (Bi), configuré, lors du premier apprentissage, pour effectuer une classification des caractéristiques extraites par le bloc d'extraction, le premier réseau de neurones étant un réseau de neurones convolutif (CNNi). 2. Method according to any one of the preceding claims, in which the processing block of the first neural network is a classification block (Bi), configured, during the first learning, to carry out a classification of the characteristics extracted by the block d extraction, the first neural network being a convolutional neural network (CNNi).
3. Procédé selon la revendication 2, dans lequel lors du deuxième apprentissage, le bloc de classification du deuxième réseau de neurones (B2) est initialisé en utilisant le bloc de classification du premier réseau de neurones (Bi). 3. Method according to claim 2, in which during the second training, the classification block of the second neural network (B2) is initialized by using the classification block of the first neural network (Bi).
4. Procédé selon la revendication 1, dans lequel le premier réseau de neurones (CNN'i) est de type auto-encodeur, ledit bloc de traitement (B'i) du premier réseau de neurones étant configuré, lors du premier apprentissage, pour reconstruire des données, issues de la première base de données (DBi), et formant des données d'entrée du premier réseau de neurones. 4. Method according to claim 1, in which the first neural network (CNN′i) is of the auto-encoder type, said processing block (B′i) of the first neural network being configured, during the first learning, to reconstructing data, coming from the first database (DBi), and forming input data of the first neural network.
5. Procédé selon l'une quelconque des revendications précédentes, dans lequel le défaut est de type : délaminage, et/ou fissure, et/ou perforation et/ou fissure se propageant à partir d'une perforation et/ou présence d'une zone poreuse et/ou une présence d'une inclusion et/ou présence de corrosion. 5. Method according to any one of the preceding claims, in which the defect is of the type: delamination, and/or crack, and/or perforation and/or crack propagating from a perforation and/or presence of a porous zone and/or the presence of an inclusion and/or the presence of corrosion.
6. Procédé selon l'une quelconque des revendications 1 à 4, dans lequel la pièce est constituée d'un matériau composite, composant des composants assemblés les uns aux autres, dans lequel le défaut est un défaut d'assemblage entre les composants. 6. Method according to any one of claims 1 to 4, in which the part is made of a composite material, comprising components assembled to each other, in which the defect is an assembly defect between the components.
7. Procédé selon l'une quelconque des revendications précédentes, dans lequel les mesures sont représentatives d'une distribution spatiale : 7. Method according to any one of the preceding claims, in which the measurements are representative of a spatial distribution:
- de propriétés électriques ou magnétiques ou mécaniques de la pièce ; - electrical, magnetic or mechanical properties of the part;
- et/ou de dimensions de la pièce ; - and/or dimensions of the room;
- et/ou de propriétés de propagation d'une onde acoustique ou mécanique ou électromagnétique à travers ou le long de la pièce ; - and/or propagation properties of an acoustic, mechanical or electromagnetic wave through or along the part;
- et/ou de propriétés de réflexion d'une onde acoustique ou mécanique ou d'une onde électromagnétique visible ou infra-rouge par la pièce ; - and/or properties of reflection of an acoustic or mechanical wave or of a visible or infrared electromagnetic wave by the part;
- et/ou de propriétés de transmission d'une onde électromagnétique X ou gamma par la pièce. - and/or transmission properties of an X or gamma electromagnetic wave by the part.
- et/ou d'une température de la pièce. - and/or a room temperature.
8. Procédé selon la revendication 7, dans lequel le défaut est une variation de la distribution spatiale par rapport à une distribution spatiale de référence. 8. Method according to claim 7, in which the defect is a variation of the spatial distribution with respect to a reference spatial distribution.
9. Procédé selon l'une quelconque des revendications précédentes, dans lequel les mesures sont de type : 9. Method according to any one of the preceding claims, in which the measurements are of the type:
- mesure de courants de Foucault formés dans la pièce sous l'effet d'une excitation de la pièce par un champ magnétique ; - measurement of eddy currents formed in the part under the effect of excitation of the part by a magnetic field;
- ou mesure d'ondes acoustiques ou mécanique se propageant à travers ou le long de la pièce ; - or measurement of acoustic or mechanical waves propagating through or along the part;
- ou mesure de la réflexion d'une lumière infra-rouge ou visible lorsque la pièce est illuminée par une lumière infra-rouge ou visible ; - or measurement of the reflection of infrared or visible light when the part is illuminated by infrared or visible light;
- ou mesure de la transmission d'un rayonnement X ou gamma à travers la pièce lorsque ladite pièce est irradiée par une source de rayonnement X ou gamma. - or measurement of the transmission of X or gamma radiation through the part when said part is irradiated by a source of X or gamma radiation.
10. Procédé selon l'une quelconque des revendications précédentes, dans lequel : - la première base de données (DBi) est constituée à partir de mesures simulées ; 10. Method according to any one of the preceding claims, in which: - the first database (DBi) is formed from simulated measurements;
- et la deuxième base de données (DB2) est formée à partir de mesures effectuées expérimentalement; ou - and the second database (DB2) is formed from measurements carried out experimentally; Where
- la première base de données est constituée à partir de mesures effectuées expérimentalement ; - the first database is made up from measurements carried out experimentally;
- et la deuxième base de donnée est formée à partir de mesures simulées ; ou - and the second database is formed from simulated measurements; Where
- la première base de données et la deuxième base de données sont constituées à partir de mesures simulées ; ou - the first database and the second database are formed from simulated measurements; Where
- la première base de données et la deuxième base de données sont constituées à partir de mesures expérimentales. - the first database and the second database are formed from experimental measurements.
11. Procédé selon l'une quelconque des revendications précédentes, dans lequel les conditions de mesure comprennent au moins : 11. Method according to any one of the preceding claims, in which the measurement conditions comprise at least:
- positionnement du capteur par rapport à la pièce modèle et/ou nombre de capteurs ;- positioning of the sensor relative to the model part and/or number of sensors;
- température et/ou humidité et/ou conditions environnementales à laquelle est mis en œuvre le capteur ; - temperature and/or humidity and/or environmental conditions at which the sensor is implemented;
- état de surface de la pièce inspectée ; - surface condition of the part inspected;
- niveau de bruit de mesure ; - measurement noise level;
- type de capteur utilisé ; - type of sensor used;
- incertitudes associées aux mesures. - uncertainties associated with the measurements.
12. Procédé selon l'une quelconque des revendications précédentes, dans lequel la première pièce modèle et la deuxième pièce modèle sont identiques. 12. Method according to any one of the preceding claims, in which the first model part and the second model part are identical.
13. Procédé selon l'une quelconque des revendications 1 à 11, dans lequel : 13. Method according to any one of claims 1 to 11, in which:
- la deuxième pièce modèle a une forme différente de la première pièce modèle ; - the second model part has a different shape from the first model part;
- et/ou la deuxième pièce modèle est formée d'un matériau différent de la première pièce modèle. - And/or the second model part is made of a different material from the first model part.
14. Procédé selon l'une quelconque des revendications précédentes, dans lequel la deuxième base de données comporte un nombre de données inférieur au nombre de données de la première base de données. 31 Procédé selon l'une quelconque des revendications précédentes, dans lequel la caractérisation du défaut comporte : 14. Method according to any one of the preceding claims, in which the second database comprises a number of data items lower than the number of data items in the first database. 31 Method according to any one of the preceding claims, in which the characterization of the defect comprises:
- une identification du type de défaut, parmi des types prédéterminés ; - an identification of the type of fault, among predetermined types;
- et/ou une estimation d'au moins une dimension du défaut ; - et/ou une localisation du défaut dans la pièce. - and/or an estimate of at least one dimension of the defect; - and/or location of the fault in the part.
- et/ou détermination d'un nombre de défauts dans la pièce. - and/or determination of a number of defects in the part.
EP21756011.9A 2020-08-19 2021-08-19 Method for characterizing a part through non-destructive inspection Pending EP4200603A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2008564A FR3113529B1 (en) 2020-08-19 2020-08-19 Part characterization process by non-destructive testing
PCT/EP2021/073061 WO2022038233A1 (en) 2020-08-19 2021-08-19 Method for characterizing a part through non-destructive inspection

Publications (1)

Publication Number Publication Date
EP4200603A1 true EP4200603A1 (en) 2023-06-28

Family

ID=74347143

Family Applications (1)

Application Number Title Priority Date Filing Date
EP21756011.9A Pending EP4200603A1 (en) 2020-08-19 2021-08-19 Method for characterizing a part through non-destructive inspection

Country Status (5)

Country Link
US (1) US20230314386A1 (en)
EP (1) EP4200603A1 (en)
CA (1) CA3188699A1 (en)
FR (1) FR3113529B1 (en)
WO (1) WO2022038233A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2721111A1 (en) * 1994-06-10 1995-12-15 Icpi Lyon Geometric and acoustic property determn. method for submerged layer of material in fluid such as air or water
US10551297B2 (en) * 2017-09-22 2020-02-04 Saudi Arabian Oil Company Thermography image processing with neural networks to identify corrosion under insulation (CUI)
FR3075376B1 (en) * 2017-12-14 2020-05-22 Safran NON-DESTRUCTIVE INSPECTION PROCESS FOR AN AERONAUTICAL PART

Also Published As

Publication number Publication date
FR3113529A1 (en) 2022-02-25
FR3113529B1 (en) 2023-05-26
US20230314386A1 (en) 2023-10-05
CA3188699A1 (en) 2022-02-24
WO2022038233A1 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
WO2019091705A1 (en) Structural health monitoring for an industrial structure
EP3555585B1 (en) Method and system for controlling the integrated health of a mechanical structure by diffuse elastic waves
CN109858408B (en) Ultrasonic signal processing method based on self-encoder
CN107576633B (en) Method for detecting internal defects of optical element by using improved 3PIE technology
EP4200604A1 (en) Method for characterizing a part through non-destructive inspection
CN110286155B (en) Damage detection method and system for multilayer composite material
Rao et al. Quantitative reconstruction of defects in multi-layered bonded composites using fully convolutional network-based ultrasonic inversion
CN117540174B (en) Building structure multi-source heterogeneous data intelligent analysis system and method based on neural network
Olivieri et al. Near-field acoustic holography analysis with convolutional neural networks
Singh et al. Real-time super-resolution mapping of locally anisotropic grain orientations for ultrasonic non-destructive evaluation of crystalline material
Ghafoor et al. Non-contact detection of railhead defects and their classification by using convolutional neural network
Singh et al. Deep learning based inversion of locally anisotropic weld properties from ultrasonic array data
WO2024074379A1 (en) Method for bi-level optimisation of the location of sensors for detecting one or more defects in a structure using elastic guided wave tomography
EP4200603A1 (en) Method for characterizing a part through non-destructive inspection
FR3075376A1 (en) NON-DESTRUCTIVE CONTROL METHOD FOR AERONAUTICAL WORKPIECE
Gantala et al. Automated defect recognition (ADR) for monitoring industrial components using neural networks with phased array ultrasonic images
Helvig et al. Towards deep learning fusion of flying spot thermography and visible inspection for surface cracks detection on metallic materials
EP3140677B1 (en) Method for processing seismic images
Masurkar et al. Estimating the elastic constants of orthotropic composites using guided waves and an inverse problem of property estimation
FR3057357A1 (en) METHOD AND DEVICE FOR DETECTING AND CHARACTERIZING REFLECTIVE ELEMENT IN AN OBJECT
EP3071992A1 (en) Method for reconstructing a surface of a part
Ijjeh et al. Delamination identification using global convolution networks
Kim Identification of the local stiffness reduction of a damaged composite plate using the virtual fields method
Abruzzo et al. Identifying Mergers Using Quantitative Morphologies in Zoom Simulations of High-Redshift Galaxies
Fisher et al. Deep Learning Method Based on Denoising Autoencoders for Temperature Selection of Guided Waves Signals

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230216

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: COMMISSARIAT A L'ENERGIE ATOMIQUE ET AUX ENERGIESALTERNATIVES