WO2020038885A1 - Improved imaging method and imaging device for imaging an object - Google Patents

Improved imaging method and imaging device for imaging an object Download PDF

Info

Publication number
WO2020038885A1
WO2020038885A1 PCT/EP2019/072136 EP2019072136W WO2020038885A1 WO 2020038885 A1 WO2020038885 A1 WO 2020038885A1 EP 2019072136 W EP2019072136 W EP 2019072136W WO 2020038885 A1 WO2020038885 A1 WO 2020038885A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging method
pixel
pixels
imaging
Prior art date
Application number
PCT/EP2019/072136
Other languages
French (fr)
Inventor
Olivier MESNIL
Pierre CALMON
Hamza CHOUH
Jean-François David
Original Assignee
Commissariat A L'energie Atomique Et Aux Energies Alternatives
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat A L'energie Atomique Et Aux Energies Alternatives filed Critical Commissariat A L'energie Atomique Et Aux Energies Alternatives
Priority to EP19753387.0A priority Critical patent/EP3841400A1/en
Publication of WO2020038885A1 publication Critical patent/WO2020038885A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52085Details related to the ultrasound signal acquisition, e.g. scan sequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/043Analysing solids in the interior, e.g. by shear waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/06Visualisation of the interior, e.g. acoustic microscopy
    • G01N29/0654Imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/07Analysing solids by measuring propagation velocity or propagation time of acoustic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/11Analysing solids by measuring attenuation of acoustic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/22Details, e.g. general constructional or apparatus details
    • G01N29/26Arrangements for orientation or scanning by relative movement of the head and the sensor
    • G01N29/262Arrangements for orientation or scanning by relative movement of the head and the sensor by electronic orientation or focusing, e.g. with phased arrays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8977Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using special techniques for image reconstruction, e.g. FFT, geometrical transformations, spatial deconvolution, time deconvolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • G06T3/4076Super resolution, i.e. output image resolution higher than sensor resolution by iteratively correcting the provisional high resolution image using the original low-resolution image

Definitions

  • the invention relates to the field of imaging by ultrasound or more generally by elastic waves. It applies in particular to the non-destructive testing of objects or parts. Non-destructive testing aims in particular to detect the presence of possible faults in a room, to locate and size them.
  • the invention relates more particularly to an improved imaging method with adaptive subsampling which makes it possible to reduce the algorithmic complexity, in other words the number of operations and the computation time necessary to obtain an image compared to an imaging method. by conventional elastic waves.
  • Non-destructive testing of structures or materials has many applications, in particular, but not exclusively, in the fields of the petroleum industry, the naval industry, aeronautics, the automotive industry or even the steel industry or of the energy industry.
  • TFM Total Focusing Method
  • each component element of the multi-element sensor or transducer successively emits an ultrasonic wave, while all the elements are active in reception.
  • N * N signals are therefore acquired.
  • TFM imagery consists in displaying in each of the pixels of the imaged area the sum of the N 2 signals delayed by the theoretical flight time associated with the position of the pixel in the area. In doing so, an image is obtained presenting high intensity spots where the reflectors responsible for the received echoes are present. These reflectors are most often associated with geometric discontinuities corresponding to defects or even edges of the part for example. This method therefore makes it possible to precisely image the interior of a structure, by highlighting the reflectors of ultrasonic waves (corresponding to faults such as holes or cracks ).
  • the image calculation time is therefore proportional to the coefficient P * N 2 .
  • This computation time limits the resolution of the grid (or else the size of the image) compatible with the computation constraint of the image in real time, in particular in portable devices, which are naturally limited in terms of mass and size, used to perform on-site inspections. Even if portable devices integrating the TFM imaging process in real time exist, they are expensive and massive in particular because of the calculation system necessary for imaging. This limitation is currently an obstacle to the deployment of the TFM imaging technique.
  • a problem to be solved consists in reducing the number of calculations and / or the calculation time necessary to obtain an image at a given resolution with a view to using this image to detect and characterize faults in a part to be inspected and this, in real time.
  • Another objective of the invention is to provide an imaging method whose calculations are parallelizable so as not to limit the speed of calculation of an image.
  • references [1], [2], [3] and [4] References [1] and [2] describe optimized implementations for GPU (Graphics Processing Unit) type graphics processors. References [3] and [4] describe implementations for programmable logic circuits of the FPGA (Field Programmable Gate Array) type.
  • the invention proposes an imaging method implementing an adaptive and optimized subsampling in order to achieve high resolution in certain areas of interest of the image which correspond to the areas of the object to be imaged in which reflectors are present, while limiting the resolution of the image in areas of less interest from the point of view of object inspection.
  • the invention makes it possible to limit the computing power necessary for the acquisition and calculation of an image to reduce the cost of the associated computing device.
  • the invention also proposes the use of a barycentric interpolation based on a triangular mesh of an incomplete image to make the density of the pixels in the final image uniform.
  • the image obtained via the invention having a higher pixel density in the areas of interest, it is advantageous to transform it to make the pixel density uniform while maintaining an optimal resolution in the areas of interest .
  • the subject of the invention is therefore an imaging method for imaging an object using an imaging device comprising a plurality of transmitters capable of emitting an elastic wave in the object to be imaged and a plurality of receivers able to receive an elastic wave coming from the object to be imaged, said method comprising the steps of:
  • the first level of spatial sampling is defined by decomposing the object into cells and selecting a point in each cell.
  • the selection of a point in each cell follows a random distribution or a predefined distribution.
  • the imaging method according to the invention further comprises a step of oversampling the first image by assigning to each pixel of a point of a cell the value of the pixel calculated for the selected point of said cell.
  • the imaging method according to the invention further comprises a step of oversampling the first image by performing an interpolation of the pixels of the first image.
  • the interpolation is polynomial, linear or carried out by the Gaussian method.
  • At least one area of interest is enlarged by integrating all the points located at a predetermined distance from the area of interest.
  • the predetermined distance depends on the wavelength of the elastic wave.
  • an area of interest comprises at least one pixel whose value is a local extremum.
  • the definition, in the first image, of at least one area of interest of the object to be imaged comprises the sub-steps of:
  • the image of the object is a two-dimensional or three-dimensional image.
  • the imaging method according to the invention further comprises the prior steps of:
  • each receiver an elastic wave coming from the object to be imaged.
  • the determination of an image of the object comprises the calculation of a plurality of pixels each corresponding to a point of the object by executing the substeps of:
  • the elastic wave is an ultrasonic wave or a guided wave.
  • the step of applying a barycentric interpolation to the second image comprises the sub-steps of:
  • the step of applying a barycentric interpolation to the second image comprises:
  • Each new pixel being calculated from an elementary triangle defined by three pixels already calculated and in which the new pixel is located.
  • the steps of defining at least one area of interest of the object to be imaged and of determining a second image of the object are carried out by means of the following recursive steps:
  • N being an integer greater than or equal to 1,
  • the score calculated for a sub-zone depends on the amplitudes of the pixels calculated for the center and the cardinal points of the sub-zone.
  • the subject of the invention is also an imaging device for imaging an object, the device comprising an interface for receiving a plurality of signals received by a plurality of receivers capable of receiving an elastic wave coming from an object to be imaged and an imager configured to implement the steps of the imaging method according to any one of the embodiments of the invention.
  • the imaging device comprises a plurality of transmitters capable of emitting an elastic wave in the object to be imaged and a plurality of receivers capable of receiving an elastic wave coming from the object to be imaged imaged.
  • FIG. 1 a diagram of an imaging device according to an embodiment of the invention
  • FIG. 2 a flowchart detailing the steps for implementing an imaging method according to different embodiments of the invention
  • FIGS. 3a, 3a-bis, 3b, 3c, 3d an example illustrating the imagery of a room
  • FIGS. 3a, 3a-bis, 3b, 3c, 3d five examples of images obtained after different intermediate stages of the method according to an embodiment of the invention applied to the part described in FIG. 3,
  • FIGS. 4a, 4b, 4c three other examples of images obtained after different intermediate stages of the method according to another embodiment of the invention.
  • FIG. 5 an illustration of the operation of a barycentric interpolation step
  • FIG. 6 a flowchart detailing the steps for implementing another embodiment of the method according to the invention.
  • FIGS. 7a, 7b, 7c several diagrams illustrating certain steps of the method of FIG. 6,
  • FIGS. 8a, 8b several diagrams illustrating the principle of oversampling of the areas of interest according to the method described in FIG. 6,
  • Figures 9a, 9b, 9c several diagrams illustrating the principle of barycentric interpolation applied to the embodiment described in Figure 6.
  • Figure 1 shows, in a diagram, an example of elastic wave imaging device according to a mode for carrying out the invention.
  • Such a device comprises at least one multi-element transducer TR comprising a plurality of transmitters / receivers of elastic waves Cj, C j .
  • Each element Ci, C j of the transducer TR is able to emit an elastic wave in an object OBJ and to receive an elastic wave coming from an object.
  • the elastic wave is, for example, an ultrasonic wave or a guided wave.
  • the transducer TR is, for example, a piezoelectric sensor.
  • the transmitters / receivers Ci, C j are arranged linearly, in the form of a matrix or distributed at different positions on or near the object.
  • the device In the case of a linear compact arrangement, the device is capable of producing an image in two dimensions of an object plane.
  • the device is capable of producing a three-dimensional image of a volume of a part of the object.
  • a coupling fluid is sometimes placed between the imaging device. and the object to be imaged.
  • the coupling fluid is, for example, water.
  • the device according to the invention further comprises an imager IMG configured to determine an image of the object OBJ from the signals received by the receivers of the transducer TR.
  • the IMG imager is, for example, a graphics processor, a signal processor or an integrated circuit, a programmable logic circuit, an application-specific integrated circuit or any other equivalent device that can be configured to execute the steps of the method according to the any of the embodiments of the invention.
  • the device according to the invention can also include an AFF display, such as a screen or any other man-machine interface, to restore to a user an image of the object OBJ determined by the imager IMG.
  • the image can be two-dimensional or three-dimensional.
  • the device only includes the IMG imager which receives the signals measured by the receivers of the multi-element transducer TR by means of a suitable interface.
  • the TR transducer is distinct from the IMG imager which may or may not be associated with an AFF display.
  • FIG. 2 details the steps for carrying out an imaging method according to an embodiment of the invention, the method being implemented by means of a device of the type described in FIG. 1.
  • a first step 201 of the method consists in determining an acquisition of signals using a multi-element transducer of the type described in FIG. 1.
  • This step 201 can be carried out in different ways.
  • the general principle of such an acquisition consists in successively transmitting, by means of each transmitter of the multi-element transducer, an elastic wave suitable for propagating in the object to be imaged, then in successively acquiring, by means of each receiver of the multi-element transducer, each of the signals transmitted by each transmitter.
  • Figure 1 there is shown the path of an elastic wave emitted by a transmitter C j propagating in an object OBJ, the wave is reflected on a point P of the object then is received by a receiver C ,.
  • the wave can be an ultrasonic wave or a guided wave.
  • the total number of signals acquired is equal to N 2 .
  • the acquisition procedure, the object of step 201 of the method follows, for example, a procedure of the “Full Matrix Capture” or FMC type.
  • a second step 202 of the method consists in carrying out a spatial pre-sampling of the image, at low density.
  • a pixel corresponding to an image of the object is determined for a first set of points Qi of the object to be imaged.
  • the first set of points Qi is chosen so that the number of points in this set is significantly less than the number of points necessary to obtain an image of the object at a predetermined resolution.
  • the desired resolution of the image as well as its dimension are, for example, supplied as parameters of step 202, depending on the intended application or on the material constituting the object. In general, the number of pixels desired to obtain an image allowing precise inspection of an object depends on the wavelength of the elastic wave used.
  • the distance between two pixels is taken equal to a ratio of the wavelength l, for example l / 10 or l / 20.
  • the first set of points Qi is, for example, chosen to contain a small percentage, of the order of 1%, of the number of points normally required to obtain an image at the desired resolution.
  • the positions of the points of the first set of points Qi can be chosen in different ways.
  • a first choice consists in selecting the points in a random or pseudo-random way among all the points of the object.
  • Another choice is to select the points according to a regular predetermined distribution, for example a Poisson distribution.
  • the distance between two selected points is, for example, dependent on the wavelength of the elastic wave emitted through the object.
  • step 202 consists in segmenting the object to be imaged into cells, of the same or different sizes, then in selecting, randomly or deterministically, a point in each cell.
  • the number and the coordinates of the points of the first set of points Qi can also be predetermined a priori for any image having a given size, or for a given application.
  • step 201 consists in imaging the object with a first level of spatial sampling.
  • TFM Total Focusing Method
  • N is the number of receivers and M the number of transmitters
  • P the sum of the amplitudes of the M x N signals received by the receivers at the times corresponding to the respective durations necessary to reach one of the receivers from one of the transmitters passing through the point P considered.
  • the sum / (P) can be formulated by the following expression:
  • the terms of the sum can be weighted by weighting coefficients Wg in order to calibrate the different signals to take into account differences in gain between the different sensors.
  • the invention is applicable to any imaging method making it possible to determine a pixel for a point of an object, in two dimensions or in three dimensions, from the signals received Sy (t).
  • FIG. 3 schematically illustrates the implementation of the invention for imaging an object 300 by means of an imaging device 301 capable of emitting elastic waves 302 to image the object 300.
  • an image 303 obtained via a TFM imaging method according to the prior art.
  • On the image one can visualize a defect 310 as well as echoes 311 corresponding to the background of the object 300.
  • FIGS. 3a, 3a-bis, 3b, 3c, 3d, 4a , 4b, 4c are reversed along the vertical axis with respect to the image of FIG. 3.
  • FIG. 3a illustrates the result obtained after step 202, for the particular example described in FIG. 3.
  • the image is broken down into cells and a pixel (represented by a point in FIG. 3a) is calculated in each cell.
  • FIG. 3a-bis there is shown, for illustration, in the background and superimposed on the image of FIG. 3a, the image of the object obtained with a TFM imaging method according to the prior art as well as cells.
  • step 203 is a step of refining the image calculated in step 202. It should be noted that this step is optional and that, in a particular embodiment of the invention, it can be omitted, in which case the next step 204 is directly applied to the result of step 202.
  • the image is oversampled from the pixels calculated in step 202.
  • This oversampling can be carried out in multiple ways.
  • a first embodiment consists in resuming the decomposition into cells carried out in step 202 and in assigning to all the pixels of a cell, the value of the pixel of the cell calculated in step 202.
  • the distance between two calculated pixels is, for example, predetermined and can be a function of the wavelength of the elastic wave.
  • step 203 consists in performing an interpolation of the pixels calculated in step 202 to refine the image.
  • interpolation can be an interpolation Gaussian or a linear interpolation or a quadratic or polynomial or bilinear polynomial interpolation.
  • f (x, y) is the interpolated value at the point of coordinates (x, y) and a, b, c and d are constants determined from the four neighboring points (x1, y1), (x2, y1), ( x1, y2), (x2, y2) of the point (x, y) whose value is sought.
  • a three-dimensional interpolation is applied, for example a succession of three linear interpolations, one in each direction.
  • An objective of the interpolation is to allow an identification, in the image, of the zones of strongest amplitude corresponding to the defects which one wishes to identify.
  • Gaussian interpolation or Gaussian regression or Gaussian process interpolation (in English Gaussian Process Regressor or GPR) is a method called supervised "machine learning" often presented as an alternative to classical interpolation. It is an iterative method which observes the points provided by step 202 of the method one by one, adapting its regression as and when.
  • An example of Gaussian regression is described in reference [1 1].
  • an advantage in using a Gaussian interpolation is that it makes it possible to better represent the extrema of the image which correspond to reflectors.
  • Another way to refine the representation of the extrema of the image is to increase the number of points on which the interpolation is performed.
  • step 203 an example of the result of step 203 has been shown in the case of a Gaussian interpolation.
  • a fault indicator around the position (x, y) (150,100) and an area at the top of the image corresponding to the bottom of the room.
  • step 204 it is determined, from the image obtained after step 203, or after step 202 if step 203 is omitted, a set of areas of interest of the image which correspond to the areas of the object in which there is potentially a defect or more generally an element that one wishes to visualize with precision.
  • the areas of interest of the image correspond to the areas of the object that one wishes to image with a high resolution.
  • step 204 consists in defining a threshold against which the values of each pixel of the image are compared. Depending on the result of the comparison, the pixel is classified or not in an area of interest. If the pixel values have positive and negative values, the comparison is made between the absolute value of a pixel and the threshold.
  • the threshold value is a parameter of the invention which can be determined as a function of the average of the pixel values and the maximum absolute values of the pixels.
  • the threshold can for example be determined as a percentage of the average value of all the pixels calculated in the previous step. This percentage is, for example, equal to 100%, 50% or 200% or any other value set by the user. It is a threshold in proportion to the total energy.
  • the pixels of the image which have an absolute value greater than this threshold are selected to form part of an area of interest.
  • threshold value It can be fixed but also adjustable depending on the intended application or determined from the first measurements on the object to be imaged.
  • an area of interest based on a number of points (and not on energy). For example, an area of interest can be defined by selecting a predetermined number of pixels with the largest value in the image.
  • Another alternative is to calculate the local maxima and / or minima of the estimated mapping and to select a predetermined number of pixels around these extrema to define the areas of interest.
  • Figure 3c gives an example of areas of interest identified from the image obtained in Figure 3b.
  • a second set Q 2 of points of the object is defined, located exclusively in the areas of interest defined in the previous step 204, then the pixels associated with these points are calculated.
  • An objective of step 205 is to carry out a spatial sampling of the image only in the defined areas of interest, that is to say for the areas of the object which it is desired to image with a high resolution. .
  • the level of sampling chosen is higher than the level of sampling used for the pre-sampling step 202.
  • a denser sampling grid is defined in the areas of interest than that chosen in step 202 for define the first set Qi of points.
  • step 205 spatial sampling is applied in the areas of interest widened at the points located at a predefined distance from these areas.
  • the distance depends, for example, on the wavelength of the elastic wave.
  • the number of points or the density of the points of the second set Q 2 is chosen according to the desired resolution. These parameters can depend on the wavelength of the elastic wave.
  • the second set Q 2 may include pixels already calculated in step 202, that is to say for points which also belong to the first set Qi. Depending on the implementation chosen, these pixels are recalculated or not.
  • FIG. 3d illustrates an example of oversampling carried out in step 205 for the areas of interest defined in step 204.
  • FIG. 3d corresponds to the final image which is composed of the pixels calculated in step 202 of pre-sampling and pixels calculated in step 205 of oversampling.
  • FIGS. 4a, 4b, 4c illustrate the results obtained by the method according to the invention when step 202 does not include an interpolation but a simple oversampling according to which each pixel of a cell takes the value of the pixel of the cell calculated in step 201.
  • FIG. 4a illustrates the image obtained after step 201.
  • FIG. 4b illustrates the areas of interest determined in the image after step 203.
  • FIG. 4c illustrates the final image obtained after step 204.
  • the reduction gain in the number of pixels calculated for the image of FIG. 4c compared to an image calculated with a TFM method is around 89%.
  • the average error between the two images is around 3%.
  • step 202 or the combination of steps 202 and 203 is / are iterated in each area of interest defined in step 204 in order to allow the definition to be updated. areas of interest at each iteration and thus improve the precision of the definition of these areas.
  • the image obtained is composed of pixels irregularly distributed in the image.
  • the sampling level is higher than in the rest of the image, which results in a higher pixel density in the areas of interest than in the rest of the image.
  • a step 206 of barycentric interpolation is added to the method.
  • This step consists in defining a regular dot grid corresponding to the pixel density sought for the final image. By making this grid coincide with the image obtained in step 205, the pixels belonging to the grid which have already been calculated and those which have not been calculated are identified, in particular since they correspond to points situated outside the zones interest.
  • the grid points that have not yet been calculated are determined by barycentric interpolation as shown in Figure 5.
  • triangles (a, b, c) formed from three pixels neighboring the image generated in step 205.
  • This calculation is carried out for all the points of the grid for which a pixel has not been calculated at the end of step 205, by defining each time a triangle from the pixels already calculated and located near the new point to calculate.
  • Barycentric interpolation makes it possible to obtain a regular mesh of the pixels in the image from an irregular mesh. It has the advantages of not generating artifacts unlike other types of interpolation such as linear interpolation and of being efficient from an algorithmic point of view and therefore inexpensive in terms of computational complexity.
  • a particular algorithm is used to carry out the steps of defining 204 and oversampling 205 of the areas of interest.
  • the steps for acquiring signals 601 and for pre-sampling the image 602 are identical to steps 201, 202 described for FIG. 2.
  • This embodiment of the invention is based on a decomposition of the image using a tree structure as shown in FIG. 7b, in which each parent node NP 0 , NPi has four child nodes, this structure being repeated recursively.
  • the highest level parent node corresponds to the entire image.
  • Each node can be subdivided into four zones as illustrated in Figure 7a. The image can thus be subdivided into sub-areas recursively.
  • the image pre-sampling step 602 is carried out by decomposing the image by means of the recursive process described above up to a given level of depth.
  • FIG. 8a illustrates an example of an image broken down into sub-zones according to a regular grid obtained via the principle mentioned above.
  • a score is then calculated for each node of the grid obtained.
  • the score can be defined in different ways depending on the areas of interest of the image that we want to sample more strongly.
  • the areas of interest correspond, for example, to high pixel intensity values, to local pixel extrema or to high gradient values. More generally, the areas of interest correspond to areas comprising information.
  • the score calculated for an area is equal to the maximum value among the nine pixels associated with this area.
  • the score is equal to a gradient or to an average difference between neighboring pixels associated with an area.
  • the score is equal to the maximum difference between any two pixels associated with an area.
  • the score calculated, in one of the preceding ways is weighted by a weighting factor which depends on the depth of the node in the tree. The greater the depth of the node in the tree, the lower the value of the score. This weighting factor makes it possible to obtain a better fluidity in the distribution of the density of pixels in the image.
  • a step 604 all of the nodes of the image are sorted according to the value of their score calculated in step 603, then the N nodes with the highest scores are selected, N being an integer greater than or equal to 1.
  • the selected nodes are then subdivided according to the procedure described in Figures 7a and 7b (step 605).
  • new pixels are calculated (step 606) for the points of the new nodes obtained which have not already been the subject of a pixel calculation previously.
  • FIG. 8a illustrates an example of nodes selected after step 604 and FIG. 8b shows the result obtained by subdividing these nodes (after step 605).
  • Steps 603 to 606 are iterated as many times as desired in order to progressively refine the sampling level or the density of pixels calculated in the areas of interest defined from the score calculated in step 603.
  • the score calculation 603 is performed only for the new pixels generated in step 606.
  • the number of iterations can, for example, be fixed as a function of a maximum number of pixels to be calculated per image but other criteria for stopping the iterations can be envisaged.
  • a barycentric interpolation is then applied in the manner described above for step 206 of FIG. 2.
  • a prior triangulation step 607 is applied to the image in order to define a set of triangles in which a barycentric interpolation 608 is performed.
  • Figures 9a, 9b and 9c illustrate the triangulation step 607 in an example.
  • FIG. 9a schematizes a triangulation operation from nine pixels calculated for a node associated with an area of the image. At the end of the process, the area is broken down into eight triangles.
  • FIG. 9b represents an example of decomposition of an image obtained at the end of several iterations of steps 603-606 and FIG. 9c represents the same image after the triangulation step 607. Each zone of the image of the figure 9b is broken down into triangles connecting the different calculated pixels.
  • the barycentric interpolation step 608 is then applied in the manner already described for step 206 of FIG. 2.
  • the level of pre-sampling of the image is determined as a function of the wavelength of the ultrasonic signal.
  • the distance between two pixels calculated in step 602 is a multiple or a fraction of the wavelength and is determined according to the size of the smallest defects that it is possible to image with this length d 'wave.
  • the step of subdividing the image 605 takes into account the wavelength of the ultrasonic signal. For example, the process of subdividing an area is stopped when the distance between two pixels calculated for this area is less than or equal to a fraction of the wavelength.
  • RAPID Zhao, X .; Gao, H .; Zhang, G .; Ayhan, B .; Yan, F .; Kwan, C. & Rose, J. L. Active health monitoring of an aircraft wing with embedded piezoelectric sensor / actuator network: I. Defect detection, localization and growth monitoring Smart materials and structures, IOP Publishing, 2007, 16, 1208,

Abstract

The invention relates to an imaging method for imaging an object using an imaging device comprising a plurality of emitters capable of emitting an elastic wave into the object to be imaged and a plurality of receivers capable of receiving an elastic wave from the object to be imaged, said method comprising the steps of: - determining (202) a first image of the object at a first spatial sampling level from a plurality of signals, each received by one of said receivers, - defining (204) in the image at least one region of interest of the object to be imaged, - determining (205) a second image of the object from a plurality of signals, each received by one of said receivers, the second image having in each region of interest a second spatial sampling level greater than the first spatial sampling level, the second image having a non-uniform pixel density, - applying (206) a barycentric interpolation to the pixels of the second image in order to obtain a third image having a substantially uniform pixel density.

Description

Procédé et dispositif d’imagerie amélioré pour imager un objet  Improved imaging method and device for imaging an object
L’invention concerne le domaine de l'imagerie par ultrasons ou plus généralement par ondes élastiques. Elle s'applique en particulier au contrôle non destructif d’objets ou de pièces. Le contrôle non destructif vise notamment à détecter la présence d’éventuels défauts dans une pièce, à les localiser et à les dimensionner. L'invention concerne plus particulièrement un procédé d'imagerie amélioré à sous-échantillonnage adaptatif qui permet de diminuer la complexité algorithmique, autrement dit le nombre d’opération et le temps de calcul nécessaires pour obtenir une image par rapport à un procédé d’imagerie par ondes élastiques conventionnel. The invention relates to the field of imaging by ultrasound or more generally by elastic waves. It applies in particular to the non-destructive testing of objects or parts. Non-destructive testing aims in particular to detect the presence of possible faults in a room, to locate and size them. The invention relates more particularly to an improved imaging method with adaptive subsampling which makes it possible to reduce the algorithmic complexity, in other words the number of operations and the computation time necessary to obtain an image compared to an imaging method. by conventional elastic waves.
Le contrôle non destructif de structures ou de matériaux présente de nombreuses applications notamment, mais pas exclusivement, dans les domaines de l’industrie pétrolière, de l’industrie navale, de l’aéronautique, de l’industrie automobile ou encore de la sidérurgie ou de l’industrie de l’énergie.  Non-destructive testing of structures or materials has many applications, in particular, but not exclusively, in the fields of the petroleum industry, the naval industry, aeronautics, the automotive industry or even the steel industry or of the energy industry.
Dans le domaine du contrôle non destructif d’objets, les techniques d’imagerie par capteurs ultrasons multiéléments sont couramment utilisées. En particulier, il existe une méthode d’imagerie dite « Total Focusing Method » ou TFM qui fournit une image d’une zone ou d’un volume d’une pièce à partir d’une collection de signaux ultrasonores obtenus par acquisition à l’aide d’un capteur ultrasons multiéléments. L’acquisition est par exemple du type « Full Matrix Capture » ou FMC. L’imagerie peut être obtenue en deux dimensions ou en trois dimensions selon que le capteur est linéaire ou matriciel. In the field of non-destructive testing of objects, imaging techniques using phased array ultrasonic sensors are commonly used. In particular, there is a so-called "Total Focusing Method" or TFM which provides an image of an area or volume of a room from a collection of ultrasonic signals obtained by acquisition at using a phased array ultrasonic sensor. The acquisition is for example of the "Full Matrix Capture" or FMC type. Imagery can be obtained in two dimensions or three dimensions depending on whether the sensor is linear or matrix.
Lors d’une acquisition du type FMC, chaque élément constitutif du capteur ou transducteur multiélément émet successivement une onde ultrasonore, tandis que tous les éléments sont actifs en réception. Pour un transducteur constitué de N éléments, N*N signaux sont donc acquis. L’imagerie TFM consiste à afficher en chacun des pixels de la zone imagée la somme des N2 signaux retardés du temps de vol théorique associé à la position du pixel dans la zone. Ce faisant, on obtient une image présentant des tâches de forte intensité là où sont présents les réflecteurs responsables des échos reçus. Ces réflecteurs sont le plus souvent associés à des discontinuités géométriques correspondant à des défauts ou encore des bords de pièce par exemple. Cette méthode permet donc d’imager précisément l’intérieur d’une structure, en mettant en exergue les réflecteurs des ondes ultrasonores (correspondants à des défauts tels que des trous ou des fissures...). During an FMC type acquisition, each component element of the multi-element sensor or transducer successively emits an ultrasonic wave, while all the elements are active in reception. For a transducer made up of N elements, N * N signals are therefore acquired. TFM imagery consists in displaying in each of the pixels of the imaged area the sum of the N 2 signals delayed by the theoretical flight time associated with the position of the pixel in the area. In doing so, an image is obtained presenting high intensity spots where the reflectors responsible for the received echoes are present. These reflectors are most often associated with geometric discontinuities corresponding to defects or even edges of the part for example. This method therefore makes it possible to precisely image the interior of a structure, by highlighting the reflectors of ultrasonic waves (corresponding to faults such as holes or cracks ...).
Pour créer une image comprenant un nombre P de pixels avec la méthode d’imagerie TFM, il faut donc calculer les P x N2 temps de vol théoriques associés aux P pixels et aux N2 paires d’éléments (ou N2 signaux). Puis il faut calculer la somme des N2 signaux retardés de ces temps de vol théoriques, pour obtenir une valeur scalaire associée à chaque pixel représentant l’amplitude de réflexion des ondes par ce pixel. La juxtaposition de ces valeurs scalaires aux P pixels fournit l’image TFM permettant par exemple de diagnostiquer l’état de la structure. To create an image comprising a number P of pixels with the TFM imaging method, it is therefore necessary to calculate the P x N 2 theoretical flight times associated with the P pixels and the N 2 pairs of elements (or N 2 signals). Then it is necessary to calculate the sum of the N 2 delayed signals of these theoretical flight times, to obtain a scalar value associated with each pixel representing the amplitude of reflection of the waves by this pixel. The juxtaposition of these scalar values to the P pixels provides the TFM image making it possible, for example, to diagnose the state of the structure.
Le temps de calcul de l’image est donc proportionnel au coefficient P*N2. Ce temps de calcul limite la résolution de la grille (ou bien la taille de l’image) compatible avec la contrainte de calcul de l’image en temps réel, en particulier dans des appareils portables, qui sont naturellement limités en termes de masse et taille, utilisés pour réaliser des inspections sur site. Même si des appareils portables intégrant le procédé d’imagerie TFM en temps réel existent, ceux-ci sont onéreux et massifs notamment en raison du système de calcul nécessaire à l’imagerie. Cette limitation est aujourd’hui un frein au déploiement de la technique d’imagerie TFM. The image calculation time is therefore proportional to the coefficient P * N 2 . This computation time limits the resolution of the grid (or else the size of the image) compatible with the computation constraint of the image in real time, in particular in portable devices, which are naturally limited in terms of mass and size, used to perform on-site inspections. Even if portable devices integrating the TFM imaging process in real time exist, they are expensive and massive in particular because of the calculation system necessary for imaging. This limitation is currently an obstacle to the deployment of the TFM imaging technique.
Ainsi, un problème à résoudre consiste à diminuer le nombre de calculs et/ou le temps de calcul nécessaire pour obtenir une image à une résolution donnée dans l’optique d’exploiter cette image pour détecter et caractériser des défauts dans une pièce à inspecter et ce, en temps réel. Un autre objectif de l’invention est de fournir une méthode d’imagerie dont les calculs sont parallélisables afin de ne pas limiter la vitesse de calcul d’une image. Thus, a problem to be solved consists in reducing the number of calculations and / or the calculation time necessary to obtain an image at a given resolution with a view to using this image to detect and characterize faults in a part to be inspected and this, in real time. Another objective of the invention is to provide an imaging method whose calculations are parallelizable so as not to limit the speed of calculation of an image.
Des méthodes permettant une mise en oeuvre en temps réel d’imagerie dite TFM sont notamment décrites dans les références [1 ],[2],[3] et [4] Les références [1 ] et [2] décrivent des implémentations optimisées pour des processeurs graphiques de type GPU (Graphics Processing Unit). Les références [3] et [4] décrivent des implémentations pour des circuits logiques programmables de type FPGA (Field Programmable Gâte Array). Methods allowing real-time implementation of so-called TFM imaging are notably described in references [1], [2], [3] and [4] References [1] and [2] describe optimized implementations for GPU (Graphics Processing Unit) type graphics processors. References [3] and [4] describe implementations for programmable logic circuits of the FPGA (Field Programmable Gate Array) type.
Toutes ces méthodes requièrent une puissance de calcul conséquente et dédiée afin de pouvoir effectuer une imagerie en temps réel. De ce fait, elles imposent un coût important de mise en oeuvre du dispositif de calcul de l’image.  All of these methods require substantial and dedicated computing power in order to be able to perform real-time imaging. Therefore, they impose a significant cost of implementing the image calculation device.
L’invention propose une méthode d’imagerie mettant en oeuvre un sous-échantillonnage adaptatif et optimisé afin d’atteindre une haute résolution dans certaines zones d’intérêts de l’image qui correspondent aux zones de l’objet à imager dans lesquelles des réflecteurs sont présents, tout en limitant la résolution de l’image dans des zones qui présentent moins d’intérêt du point de vue de l’inspection de l’objet. The invention proposes an imaging method implementing an adaptive and optimized subsampling in order to achieve high resolution in certain areas of interest of the image which correspond to the areas of the object to be imaged in which reflectors are present, while limiting the resolution of the image in areas of less interest from the point of view of object inspection.
Ainsi, l’invention permet de limiter la puissance de calcul nécessaire à l’acquisition et le calcul d’une image pour diminuer le coût du dispositif de calcul associé.  Thus, the invention makes it possible to limit the computing power necessary for the acquisition and calculation of an image to reduce the cost of the associated computing device.
L’invention propose également l’utilisation d’une interpolation barycentrique basée sur un maillage triangulaire d’une image incomplète pour rendre la densité des pixels dans l’image finale uniforme. En effet, l’image obtenue via l’invention ayant une densité de pixels plus élevée dans les zones d’intérêts, il est avantageux de la transformer pour rendre la densité de pixels uniforme tout en conservant une résolution optimale dans les zones d’intérêts. L’invention a ainsi pour objet un procédé d’imagerie pour imager un objet à l’aide d’un dispositif d’imagerie comprenant une pluralité d’émetteurs aptes à émettre une onde élastique dans l’objet à imager et une pluralité de récepteurs aptes à recevoir une onde élastique provenant de l’objet à imager, ledit procédé comprenant les étapes de : The invention also proposes the use of a barycentric interpolation based on a triangular mesh of an incomplete image to make the density of the pixels in the final image uniform. Indeed, the image obtained via the invention having a higher pixel density in the areas of interest, it is advantageous to transform it to make the pixel density uniform while maintaining an optimal resolution in the areas of interest . The subject of the invention is therefore an imaging method for imaging an object using an imaging device comprising a plurality of transmitters capable of emitting an elastic wave in the object to be imaged and a plurality of receivers able to receive an elastic wave coming from the object to be imaged, said method comprising the steps of:
- Déterminer une première image de l’objet, à un premier niveau d’échantillonnage spatial, à partir d’une pluralité de signaux reçus chacun par l’un desdits récepteurs,  - Determine a first image of the object, at a first level of spatial sampling, from a plurality of signals each received by one of said receivers,
- Définir, dans l’image, au moins une zone d’intérêt de l’objet à imager,  - Define, in the image, at least one area of interest for the object to be imaged,
- Déterminer une seconde image de l’objet à partir d’une pluralité de signaux reçus chacun par l’un desdits récepteurs, la seconde image présentant, dans chaque zone d’intérêt, un second niveau d’échantillonnage spatial supérieur au premier niveau d’échantillonnage spatial, la seconde image ayant une densité de pixels non uniforme,  - Determine a second image of the object from a plurality of signals each received by one of said receivers, the second image having, in each area of interest, a second level of spatial sampling greater than the first level d spatial sampling, the second image having a non-uniform pixel density,
- Appliquer (206) une interpolation barycentrique aux pixels de la seconde image afin d’obtenir une troisième image ayant une densité de pixels sensiblement uniforme.  - Apply (206) barycentric interpolation to the pixels of the second image in order to obtain a third image having a substantially uniform pixel density.
Selon un aspect particulier de l’invention, le premier niveau d’échantillonnage spatial est défini en décomposant l’objet en cellules et en sélectionnant un point dans chaque cellule.  According to a particular aspect of the invention, the first level of spatial sampling is defined by decomposing the object into cells and selecting a point in each cell.
Selon un aspect particulier de l’invention, la sélection d’un point dans chaque cellule suit une distribution aléatoire ou une distribution prédéfinie.  According to a particular aspect of the invention, the selection of a point in each cell follows a random distribution or a predefined distribution.
Selon une variante particulière, le procédé d’imagerie selon l’invention comprend en outre une étape de sur-échantillonner la première image en affectant à chaque pixel d’un point d’une cellule la valeur du pixel calculé pour le point sélectionné de ladite cellule.  According to a particular variant, the imaging method according to the invention further comprises a step of oversampling the first image by assigning to each pixel of a point of a cell the value of the pixel calculated for the selected point of said cell.
Selon une variante particulière, le procédé d’imagerie selon l’invention comprend en outre une étape de sur-échantillonner la première image en effectuant une interpolation des pixels de la première image. Selon un aspect particulier de l’invention, l’interpolation est polynomiale, linéaire ou réalisée par procédé Gaussien. According to a particular variant, the imaging method according to the invention further comprises a step of oversampling the first image by performing an interpolation of the pixels of the first image. According to a particular aspect of the invention, the interpolation is polynomial, linear or carried out by the Gaussian method.
Selon un aspect particulier de l’invention, au moins une zone d’intérêt est élargie en intégrant tous les points situés à une distance prédéterminée de la zone d’intérêt.  According to a particular aspect of the invention, at least one area of interest is enlarged by integrating all the points located at a predetermined distance from the area of interest.
Selon un aspect particulier de l’invention, la distance prédéterminée dépend de la longueur d’onde de l’onde élastique.  According to a particular aspect of the invention, the predetermined distance depends on the wavelength of the elastic wave.
Selon un aspect particulier de l’invention, une zone d’intérêt comprend au moins un pixel dont la valeur est un extremum local.  According to a particular aspect of the invention, an area of interest comprises at least one pixel whose value is a local extremum.
Selon un aspect particulier de l’invention, la définition, dans la première image, d’au moins une zone d’intérêt de l’objet à imager comprend les sous-étapes de : According to a particular aspect of the invention, the definition, in the first image, of at least one area of interest of the object to be imaged comprises the sub-steps of:
- définir un seuil d’amplitude,  - define an amplitude threshold,
- comparer chaque pixel de la première image au seuil d’amplitude, - compare each pixel of the first image to the amplitude threshold,
- définir si le pixel de la première image appartient ou non à une zone d’intérêt en fonction du résultat de la comparaison.- define whether or not the pixel of the first image belongs to an area of interest according to the result of the comparison.
Selon un aspect particulier de l’invention, l’image de l’objet est une image en deux dimensions ou en trois dimensions. According to a particular aspect of the invention, the image of the object is a two-dimensional or three-dimensional image.
Selon une variante particulière, le procédé d’imagerie selon l’invention comprend en outre les étapes préalables de :  According to a particular variant, the imaging method according to the invention further comprises the prior steps of:
- Emettre, depuis chaque émetteur, une onde élastique dans l’objet à imager,  - Emit, from each transmitter, an elastic wave in the object to be imaged,
- Recevoir, dans chaque récepteur, une onde élastique provenant de l’objet à imager.  - Receive, in each receiver, an elastic wave coming from the object to be imaged.
Selon un aspect particulier de l’invention, la détermination d’une image de l’objet comprend le calcul d’une pluralité de pixels correspondant chacun à un point de l’objet en exécutant les sous-étapes de :  According to a particular aspect of the invention, the determination of an image of the object comprises the calculation of a plurality of pixels each corresponding to a point of the object by executing the substeps of:
- Pour chaque couple émetteur-récepteur, déterminer un temps de vol correspondant à une durée théorique nécessaire à l’onde élastique pour parcourir un trajet depuis l’émetteur jusqu’au récepteur en passant par le point de l’objet, - For each transmitter-receiver pair, determine a flight time corresponding to a theoretical duration necessary for the wave elastic to travel a path from the transmitter to the receiver passing through the point of the object,
- Déterminer une somme des amplitudes extraites d’un ensemble d’ondes élastiques émises par lesdits émetteurs et reçus par lesdits récepteurs, aux temps de vol déterminés à l’étape précédente.  - Determine a sum of the amplitudes extracted from a set of elastic waves emitted by said transmitters and received by said receivers, at the flight times determined in the previous step.
Selon un aspect particulier de l’invention, l’onde élastique est une onde ultrasonore ou une onde guidée.  According to a particular aspect of the invention, the elastic wave is an ultrasonic wave or a guided wave.
Selon un aspect particulier de l’invention, l’étape d’appliquer une interpolation barycentrique à la seconde image comprend les sous-étapes de :  According to a particular aspect of the invention, the step of applying a barycentric interpolation to the second image comprises the sub-steps of:
- Définir au moins un triangle élémentaire dont les sommets sont trois pixels voisins calculés pour la seconde image,  - Define at least one elementary triangle whose vertices are three neighboring pixels calculated for the second image,
- Calculer au moins un nouveau pixel à l’intérieur du triangle élémentaire par interpolation barycentrique fonction desdits trois pixels et des aires respectives des triangles définis par le nouveau pixel et deux sommets du triangle élémentaire.  - Calculate at least one new pixel inside the elementary triangle by barycentric interpolation as a function of said three pixels and the respective areas of the triangles defined by the new pixel and two vertices of the elementary triangle.
Selon un aspect particulier de l’invention, l’étape d’appliquer une interpolation barycentrique à la seconde image comprend :  According to a particular aspect of the invention, the step of applying a barycentric interpolation to the second image comprises:
- La définition d’une grille d’échantillonnage de densité uniforme pour la troisième image,  - The definition of a uniform density sampling grid for the third image,
- Le calcul d’un nouveau pixel par interpolation barycentrique pour tous les points de ladite grille pour lesquels un pixel n’a pas déjà été calculé,  - The calculation of a new pixel by barycentric interpolation for all the points of said grid for which a pixel has not already been calculated,
- Chaque nouveau pixel étant calculé à partir d’un triangle élémentaire défini par trois pixels déjà calculés et dans lequel se situe le nouveau pixel.  - Each new pixel being calculated from an elementary triangle defined by three pixels already calculated and in which the new pixel is located.
Selon un aspect particulier de l’invention, les étapes de définir au moins une zone d’intérêt de l’objet à imager et de déterminer une seconde image de l’objet sont réalisées au moyen des étapes récursives suivantes :  According to a particular aspect of the invention, the steps of defining at least one area of interest of the object to be imaged and of determining a second image of the object are carried out by means of the following recursive steps:
- Décomposer l’image en sous-zones, - Calculer un score pour chaque sous-zone, - Break down the image into sub-areas, - Calculate a score for each sub-area,
- Sélectionner les N sous-zones ayant les scores les plus élevés, N étant un entier supérieur ou égal à 1 ,  - Select the N sub-areas with the highest scores, N being an integer greater than or equal to 1,
- Subdiviser chacune des N sous-zones en quatre sous-zones, - Calculer de nouveaux pixels au centre et aux points cardinaux de chaque sous-zone, si ces pixels n’ont pas déjà été calculés.  - Subdivide each of the N sub-areas into four sub-areas, - Calculate new pixels at the center and at the cardinal points of each sub-area, if these pixels have not already been calculated.
Selon un aspect particulier de l’invention, le score calculé pour une sous-zone dépend des amplitudes des pixels calculés pour le centre et les points cardinaux de la sous-zone.  According to a particular aspect of the invention, the score calculated for a sub-zone depends on the amplitudes of the pixels calculated for the center and the cardinal points of the sub-zone.
L’invention a aussi pour objet un dispositif d’imagerie pour imager un objet, le dispositif comprenant une interface pour recevoir une pluralité de signaux reçus par une pluralité de récepteurs aptes à recevoir une onde élastique provenant d’un objet à imager et un imageur configuré pour mettre en oeuvre les étapes du procédé d’imagerie selon l’un quelconque des modes de réalisation de l’invention. The subject of the invention is also an imaging device for imaging an object, the device comprising an interface for receiving a plurality of signals received by a plurality of receivers capable of receiving an elastic wave coming from an object to be imaged and an imager configured to implement the steps of the imaging method according to any one of the embodiments of the invention.
Dans une variante de réalisation, le dispositif d’imagerie selon l’invention comprend une pluralité d’émetteurs aptes à émettre une onde élastique dans l’objet à imager et une pluralité de récepteurs aptes à recevoir une onde élastique provenant de l’objet à imager.  In an alternative embodiment, the imaging device according to the invention comprises a plurality of transmitters capable of emitting an elastic wave in the object to be imaged and a plurality of receivers capable of receiving an elastic wave coming from the object to be imaged imaged.
D’autres caractéristiques et avantages de la présente invention apparaîtront mieux à la lecture de la description qui suit en relation aux dessins annexés qui représentent : Other characteristics and advantages of the present invention will appear better on reading the description which follows in relation to the appended drawings which represent:
- La figure 1 , un schéma d’un dispositif d’imagerie selon un mode de réalisation de l’invention,  - Figure 1, a diagram of an imaging device according to an embodiment of the invention,
- La figure 2, un organigramme détaillant les étapes de mise en oeuvre d’un procédé d’imagerie selon différents modes de réalisation de l’invention,  FIG. 2, a flowchart detailing the steps for implementing an imaging method according to different embodiments of the invention,
- La figure 3, un exemple illustrant l’imagerie d’une pièce, Les figures 3a,3a-bis,3b,3c,3d, cinq exemples d’images obtenues après différentes étapes intermédiaires du procédé selon un mode de réalisation de l’invention appliqué à la pièce décrite à la figure 3,- Figure 3, an example illustrating the imagery of a room, FIGS. 3a, 3a-bis, 3b, 3c, 3d, five examples of images obtained after different intermediate stages of the method according to an embodiment of the invention applied to the part described in FIG. 3,
Les figures 4a, 4b, 4c, trois autres exemples d’images obtenues après différentes étapes intermédiaires du procédé selon un autre mode de réalisation de l’invention, FIGS. 4a, 4b, 4c, three other examples of images obtained after different intermediate stages of the method according to another embodiment of the invention,
La figure 5, une illustration du fonctionnement d’une étape d’interpolation barycentrique,  FIG. 5, an illustration of the operation of a barycentric interpolation step,
La figure 6, un organigramme détaillant les étapes de mise en oeuvre d’un autre mode de réalisation du procédé selon l’invention,  FIG. 6, a flowchart detailing the steps for implementing another embodiment of the method according to the invention,
Les figures 7a, 7b, 7c, plusieurs schémas illustrant certaines étapes du procédé de la figure 6,  FIGS. 7a, 7b, 7c, several diagrams illustrating certain steps of the method of FIG. 6,
Les figures 8a, 8b, plusieurs schémas illustrant le principe de suréchantillonnage des zones d’intérêts selon le procédé décrit à la figure 6,  FIGS. 8a, 8b, several diagrams illustrating the principle of oversampling of the areas of interest according to the method described in FIG. 6,
Les figures 9a, 9b, 9c, plusieurs schémas illustrant le principe d’interpolation barycentrique appliqué au mode de réalisation décrit à la figure 6. La figure 1 représente, sur un schéma, un exemple de dispositif d’imagerie par ondes élastiques selon un mode de réalisation de l’invention.  Figures 9a, 9b, 9c, several diagrams illustrating the principle of barycentric interpolation applied to the embodiment described in Figure 6. Figure 1 shows, in a diagram, an example of elastic wave imaging device according to a mode for carrying out the invention.
Un tel dispositif comporte au moins un transducteur multiéléments TR comprenant une pluralité d’émetteurs/récepteurs d’ondes élastiques Cj,Cj. Chaque élément Ci,Cj du transducteur TR est apte à émettre une onde élastique dans un objet OBJ et à recevoir une onde élastique provenant d’un objet. L’onde élastique est, par exemple, une onde ultrasonore ou une onde guidée. Lorsque l’onde élastique est une onde ultrasonore, le transducteur TR est, par exemple, un capteur piézoélectrique. Les émetteurs/récepteurs Ci,Cj sont agencés linéairement, sous forme de matrice ou distribués à différentes positions sur ou à proximité de l’objet. Dans le cas d’un agencement compact linéaire, le dispositif est apte à produire une image en deux dimensions d’un plan de l’objet. Dans le cas d’un agencement compact matriciel, le dispositif est apte à produire une image en trois dimensions d’un volume d’une partie de l’objet. Such a device comprises at least one multi-element transducer TR comprising a plurality of transmitters / receivers of elastic waves Cj, C j . Each element Ci, C j of the transducer TR is able to emit an elastic wave in an object OBJ and to receive an elastic wave coming from an object. The elastic wave is, for example, an ultrasonic wave or a guided wave. When the elastic wave is an ultrasonic wave, the transducer TR is, for example, a piezoelectric sensor. The transmitters / receivers Ci, C j are arranged linearly, in the form of a matrix or distributed at different positions on or near the object. In the case of a linear compact arrangement, the device is capable of producing an image in two dimensions of an object plane. In the case of a compact matrix arrangement, the device is capable of producing a three-dimensional image of a volume of a part of the object.
Pour réaliser une acquisition de type TFM, c'est-à-dire une procédure d’émission et de réception successives d’ondes élastiques à travers l’objet à imager, un fluide couplant est, parfois, disposé entre le dispositif d’imagerie et l’objet à imager. Le fluide couplant est, par exemple, de l’eau.  To carry out a TFM type acquisition, that is to say a procedure for successive emission and reception of elastic waves through the object to be imaged, a coupling fluid is sometimes placed between the imaging device. and the object to be imaged. The coupling fluid is, for example, water.
Le dispositif selon l’invention comporte en outre un imageur IMG configuré pour déterminer une image de l’objet OBJ à partir des signaux reçus par les récepteurs du transducteur TR. L’imageur IMG est, par exemple, un processeur graphique, un processeur de signaux ou encore un circuit intégré, un circuit logique programmable, un circuit intégré propre à une application ou tout autre dispositif équivalent configurable pour exécuter les étapes du procédé selon l’un quelconque des modes de réalisation de l’invention.  The device according to the invention further comprises an imager IMG configured to determine an image of the object OBJ from the signals received by the receivers of the transducer TR. The IMG imager is, for example, a graphics processor, a signal processor or an integrated circuit, a programmable logic circuit, an application-specific integrated circuit or any other equivalent device that can be configured to execute the steps of the method according to the any of the embodiments of the invention.
Le dispositif selon l’invention peut aussi comporter un afficheur AFF, tel qu’un écran ou toute autre interface homme machine, pour restituer à un utilisateur une image de l’objet OBJ déterminée par l’imageur IMG. L’image peut être en deux dimensions ou en trois dimensions.  The device according to the invention can also include an AFF display, such as a screen or any other man-machine interface, to restore to a user an image of the object OBJ determined by the imager IMG. The image can be two-dimensional or three-dimensional.
Dans un mode de réalisation particulier de l’invention, le dispositif comprend uniquement l’imageur IMG qui reçoit les signaux mesurés par les récepteurs du transducteur multi-éléments TR au moyen d’une interface adaptée. Dans ce scénario, le transducteur TR est distinct de l’imageur IMG qui peut être, ou non, associé à un afficheur AFF.  In a particular embodiment of the invention, the device only includes the IMG imager which receives the signals measured by the receivers of the multi-element transducer TR by means of a suitable interface. In this scenario, the TR transducer is distinct from the IMG imager which may or may not be associated with an AFF display.
Dans le cas où les ondes élastiques sont des ondes guidées, les différents capteurs du dispositif peuvent être positionnés en différents endroits de l’objet à imager. Un avantage à l’utilisation d’ondes guidées est qu’elles ont la capacité à être guidées dans une structure dans laquelle elles se propagent sur une plus longue distance que les ondes ultrasonores. Ainsi, il est possible d’imager des objets de plus grande taille en utilisant des ondes guidées. La figure 2 détaille les étapes de réalisation d’un procédé d’imagerie selon un mode de réalisation de l’invention, le procédé étant mis en oeuvre au moyen d’un dispositif du type décrit à la figure 1. In the case where the elastic waves are guided waves, the various sensors of the device can be positioned in different places of the object to be imaged. An advantage to the use of guided waves is that they have the ability to be guided in a structure in which they propagate over a longer distance than ultrasonic waves. Thus, it is possible to image larger objects using guided waves. FIG. 2 details the steps for carrying out an imaging method according to an embodiment of the invention, the method being implemented by means of a device of the type described in FIG. 1.
Une première étape 201 du procédé consiste à déterminer une acquisition de signaux à l’aide d’un transducteur multiéléments du type décrit à la figure 1. Cette étape 201 peut être réalisée de différentes façons. Le principe général d’une telle acquisition consiste à émettre successivement, au moyen de chaque émetteur du transducteur multiéléments, une onde élastique propre à se propager dans l’objet à imager, puis à acquérir successivement, au moyen de chaque récepteur du transducteur multiéléments, chacun des signaux émis par chaque émetteur.  A first step 201 of the method consists in determining an acquisition of signals using a multi-element transducer of the type described in FIG. 1. This step 201 can be carried out in different ways. The general principle of such an acquisition consists in successively transmitting, by means of each transmitter of the multi-element transducer, an elastic wave suitable for propagating in the object to be imaged, then in successively acquiring, by means of each receiver of the multi-element transducer, each of the signals transmitted by each transmitter.
Sur la figure 1 on a représenté le trajet d’une onde élastique émise par un émetteur Cj se propageant dans un objet OBJ, l’onde est réfléchie sur un point P de l’objet puis est reçue par un récepteur C,. L’onde peut être une onde ultrasonore ou une onde guidée. In Figure 1 there is shown the path of an elastic wave emitted by a transmitter C j propagating in an object OBJ, the wave is reflected on a point P of the object then is received by a receiver C ,. The wave can be an ultrasonic wave or a guided wave.
Si le transducteur multiéléments comprend N émetteurs/récepteurs, le nombre total de signaux acquis est égale à N2. La procédure d’acquisition, objet de l’étape 201 du procédé, suit, par exemple, une procédure du type « Full Matrix Capture » ou FMC. If the phased array transducer includes N transmitters / receivers, the total number of signals acquired is equal to N 2 . The acquisition procedure, the object of step 201 of the method, follows, for example, a procedure of the “Full Matrix Capture” or FMC type.
Une deuxième étape 202 du procédé consiste à réaliser un pré échantillonnage spatial de l’image, à faible densité. Autrement dit, lors de cette étape 202, on détermine, pour un premier ensemble de points Qi de l’objet à imager, un pixel correspondant d’une image de l’objet. Le premier ensemble de points Qi est choisi de sorte à ce que le nombre de points de cet ensemble est significativement inférieur au nombre de points nécessaire pour obtenir une image de l’objet à une résolution prédéterminée. Pour cela, la résolution souhaitée de l’image ainsi que sa dimension sont, par exemple, fournis comme paramètres de l’étape 202, en fonction de l’application visée ou du matériau constitutif de l’objet. En général, le nombre de pixels souhaité pour obtenir une image permettant une inspection précise d’un objet dépend de la longueur d’onde de l’onde élastique utilisée. Par exemple, la distance entre deux pixels est prise égale à un ratio de la longueur d’onde l, par exemple l/10 ou l/20. Ainsi, le premier ensemble de points Qi est, par exemple, choisi pour contenir un faible pourcentage, de l’ordre de 1 %, du nombre de points normalement requis pour obtenir une image à la résolution souhaitée. A second step 202 of the method consists in carrying out a spatial pre-sampling of the image, at low density. In other words, during this step 202, a pixel corresponding to an image of the object is determined for a first set of points Qi of the object to be imaged. The first set of points Qi is chosen so that the number of points in this set is significantly less than the number of points necessary to obtain an image of the object at a predetermined resolution. For this, the desired resolution of the image as well as its dimension are, for example, supplied as parameters of step 202, depending on the intended application or on the material constituting the object. In general, the number of pixels desired to obtain an image allowing precise inspection of an object depends on the wavelength of the elastic wave used. For example, the distance between two pixels is taken equal to a ratio of the wavelength l, for example l / 10 or l / 20. Thus, the first set of points Qi is, for example, chosen to contain a small percentage, of the order of 1%, of the number of points normally required to obtain an image at the desired resolution.
Les positions des points du premier ensemble de points Qi peuvent être choisies de différentes façons. Un premier choix consiste à sélectionner les points de façon aléatoire ou pseudo-aléatoire parmi l’ensemble des points de l’objet. Un autre choix consiste à sélectionner les points selon une distribution prédéterminée régulière, par exemple une distribution de Poisson. La distance entre deux points sélectionnés est, par exemple, dépendante de la longueur d’onde de l’onde élastique émise à travers l’objet.  The positions of the points of the first set of points Qi can be chosen in different ways. A first choice consists in selecting the points in a random or pseudo-random way among all the points of the object. Another choice is to select the points according to a regular predetermined distribution, for example a Poisson distribution. The distance between two selected points is, for example, dependent on the wavelength of the elastic wave emitted through the object.
Un mode de réalisation particulier de l’étape 202 consiste à segmenter l’objet à imager en cellules, de mêmes tailles ou de tailles différentes, puis à sélectionner, de façon aléatoire ou déterministe, un point dans chaque cellule.  One particular embodiment of step 202 consists in segmenting the object to be imaged into cells, of the same or different sizes, then in selecting, randomly or deterministically, a point in each cell.
Le nombre et les coordonnées des points du premier ensemble de points Qi peuvent aussi être prédéterminés a priori pour toute image ayant une taille donnée, ou pour une application donnée.  The number and the coordinates of the points of the first set of points Qi can also be predetermined a priori for any image having a given size, or for a given application.
Ensuite, pour chaque point du premier ensemble de points Qi, on détermine un pixel correspondant de l’image de l’objet à partir de l’ensemble des signaux mesurés par les récepteurs à l’étape 201. Autrement dit, l’étape 201 consiste à imager l’objet avec un premier niveau d’échantillonnage spatial. Then, for each point of the first set of points Qi, a corresponding pixel of the image of the object is determined from the set of signals measured by the receivers in step 201. In other words, step 201 consists in imaging the object with a first level of spatial sampling.
Pour déterminer un pixel, différentes méthodes sont possibles.  To determine a pixel, different methods are possible.
Une méthode possible est la méthode dite TFM (Total Focusing Method). Cette méthode consiste à calculer, pour chaque point P de la zone de l’objet à imager, le pixel correspondant l(P) comme étant égal à la somme des amplitudes extraites des signaux S (t) reçus par les récepteurs du transducteur multiéléments, aux temps de vol théoriques t= Ty(P)= tj(P) + ΐ,(R) correspondant aux chemins parcourus entre un émetteur Cj et un récepteur Ci en passant par le point P. One possible method is the so-called Total Focusing Method (TFM). This method consists in calculating, for each point P in the area of the object to be imaged, the corresponding pixel l (P) as being equal to the sum amplitudes extracted from signals S (t) received by the receivers of the phased array transducer, at theoretical flight times t = Ty (P) = tj (P) + ΐ, (R) corresponding to the paths traveled between a transmitter C j and a Ci receiver via point P.
Autrement dit, si N est le nombre de récepteurs et M le nombre d’émetteurs, on somme les amplitudes des M x N signaux reçus par les récepteurs aux instants correspondant aux durées respectives nécessaires pour rejoindre l'un des récepteurs depuis l'un des émetteurs en passant par le point P considéré. La somme /(P) peut être formulée par l'expression suivante :
Figure imgf000014_0001
In other words, if N is the number of receivers and M the number of transmitters, we sum the amplitudes of the M x N signals received by the receivers at the times corresponding to the respective durations necessary to reach one of the receivers from one of the transmitters passing through the point P considered. The sum / (P) can be formulated by the following expression:
Figure imgf000014_0001
Selon une variante de cette méthode, les termes de la somme peuvent être pondérés par des coefficients de pondération Wg afin de calibrer les différents signaux pour prendre en compte des différences de gain entre les différents capteurs.  According to a variant of this method, the terms of the sum can be weighted by weighting coefficients Wg in order to calibrate the different signals to take into account differences in gain between the different sensors.
Un exemple de réalisation de la méthode d’acquisition TFM est notamment décrit dans les documents [1 ] et [4]  An example of implementation of the TFM acquisition method is described in particular in documents [1] and [4]
D’autres méthodes sont possibles pour calculer la valeur d’un pixel l(P) à partir des signaux reçus Sy(t). On peut citer, sans être exhaustif, les méthodes suivantes : SAFT (Synthetic Aperture Focusing Technique) décrite dans [5], MUSIC (Multiple Signal Classification), Excitelet, DAS (Delay and Sum) décrite dans [6], ou encore les méthodes décrites dans les références [7] à [10] qui portent plus précisément sur l’utilisation d’ondes guidées.  Other methods are possible for calculating the value of a pixel l (P) from the signals received Sy (t). We can cite, without being exhaustive, the following methods: SAFT (Synthetic Aperture Focusing Technique) described in [5], MUSIC (Multiple Signal Classification), Excitelet, DAS (Delay and Sum) described in [6], or the methods described in references [7] to [10] which relate more specifically to the use of guided waves.
De manière générale, l’invention est applicable à toute méthode d’imagerie permettant de déterminer un pixel pour un point d’un objet, en deux dimensions ou en trois dimensions, à partir des signaux reçus Sy(t).  In general, the invention is applicable to any imaging method making it possible to determine a pixel for a point of an object, in two dimensions or in three dimensions, from the signals received Sy (t).
La figure 3 illustre schématiquement la mise en œuvre de l’invention pour imager un objet 300 au moyen d’un dispositif d’imagerie 301 apte à émettre des ondes élastiques 302 pour image l’objet 300. Sur la figure 3, on a représenté en superposition à l’objet 300, une image 303 obtenue via une méthode d’imagerie TFM selon l’art antérieur. Sur l’image, on peut visualiser un défaut 310 ainsi que des échos 311 correspondant au fond de l’objet 300. Il convient de noter que les images suivantes illustrées sur les figures 3a, 3a- bis, 3b, 3c, 3d, 4a, 4b, 4c sont inversées selon l’axe vertical par rapport à l’image de la figure 3. FIG. 3 schematically illustrates the implementation of the invention for imaging an object 300 by means of an imaging device 301 capable of emitting elastic waves 302 to image the object 300. In FIG. 3, represented in superposition on the object 300, an image 303 obtained via a TFM imaging method according to the prior art. On the image, one can visualize a defect 310 as well as echoes 311 corresponding to the background of the object 300. It should be noted that the following images illustrated in FIGS. 3a, 3a-bis, 3b, 3c, 3d, 4a , 4b, 4c are reversed along the vertical axis with respect to the image of FIG. 3.
La figure 3a illustre le résultat obtenu après l’étape 202, pour l’exemple particulier décrit à la figure 3. Selon cet exemple, l’image est décomposée en cellules et un pixel (représenté par un point sur la figure 3a) est calculé dans chaque cellule. FIG. 3a illustrates the result obtained after step 202, for the particular example described in FIG. 3. According to this example, the image is broken down into cells and a pixel (represented by a point in FIG. 3a) is calculated in each cell.
Sur la figure 3a-bis, on a représenté, pour illustration, en fond et en superposition à l’image de la figure 3a, l’image de l’objet obtenue avec une méthode d’imagerie TFM selon l’art antérieur ainsi que les cellules.  In FIG. 3a-bis, there is shown, for illustration, in the background and superimposed on the image of FIG. 3a, the image of the object obtained with a TFM imaging method according to the prior art as well as cells.
L’étape suivante 203 est une étape d’affinement de l’image calculée à l’étape 202. Il convient de noter que cette étape est optionnelle et que, dans un mode de réalisation particulier de l’invention, elle peut être omise, auquel cas l’étape suivante 204 est directement appliquée au résultat de l’étape 202. The following step 203 is a step of refining the image calculated in step 202. It should be noted that this step is optional and that, in a particular embodiment of the invention, it can be omitted, in which case the next step 204 is directly applied to the result of step 202.
Selon cette étape d’affinement 203, on effectue un sur échantillonnage de l’image à partir des pixels calculés à l’étape 202. Ce sur échantillonnage peut être réalisé de multiples façons.  According to this refinement step 203, the image is oversampled from the pixels calculated in step 202. This oversampling can be carried out in multiple ways.
Une première réalisation consiste à reprendre la décomposition en cellules effectuée à l’étape 202 et à affecter à tous les pixels d’une cellule, la valeur du pixel de la cellule calculé à l’étape 202. La distance entre deux pixels calculés est, par exemple, prédéterminée et peut être fonction de la longueur d’onde de l’onde élastique.  A first embodiment consists in resuming the decomposition into cells carried out in step 202 and in assigning to all the pixels of a cell, the value of the pixel of the cell calculated in step 202. The distance between two calculated pixels is, for example, predetermined and can be a function of the wavelength of the elastic wave.
Une autre réalisation possible de l’étape 203 consiste à réaliser une interpolation des pixels calculés à l’étape 202 pour affiner l’image. Différents types d’interpolation sont possibles, il peut s’agir d’une interpolation Gaussienne ou d’une interpolation linéaire ou encore d’une interpolation quadratique ou polynomiale ou bilinéaire polynomiale. Another possible embodiment of step 203 consists in performing an interpolation of the pixels calculated in step 202 to refine the image. Different types of interpolation are possible, it can be an interpolation Gaussian or a linear interpolation or a quadratic or polynomial or bilinear polynomial interpolation.
L'interpolation bilinéaire peut s'interpréter comme une succession de deux interpolations linéaires, une dans chaque direction. Contrairement à ce que son nom suggère, la fonction d'interpolation bilinéaire polynomiale n'est pas une forme linéaire mais quadratique, qui peut se mettre sous la forme : f(x,y) = a x + b y + c x y + d  Bilinear interpolation can be interpreted as a succession of two linear interpolations, one in each direction. Contrary to what its name suggests, the polynomial bilinear interpolation function is not a linear but quadratic form, which can be put in the form: f (x, y) = a x + b y + c x y + d
f(x ,y) est la valeur interpolée au point de coordonnées ( x , y ) et a , b, c et d sont des constantes déterminées à partir des quatre points voisins ( x1 , y1 ), ( x2 , y1 ) , ( x1 , y2 ) , ( x2 , y2 ) du point ( x , y ) dont on cherche la valeur.  f (x, y) is the interpolated value at the point of coordinates (x, y) and a, b, c and d are constants determined from the four neighboring points (x1, y1), (x2, y1), ( x1, y2), (x2, y2) of the point (x, y) whose value is sought.
Dans le cas où l’imagerie est en trois dimensions, on applique une interpolation en trois dimensions, par exemple une succession de trois interpolations linéaires, une dans chaque direction. In the case where the imagery is in three dimensions, a three-dimensional interpolation is applied, for example a succession of three linear interpolations, one in each direction.
Un objectif de l’interpolation est de permettre une identification, dans l’image, des zones d’amplitude les plus fortes correspondants aux défauts que l’on souhaite identifier. L’interpolation Gaussienne ou régression Gaussienne ou interpolation par procédé Gaussien (en anglais Gaussian Process Regressor ou GPR) est une méthode dite de « machine learning » supervisée souvent présentée comme une alternative à l’interpolation classique. Il s’agit d’un procédé itératif qui observe les points fournis par l’étape 202 du procédé un à un, en adaptant sa régression au fur et à mesure. La régression Gaussienne n’est pas une régression paramétrique (c’est-à-dire qu’elle ne définit pas un nombre fixe de paramètres à estimer, par exemple la régression linéaire’y= ax+b’ a deux paramètres), mais elle essaie de réaliser la régression de manière probabiliste en cherchant des distributions gaussiennes permettant de prédire au mieux la fonction à reconstruire. Un exemple de régression Gaussienne est décrit dans la référence [1 1 ]. En particulier, un avantage à l’utilisation d’une interpolation Gaussienne est qu’elle permet de mieux représenter les extrema de l’image qui correspondent à des réflecteurs. An objective of the interpolation is to allow an identification, in the image, of the zones of strongest amplitude corresponding to the defects which one wishes to identify. Gaussian interpolation or Gaussian regression or Gaussian process interpolation (in English Gaussian Process Regressor or GPR) is a method called supervised "machine learning" often presented as an alternative to classical interpolation. It is an iterative method which observes the points provided by step 202 of the method one by one, adapting its regression as and when. The Gaussian regression is not a parametric regression (that is, it does not define a fixed number of parameters to be estimated, for example the linear regression 'y = ax + b' has two parameters), but it tries to carry out the regression in a probabilistic way by looking for Gaussian distributions making it possible to predict at best the function to be reconstructed. An example of Gaussian regression is described in reference [1 1]. In particular, an advantage in using a Gaussian interpolation is that it makes it possible to better represent the extrema of the image which correspond to reflectors.
Un autre moyen d’affiner la représentation des extrema de l’image consiste à augmenter le nombre de points sur lequel est réalisé l’interpolation.  Another way to refine the representation of the extrema of the image is to increase the number of points on which the interpolation is performed.
Sur la figure 3b, on a représenté un exemple de résultat de l’étape 203 dans le cas d’une interpolation Gaussienne. On peut identifier sur cette image un indicateur de défaut aux alentours de la position (x,y)=(150,100) et une zone en haut de l’image correspondant au fond de la pièce. In FIG. 3b, an example of the result of step 203 has been shown in the case of a Gaussian interpolation. We can identify on this image a fault indicator around the position (x, y) = (150,100) and an area at the top of the image corresponding to the bottom of the room.
Dans une étape suivante 204, on détermine, à partir de l’image obtenue après l’étape 203, ou après l’étape 202 si l’étape 203 est omise, un ensemble de zones d’intérêts de l’image qui correspondent aux zones de l’objet dans lesquelles se situe potentiellement un défaut ou plus généralement un élément que l’on souhaite visualiser avec précision. Autrement dit, les zones d’intérêts de l’image correspondent aux zones de l’objet que l’on souhaite imager avec une résolution importante. In a following step 204, it is determined, from the image obtained after step 203, or after step 202 if step 203 is omitted, a set of areas of interest of the image which correspond to the areas of the object in which there is potentially a defect or more generally an element that one wishes to visualize with precision. In other words, the areas of interest of the image correspond to the areas of the object that one wishes to image with a high resolution.
De façon générale, pour définir une zone d’intérêt, on cherche à identifier les extrema locaux des valeurs des pixels de l’image qui correspondent, en moyenne, à des points remarquables de l’image que l’on souhaite visualiser avec précision.  In general, to define an area of interest, one seeks to identify the local extrema of the values of the pixels of the image which correspond, on average, to remarkable points of the image which one wishes to visualize with precision.
Une réalisation possible de l’étape 204 consiste à définir un seuil auquel sont comparées les valeurs de chaque pixel de l’image. En fonction du résultat de la comparaison, le pixel est classé ou non dans une zone d’intérêt. Si les valeurs des pixels présentent des valeurs positives et négatives, la comparaison est réalisée entre la valeur absolue d’un pixel et le seuil. La valeur du seuil est un paramètre de l’invention qui peut être déterminée en fonction de la moyenne des valeurs des pixels et des valeurs absolues maximales des pixels. Le seuil peut être, par exemple déterminé comme un pourcentage de la valeur moyenne de l’ensemble des pixels calculés à l’étape précédente. Ce pourcentage est, par exemple, égal à 100%, 50% ou 200% ou toute autre valeur paramétrée par l’utilisateur. Il s’agit d’un seuil en proportion de l’énergie totale. Les pixels de l’image qui présentent une valeur absolue supérieure à ce seuil sont sélectionnés pour faire partie d’une zone d’intérêt. One possible embodiment of step 204 consists in defining a threshold against which the values of each pixel of the image are compared. Depending on the result of the comparison, the pixel is classified or not in an area of interest. If the pixel values have positive and negative values, the comparison is made between the absolute value of a pixel and the threshold. The threshold value is a parameter of the invention which can be determined as a function of the average of the pixel values and the maximum absolute values of the pixels. The threshold can for example be determined as a percentage of the average value of all the pixels calculated in the previous step. This percentage is, for example, equal to 100%, 50% or 200% or any other value set by the user. It is a threshold in proportion to the total energy. The pixels of the image which have an absolute value greater than this threshold are selected to form part of an area of interest.
D’autres possibilités existent pour fixer la valeur du seuil. Elle peut être fixe mais aussi réglable en fonction de l’application visée ou déterminé à partir des premières mesures sur l’objet à imager.  Other possibilities exist for setting the threshold value. It can be fixed but also adjustable depending on the intended application or determined from the first measurements on the object to be imaged.
Une autre alternative est de définir une zone d’intérêt en se basant sur un nombre de points (et non pas sur l’énergie). Par exemple, une zone d’intérêt peut être définie en sélectionnant un nombre prédéterminé de pixels dont la valeur est la plus grande dans l’image.  Another alternative is to define an area of interest based on a number of points (and not on energy). For example, an area of interest can be defined by selecting a predetermined number of pixels with the largest value in the image.
Une autre alternative est de calculer les maxima et/ou minima locaux de la cartographie estimée et de sélectionner un nombre prédéterminé de pixels aux alentours de ces extrema pour définir les zones d’intérêts.  Another alternative is to calculate the local maxima and / or minima of the estimated mapping and to select a predetermined number of pixels around these extrema to define the areas of interest.
La figure 3c donne un exemple de zones d’intérêts identifiées à partir de l’image obtenue sur la figure 3b. Les zones d’intérêts sont détectées d’une part autour d’un défaut situé approximativement aux coordonnées (x=150, y=100) et d’autre part en haut de l’image, qui correspond au fond de la pièce imagée. Figure 3c gives an example of areas of interest identified from the image obtained in Figure 3b. The areas of interest are detected on the one hand around a defect located approximately at the coordinates (x = 150, y = 100) and on the other hand at the top of the image, which corresponds to the bottom of the pictured part.
Dans une dernière étape 205, on définit un second ensemble Q2 de points de l’objet, situés exclusivement dans les zones d’intérêts définies à l’étape 204 précédente, puis on calcule les pixels associés à ces points. Un objectif de l’étape 205 est de réaliser un échantillonnage spatial de l’image uniquement dans les zones d’intérêts définies, c'est-à-dire pour les zones de l’objet que l’on souhaite imager avec une résolution importante. Le niveau d’échantillonnage choisi est supérieur au niveau d’échantillonnage utilisé pour l’étape de pré-échantillonnage 202. Ainsi, on définit dans les zones d’intérêts une grille d’échantillonnage plus dense que celle choisie à l’étape 202 pour définir le premier ensemble Qi de points. In a last step 205, a second set Q 2 of points of the object is defined, located exclusively in the areas of interest defined in the previous step 204, then the pixels associated with these points are calculated. An objective of step 205 is to carry out a spatial sampling of the image only in the defined areas of interest, that is to say for the areas of the object which it is desired to image with a high resolution. . The level of sampling chosen is higher than the level of sampling used for the pre-sampling step 202. Thus, a denser sampling grid is defined in the areas of interest than that chosen in step 202 for define the first set Qi of points.
Dans une variante particulière de l’étape 205, l’échantillonnage spatial est appliqué dans les zones d’intérêts élargies aux points situés à une distance prédéfinie de ces zones. La distance dépend, par exemple, de la longueur d’onde de l’onde élastique. Cette variante permet de s’assurer que des points importants, situés entre deux zones d’intérêts par exemple, sont bien sélectionnés.  In a particular variant of step 205, spatial sampling is applied in the areas of interest widened at the points located at a predefined distance from these areas. The distance depends, for example, on the wavelength of the elastic wave. This variant makes it possible to ensure that important points, located between two areas of interest for example, are well selected.
Le nombre de points ou la densité des points du second ensemble Q2 est choisie en fonction de la résolution souhaitée. Ces paramètres peuvent dépendre de la longueur d’onde de l’onde élastique. The number of points or the density of the points of the second set Q 2 is chosen according to the desired resolution. These parameters can depend on the wavelength of the elastic wave.
Le second ensemble Q2 peut comprendre des pixels déjà calculés à l’étape 202, c'est-à-dire pour des points qui appartiennent aussi au premier ensemble Qi. Selon l’implémentation choisie, ces pixels sont recalculés ou non. The second set Q 2 may include pixels already calculated in step 202, that is to say for points which also belong to the first set Qi. Depending on the implementation chosen, these pixels are recalculated or not.
La figure 3d illustre un exemple de sur-échantillonnage réalisé à l’étape 205 pour les zones d’intérêts définies à l’étape 204. La figure 3d correspond à l’image finale qui est composée des pixels calculés à l’étape 202 de pré-échantillonnage et des pixels calculés à l’étape 205 de sur- échantillonnage.  FIG. 3d illustrates an example of oversampling carried out in step 205 for the areas of interest defined in step 204. FIG. 3d corresponds to the final image which is composed of the pixels calculated in step 202 of pre-sampling and pixels calculated in step 205 of oversampling.
Pour une image de même taille et même résolution, le gain de réduction du nombre de pixels calculés pour l’image de la figure 3d par rapport à une image calculée avec une méthode TFM classique est de l’ordre de 80%. L’erreur moyenne estimée entre l’image de la figure 3d et une image calculée avec une méthode TFM classique est de l’ordre de 4%. Les figures 4a, 4b, 4c illustrent les résultats obtenus par le procédé selon l’invention lorsque l’étape 202 ne comporte pas d’interpolation mais un simple sur-échantillonnage selon lequel chaque pixel d’une cellule prend la valeur du pixel de la cellule calculé à l’étape 201 . La figure 4a illustre l’image obtenue après l’étape 201. La figure 4b illustre les zones d’intérêts déterminées dans l’image après l’étape 203. La figure 4c illustre l’image finale obtenue après l’étape 204. For an image of the same size and same resolution, the reduction gain in the number of pixels calculated for the image of FIG. 3d compared to an image calculated with a conventional TFM method is of the order of 80%. The estimated average error between the image in Figure 3d and an image calculated with a conventional TFM method is of the order of 4%. FIGS. 4a, 4b, 4c illustrate the results obtained by the method according to the invention when step 202 does not include an interpolation but a simple oversampling according to which each pixel of a cell takes the value of the pixel of the cell calculated in step 201. FIG. 4a illustrates the image obtained after step 201. FIG. 4b illustrates the areas of interest determined in the image after step 203. FIG. 4c illustrates the final image obtained after step 204.
Le gain de réduction du nombre de pixels calculés pour l’image de la figure 4c par rapport à une image calculée avec une méthode TFM est de l’ordre de 89%. L’erreur moyenne entre les deux images est de l’ordre de 3%.  The reduction gain in the number of pixels calculated for the image of FIG. 4c compared to an image calculated with a TFM method is around 89%. The average error between the two images is around 3%.
Dans une variante de réalisation de l’invention, l’étape 202 ou la combinaison des étapes 202 et 203 est/sont itérée(s) dans chaque zone d’intérêt définie à l’étape 204 afin de permettre de mettre à jour la définition des zones d’intérêts à chaque itération et ainsi d’améliorer la précision de la définition de ces zones. In an alternative embodiment of the invention, step 202 or the combination of steps 202 and 203 is / are iterated in each area of interest defined in step 204 in order to allow the definition to be updated. areas of interest at each iteration and thus improve the precision of the definition of these areas.
A l’issue de l’étape 205, l’image obtenue est composée de pixels irrégulièrement répartis dans l’image. En effet, dans les zones d’intérêts, le niveau d’échantillonnage est plus élevé que dans le reste de l’image ce qui entraîne une densité de pixels plus élevée dans les zones d’intérêts que dans le reste de l’image. At the end of step 205, the image obtained is composed of pixels irregularly distributed in the image. In fact, in the areas of interest, the sampling level is higher than in the rest of the image, which results in a higher pixel density in the areas of interest than in the rest of the image.
Afin d’obtenir une image ayant une densité de pixels uniforme, une étape 206 d’interpolation barycentrique est ajoutée au procédé. Cette étape consiste à définir une grille de points régulière correspondant à la densité de pixels recherchée pour l’image finale. En faisant coïncider cette grille avec l’image obtenue à l’étape 205, on identifie les pixels appartenant à la grille qui ont déjà été calculés et ceux qui n’ont pas été calculés, notamment car ils correspondent à des points situés hors des zones d’intérêts. Les points de la grille qui n’ont pas encore été calculés sont déterminés par interpolation barycentrique tel qu’illustré à la figure 5. In order to obtain an image having a uniform pixel density, a step 206 of barycentric interpolation is added to the method. This step consists in defining a regular dot grid corresponding to the pixel density sought for the final image. By making this grid coincide with the image obtained in step 205, the pixels belonging to the grid which have already been calculated and those which have not been calculated are identified, in particular since they correspond to points situated outside the zones interest. The grid points that have not yet been calculated are determined by barycentric interpolation as shown in Figure 5.
Pour cela, on définit au préalable des triangles (a,b,c) formés à partir de trois pixels voisins de l’image générée à l’étape 205.  To do this, we first define triangles (a, b, c) formed from three pixels neighboring the image generated in step 205.
Pour chaque nouveau point de la grille régulière qui est à l’intérieur du triangle (a,b,c), on calcule un pixel par interpolation barycentrique à l’aide de la relation suivante : P=aw+bu+cv où (a,b,c) sont les valeurs des pixels des trois sommets du triangle et (w,u,v) sont les aires respectives des triangles (P,c,b), (P,c,a) et (P, b, a).  For each new point of the regular grid which is inside the triangle (a, b, c), we calculate a pixel by barycentric interpolation using the following relation: P = aw + bu + cv where (a , b, c) are the pixel values of the three vertices of the triangle and (w, u, v) are the respective areas of the triangles (P, c, b), (P, c, a) and (P, b, at).
Ce calcul est réalisé pour tous les points de la grille pour lesquels un pixel n’a pas été calculé à l’issue de l’étape 205, en définissant à chaque fois un triangle à partir des pixels déjà calculés et situés à proximité du nouveau point à calculer.  This calculation is carried out for all the points of the grid for which a pixel has not been calculated at the end of step 205, by defining each time a triangle from the pixels already calculated and located near the new point to calculate.
L’interpolation barycentrique permet d’obtenir un maillage régulier des pixels dans l’image à partir d’un maillage irrégulier. Elle présente les avantages de ne pas générer d’artefacts contrairement à d’autres types d’interpolation comme l’interpolation linéaire et d’être efficace d’un point de vue algorithmique donc peu chère en termes de complexité de calcul. On décrit à présent un mode de réalisation particulier de l’invention dans lequel un algorithme particulier est utilisé pour réaliser les étapes de définition 204 et de suréchantillonnage 205 des zones d’intérêts.  Barycentric interpolation makes it possible to obtain a regular mesh of the pixels in the image from an irregular mesh. It has the advantages of not generating artifacts unlike other types of interpolation such as linear interpolation and of being efficient from an algorithmic point of view and therefore inexpensive in terms of computational complexity. We now describe a particular embodiment of the invention in which a particular algorithm is used to carry out the steps of defining 204 and oversampling 205 of the areas of interest.
Le procédé selon ce mode de réalisation particulier est décrit à la figure 6.  The method according to this particular embodiment is described in FIG. 6.
Les étapes d’acquisition des signaux 601 et de pré-échantillonnage de l’image 602 sont identiques aux étapes 201 ,202 décrites pour la figure 2.  The steps for acquiring signals 601 and for pre-sampling the image 602 are identical to steps 201, 202 described for FIG. 2.
Ce mode de réalisation de l’invention se base sur une décomposition de l’image à l’aide d’une structure en arbre telle que représentée sur la figure 7b, dans laquelle chaque nœud parent NP0,NPi possède quatre nœuds fils, cette structure étant répétée récursivement. Le nœud parent de plus haut niveau correspond à l’image entière. Chaque nœud peut être subdivisé en quatre zones comme illustré sur la figure 7a. L’image peut ainsi être subdivisée en sous-zones de façon récursive. This embodiment of the invention is based on a decomposition of the image using a tree structure as shown in FIG. 7b, in which each parent node NP 0 , NPi has four child nodes, this structure being repeated recursively. The highest level parent node corresponds to the entire image. Each node can be subdivided into four zones as illustrated in Figure 7a. The image can thus be subdivided into sub-areas recursively.
Pour chaque zone de l’image associée à un nœud de l’arbre, on calcule neuf pixels situés respectivement au centre C de la zone et aux huit points cardinaux N,NE,E,SE,S,SW,W,NW comme illustré sur la figure 7c.  For each area of the image associated with a node in the tree, nine pixels are calculated respectively located at the center C of the area and at the eight cardinal points N, NE, E, SE, S, SW, W, NW as illustrated in Figure 7c.
Bien entendu, si un pixel a déjà été calculé pour un nœud voisin ou un nœud parent, il n’est pas recalculé.  Of course, if a pixel has already been calculated for a neighboring node or a parent node, it is not recalculated.
L’étape de pré-échantillonnage 602 de l’image est réalisée en décomposant l’image au moyen du processus récursif décrit ci-dessus jusqu’à un niveau de profondeur donné. The image pre-sampling step 602 is carried out by decomposing the image by means of the recursive process described above up to a given level of depth.
La figure 8a illustre un exemple d’image décomposée en sous-zones selon une grille régulière obtenue via le principe évoqué ci-dessus.  FIG. 8a illustrates an example of an image broken down into sub-zones according to a regular grid obtained via the principle mentioned above.
Dans une étape 603, un score est ensuite calculé pour chaque nœud de la grille obtenue. Le score peut être défini de différentes manières en fonction des zones d’intérêt de l’image que l’on souhaite échantillonner plus fortement. Les zones d’intérêt correspondent, par exemple, à de fortes valeurs d’intensité de pixels, à des extrema locaux des pixels ou à des valeurs de gradient élevées. Plus généralement, les zones d’intérêt correspondent à des zones comprenant de l’information. In a step 603, a score is then calculated for each node of the grid obtained. The score can be defined in different ways depending on the areas of interest of the image that we want to sample more strongly. The areas of interest correspond, for example, to high pixel intensity values, to local pixel extrema or to high gradient values. More generally, the areas of interest correspond to areas comprising information.
Ainsi, selon un premier exemple, le score calculé pour une zone (associée à un nœud) est égal à la valeur maximale parmi les neuf pixels associés à cette zone.  Thus, according to a first example, the score calculated for an area (associated with a node) is equal to the maximum value among the nine pixels associated with this area.
Selon un autre exemple, le score est égal à un gradient ou à une différence moyenne entre pixels voisins associés à une zone.  According to another example, the score is equal to a gradient or to an average difference between neighboring pixels associated with an area.
Selon un autre exemple, le score est égal à la différence maximale entre deux pixels quelconques associés à une zone. Selon encore un autre exemple, le score calculé, selon l’une des façons précédentes, est pondéré par un facteur de pondération qui dépend de la profondeur du nœud dans l’arbre. Plus la profondeur du nœud dans l’arbre est élevée, plus la valeur du score est diminuée. Ce facteur de pondération permet d’obtenir une meilleure fluidité dans la répartition de la densité de pixels dans l’image. In another example, the score is equal to the maximum difference between any two pixels associated with an area. According to yet another example, the score calculated, in one of the preceding ways, is weighted by a weighting factor which depends on the depth of the node in the tree. The greater the depth of the node in the tree, the lower the value of the score. This weighting factor makes it possible to obtain a better fluidity in the distribution of the density of pixels in the image.
Dans une étape 604, l’ensemble des nœuds de l’image sont triés selon la valeur de leur score calculé à l’étape 603, puis on sélectionne les N nœuds ayant les scores les plus élevés, N étant un entier supérieur ou égal à 1 . In a step 604, all of the nodes of the image are sorted according to the value of their score calculated in step 603, then the N nodes with the highest scores are selected, N being an integer greater than or equal to 1.
Les nœuds sélectionnés sont ensuite subdivisés selon la procédure décrite aux figures 7a et 7b (étape 605). Enfin de nouveaux pixels sont calculés (étape 606) pour les points des nouveaux nœuds obtenus qui n’ont pas déjà fait l’objet d’un calcul de pixel précédemment. The selected nodes are then subdivided according to the procedure described in Figures 7a and 7b (step 605). Finally, new pixels are calculated (step 606) for the points of the new nodes obtained which have not already been the subject of a pixel calculation previously.
La figure 8a illustre un exemple de nœuds sélectionnés après l’étape 604 et la figure 8b montre le résultat obtenu en subdivisant ces nœuds (après l’étape 605). FIG. 8a illustrates an example of nodes selected after step 604 and FIG. 8b shows the result obtained by subdividing these nodes (after step 605).
Les étapes 603 à 606 sont itérées autant de fois que souhaité afin d’affiner progressivement le niveau d’échantillonnage ou la densité de pixels calculés dans les zones d’intérêts définies à partir du score calculé à l’étape 603. Steps 603 to 606 are iterated as many times as desired in order to progressively refine the sampling level or the density of pixels calculated in the areas of interest defined from the score calculated in step 603.
A chaque itération, le calcul de score 603 est réalisé uniquement pour les nouveaux pixels générés à l’étape 606.  At each iteration, the score calculation 603 is performed only for the new pixels generated in step 606.
Le nombre d’itérations peut, par exemple, être fixé en fonction d’un nombre de pixels maximum à calculer par image mais d’autres critères d’arrêts des itérations peuvent être envisagés. Au final, on obtient une image avec une densité de pixels plus élevée dans certaines zones d’intérêt que dans le reste de l’image. The number of iterations can, for example, be fixed as a function of a maximum number of pixels to be calculated per image but other criteria for stopping the iterations can be envisaged. In the end, we obtain an image with a higher pixel density in certain areas of interest than in the rest of the image.
Pour obtenir une image avec une densité de pixels régulière, une interpolation barycentrique est ensuite appliquée de la façon décrite précédemment pour l’étape 206 de la figure 2.  To obtain an image with a regular pixel density, a barycentric interpolation is then applied in the manner described above for step 206 of FIG. 2.
Une étape préalable de triangulation 607 est appliquée à l’image afin de définir un ensemble de triangles dans lesquels une interpolation barycentrique 608 est réalisée. A prior triangulation step 607 is applied to the image in order to define a set of triangles in which a barycentric interpolation 608 is performed.
Les figures 9a, 9b et 9c illustrent l’étape de triangulation 607 sur un exemple. Figures 9a, 9b and 9c illustrate the triangulation step 607 in an example.
La figure 9a schématise une opération de triangulation à partir de neuf pixels calculés pour un nœud associé à une zone de l’image. A la fin du processus, la zone est décomposée en huit triangles.  FIG. 9a schematizes a triangulation operation from nine pixels calculated for a node associated with an area of the image. At the end of the process, the area is broken down into eight triangles.
La figure 9b représente un exemple de décomposition d’une image obtenue à l’issue de plusieurs itérations des étapes 603-606 et la figure 9c représente la même image après l’étape de triangulation 607. Chaque zone de l’image de la figure 9b est décomposée en triangles reliant les différents pixels calculés.  FIG. 9b represents an example of decomposition of an image obtained at the end of several iterations of steps 603-606 and FIG. 9c represents the same image after the triangulation step 607. Each zone of the image of the figure 9b is broken down into triangles connecting the different calculated pixels.
L’étape d’interpolation barycentrique 608 est ensuite appliquée de la façon déjà décrite pour l’étape 206 de la figure 2.  The barycentric interpolation step 608 is then applied in the manner already described for step 206 of FIG. 2.
On définit une grille de points régulière ayant une densité choisie et, pour chaque point de cette grille pour lequel un pixel n’est pas déjà calculé, on calcule un pixel par interpolation barycentrique à partir des sommets du triangle dans lequel se trouve le point selon la décomposition de l’image obtenue après l’étape de triangulation 607. Dans une variante de réalisation de l’invention, le niveau de pré échantillonnage de l’image (étape 602) est déterminé en fonction de la longueur d’onde du signal ultrasonore. Par exemple, la distance entre deux pixels calculés à l’étape 602 est un multiple ou une fraction de la longueur d’onde et est déterminée en fonction de la taille des plus petits défauts qu’il est possible d’imager avec cette longueur d’onde. En particulier, il existe une distance minimum égale à une fraction de la longueur d’onde pour laquelle il devient inutile d’augmenter l’échantillonnage spatial car aucune information supplémentaire ne sera détectable. We define a regular point grid with a chosen density and, for each point of this grid for which a pixel is not already calculated, we calculate a pixel by barycentric interpolation from the vertices of the triangle in which the point is located the decomposition of the image obtained after the triangulation step 607. In an alternative embodiment of the invention, the level of pre-sampling of the image (step 602) is determined as a function of the wavelength of the ultrasonic signal. For example, the distance between two pixels calculated in step 602 is a multiple or a fraction of the wavelength and is determined according to the size of the smallest defects that it is possible to image with this length d 'wave. In particular, there is a minimum distance equal to a fraction of the wavelength for which it becomes unnecessary to increase the spatial sampling because no additional information will be detectable.
Dans une autre variante de réalisation, l’étape de subdivision de l’image 605 prend en compte la longueur d’onde du signal ultrasonore. Par exemple, le processus de subdivision d’une zone est arrêté lorsque la distance entre deux pixels calculés pour cette zone est inférieure ou égale à une fraction de la longueur d’onde. Références In another alternative embodiment, the step of subdividing the image 605 takes into account the wavelength of the ultrasonic signal. For example, the process of subdividing an area is stopped when the distance between two pixels calculated for this area is less than or equal to a fraction of the wavelength. References
[1] J. Lambert, A. Pedron, G. Gens, F. Bimbard, L. Lacassagne et E. lakovleva, «Performance évaluation of total focusing method on GPP and GPU,» Design and Architectures for Signal and Image Processing (DASIP), 2012 Conférence on, 2012. [1] J. Lambert, A. Pedron, G. Gens, F. Bimbard, L. Lacassagne and E. lakovleva, "Performance evaluation of total focusing method on GPP and GPU," Design and Architectures for Signal and Image Processing (DASIP ), 2012 Conference on, 2012.
[2] G. Rougeron, J. Lambert, E. lakovleva, L. Lacassagne et N. Dominguez, «Implémentation of a GPU accelerated total focusing reconstruction method within CIVA software,» AIP Conférence Proceedings, 2014.  [2] G. Rougeron, J. Lambert, E. lakovleva, L. Lacassagne and N. Dominguez, “Implementation of a GPU accelerated total focusing reconstruction method within CIVA software,” AIP Conférence Proceedings, 2014.
[3] J. Guo, X. Li, X. Gao, Z. Wang et Q. Zhao, «Implémentation of total focusing method for phased array ultrasonic imaging on FPGA,» Ninth [3] J. Guo, X. Li, X. Gao, Z. Wang and Q. Zhao, "Implementation of total focusing method for phased array ultrasonic imaging on FPGA," Ninth
International Symposium on Précision Engineering Measurement and Instrumentation, 2015. International Symposium on Precision Engineering Measurement and Instrumentation, 2015.
[4] M. Njiki, A. Elouardi, S. Bouaziz, O. Casula et O. Roy, «A real-time implémentation of the total focusing method for rapid and précisé diagnostic in non destructive évaluation,» Application-Specific Systems, Architectures and Processors (ASAP), 2013 IEEE 24th International Conférence on. [5] SAFT : Mayer, K., et al. "Three-dimensional imaging System based on Fourier transform synthetic aperture focusing technique." Ultrasonics 28.4 (1990): 241 -255. [4] M. Njiki, A. Elouardi, S. Bouaziz, O. Casula and O. Roy, "A real-time implementation of the total focusing method for rapid and precise diagnostic in non-destructive evaluation," Application-Specific Systems, Architectures and Processors (ASAP), 2013 IEEE 24th International Conférence on. [5] SAFT: Mayer, K., et al. "Three-dimensional imaging System based on Fourier transform synthetic aperture focusing technique." Ultrasonics 28.4 (1990): 241-255.
[6] MUSIC : Schmidt, Ralph. "Multiple emitter location and signal parameter estimation." IEEE transactions on antennas and propagation 34.3 (1986): [6] MUSIC: Schmidt, Ralph. "Multiple emitter location and signal parameter estimation." IEEE transactions on antennas and propagation 34.3 (1986):
276-280. 276-280.
[7] Excitelet : Quaegebeur, N.; Masson, P.; Langlois-Demers, D. & Micheau, P. Dispersion-based imaging for structural health monitoring using sparse and compact arrays Smart Materials and Structures, IOP Publishing, 201 1 , 20, 025005  [7] Excitelet: Quaegebeur, N .; Masson, P .; Langlois-Demers, D. & Micheau, P. Dispersion-based imaging for structural health monitoring using sparse and compact arrays Smart Materials and Structures, IOP Publishing, 201 1, 20, 025005
[8] DAS : Michaëls, J. E. Détection, localization and characterization of damage in plates with an in situ array of spatially distributed ultrasonic sensors Smart Materials and Structures, IOP Publishing, 2008, 17, 035035 [8] DAS: Michaëls, J. E. Detection, localization and characterization of damage in plates with an in situ array of spatially distributed ultrasonic sensors Smart Materials and Structures, IOP Publishing, 2008, 17, 035035
[9]MVDR : Hall, J. S. & Michaëls, J. E. Minimum variance ultrasonic imaging applied to an in situ sparse guided wave array IEEE transactions on ultrasonics, ferroelectrics, and frequency control, IEEE, 2010, 57, 231 1 -2323[9] MVDR: Hall, J. S. & Michaëls, J. E. Minimum variance ultrasonic imaging applied to an in situ sparse guided wave array IEEE transactions on ultrasonics, ferroelectrics, and frequency control, IEEE, 2010, 57, 231 1 -2323
[10] RAPID : Zhao, X.; Gao, H.; Zhang, G.; Ayhan, B.; Yan, F.; Kwan, C. & Rose, J. L. Active health monitoring of an aircraft wing with embedded piezoelectric sensor/actuator network: I. Defect détection, localization and growth monitoring Smart materials and structures, IOP Publishing, 2007, 16, 1208, [10] RAPID: Zhao, X .; Gao, H .; Zhang, G .; Ayhan, B .; Yan, F .; Kwan, C. & Rose, J. L. Active health monitoring of an aircraft wing with embedded piezoelectric sensor / actuator network: I. Defect detection, localization and growth monitoring Smart materials and structures, IOP Publishing, 2007, 16, 1208,
[11 ] M.Ebden, “Gaussian Processes for Régression: a quick introduction”, August 2008.  [11] M.Ebden, “Gaussian Processes for Régression: a quick introduction”, August 2008.

Claims

REVENDICATIONS
1. Procédé d’imagerie pour imager un objet (OBJ) à l’aide d’un dispositif d’imagerie comprenant une pluralité d’émetteurs (Cj) aptes à émettre une onde élastique dans l’objet à imager et une pluralité de récepteurs (Ci) aptes à recevoir une onde élastique provenant de l’objet à imager, ledit procédé comprenant les étapes de : 1. Imaging method for imaging an object (OBJ) using an imaging device comprising a plurality of transmitters (Cj) capable of emitting an elastic wave in the object to be imaged and a plurality of receivers (Ci) capable of receiving an elastic wave coming from the object to be imaged, said method comprising the steps of:
- Déterminer (202) une première image de l’objet, à un premier niveau d’échantillonnage spatial, à partir d’une pluralité de signaux reçus chacun par l’un desdits récepteurs,  - Determine (202) a first image of the object, at a first level of spatial sampling, from a plurality of signals each received by one of said receivers,
- Définir (204), dans l’image, au moins une zone d’intérêt de l’objet à imager,  - Define (204), in the image, at least one area of interest of the object to be imaged,
- Déterminer (205) une seconde image de l’objet à partir d’une pluralité de signaux reçus chacun par l’un desdits récepteurs, la seconde image présentant, dans chaque zone d’intérêt, un second niveau d’échantillonnage spatial supérieur au premier niveau d’échantillonnage spatial, la seconde image ayant une densité de pixels non uniforme,  - Determine (205) a second image of the object from a plurality of signals each received by one of said receivers, the second image having, in each area of interest, a second level of spatial sampling greater than first level of spatial sampling, the second image having a non-uniform pixel density,
- Appliquer (206) une interpolation barycentrique aux pixels de la seconde image afin d’obtenir une troisième image ayant une densité de pixels sensiblement uniforme.  - Apply (206) barycentric interpolation to the pixels of the second image in order to obtain a third image having a substantially uniform pixel density.
2. Procédé d’imagerie selon la revendication 1 dans lequel le premier niveau d’échantillonnage spatial est défini (204) en décomposant l’objet en cellules et en sélectionnant un point dans chaque cellule. 2. The imaging method according to claim 1 wherein the first level of spatial sampling is defined (204) by decomposing the object into cells and selecting a point in each cell.
3. Procédé d’imagerie selon la revendication 2 dans lequel la sélection d’un point dans chaque cellule suit une distribution aléatoire. 3. The imaging method according to claim 2 wherein the selection of a point in each cell follows a random distribution.
4. Procédé d’imagerie selon la revendication 2 dans lequel la sélection d’un point dans chaque cellule suit une distribution prédéfinie. 4. The imaging method according to claim 2, in which the selection of a point in each cell follows a predefined distribution.
5. Procédé d’imagerie selon l’une des revendications 2, 3 ou 4 comprenant en outre une étape (203) de sur-échantillonner la première image en affectant à chaque pixel d’un point d’une cellule la valeur du pixel calculé pour le point sélectionné de ladite cellule. 5. An imaging method according to one of claims 2, 3 or 4 further comprising a step (203) of oversampling the first image by assigning to each pixel of a point of a cell the value of the calculated pixel for the selected point of said cell.
6. Procédé d’imagerie selon l’une des revendications 1 à 4 comprenant en outre une étape (203) de sur-échantillonner la première image en effectuant une interpolation des pixels de la première image. 6. The imaging method according to claim 1, further comprising a step (203) of oversampling the first image by interpolating the pixels of the first image.
7. Procédé d’imagerie selon la revendication 6 dans lequel l'interpolation est polynomiale, linéaire ou réalisée par procédé Gaussien. 7. The imaging method according to claim 6, in which the interpolation is polynomial, linear or carried out by the Gaussian method.
8. Procédé d’imagerie selon l’une des revendications précédentes dans lequel au moins une zone d’intérêt est élargie en intégrant tous les points situés à une distance prédéterminée de la zone d’intérêt. 8. An imaging method according to one of the preceding claims in which at least one area of interest is enlarged by integrating all the points located at a predetermined distance from the area of interest.
9. Procédé d’imagerie selon la revendication 8 dans lequel la distance prédéterminée dépend de la longueur d’onde de l’onde élastique. 9. The imaging method according to claim 8, in which the predetermined distance depends on the wavelength of the elastic wave.
10. Procédé d’imagerie selon l’une des revendications précédentes dans lequel une zone d’intérêt comprend au moins un pixel dont la valeur est un extrema local. 10. The imaging method according to claim 1, in which an area of interest comprises at least one pixel whose value is a local extrema.
11. Procédé d’imagerie selon l’une des revendications précédentes dans lequel la définition (204), dans la première image, d’au moins une zone d’intérêt de l’objet à imager comprend les sous-étapes de : 11. The imaging method according to claim 1, in which the definition (204), in the first image, of at least one area of interest of the object to be imaged comprises the substeps of:
- définir un seuil d’amplitude,  - define an amplitude threshold,
- comparer chaque pixel de la première image au seuil d’amplitude, - définir si le pixel de la première image appartient ou non à une zone d’intérêt en fonction du résultat de la comparaison. - compare each pixel of the first image to the amplitude threshold, - define whether the pixel of the first image belongs or not to an area of interest according to the result of the comparison.
12. Procédé d’imagerie selon l’une des revendications précédentes dans lequel l’image de l’objet est une image en deux dimensions ou en trois dimensions. 12. The imaging method according to claim 1, in which the image of the object is a two-dimensional or three-dimensional image.
13. Procédé d’imagerie selon l’une des revendications précédentes comprenant en outre les étapes préalables (201 ) de : 13. An imaging method according to one of the preceding claims further comprising the preliminary steps (201) of:
- Emettre, depuis chaque émetteur, une onde élastique dans l’objet à imager,  - Emit, from each transmitter, an elastic wave in the object to be imaged,
- Recevoir, dans chaque récepteur, une onde élastique provenant de l’objet à imager.  - Receive, in each receiver, an elastic wave coming from the object to be imaged.
14. Procédé d’imagerie selon l’une des revendications précédentes dans lequel la détermination (202,205) d’une image de l’objet comprend le calcul d’une pluralité de pixels correspondant chacun à un point (P) de l’objet en exécutant les sous-étapes de : 14. The imaging method as claimed in claim 1, in which the determination (202.205) of an image of the object comprises the calculation of a plurality of pixels each corresponding to a point (P) of the object in performing the substeps of:
- Pour chaque couple émetteur-récepteur (Cj,Cj), déterminer un temps de vol correspondant à une durée théorique nécessaire à l’onde élastique pour parcourir un trajet depuis l’émetteur (Cj) jusqu’au récepteur (C,) en passant par le point (P) de l’objet, - Déterminer une somme des amplitudes extraites d’un ensemble d’ondes élastiques émises par lesdits émetteurs et reçus par lesdits récepteurs, aux temps de vol déterminés à l’étape précédente. - For each transmitter-receiver pair (C j , Cj), determine a flight time corresponding to a theoretical duration necessary for the elastic wave to travel a path from the transmitter (C j ) to the receiver (C,) passing through point (P) of the object, - Determine a sum of the amplitudes extracted from a set of elastic waves emitted by said transmitters and received by said receivers, at the flight times determined in the previous step.
15. Procédé d’imagerie selon l’une des revendications précédentes dans lequel l’onde élastique est une onde ultrasonore ou une onde guidée. 15. An imaging method according to one of the preceding claims wherein the elastic wave is an ultrasonic wave or a guided wave.
16. Procédé d’imagerie selon l’une des revendications précédentes dans lequel l’étape (206) d’appliquer une interpolation barycentrique à la seconde image comprend les sous-étapes de : - Définir au moins un triangle élémentaire dont les sommets sont trois pixels voisins calculés pour la seconde image, 16. An imaging method according to claim 1, in which the step (206) of applying a barycentric interpolation to the second image comprises the sub-steps of: - Define at least one elementary triangle whose vertices are three neighboring pixels calculated for the second image,
- Calculer au moins un nouveau pixel à l’intérieur du triangle élémentaire par interpolation barycentrique fonction desdits trois pixels et des aires respectives des triangles définis par le nouveau pixel et deux sommets du triangle élémentaire.  - Calculate at least one new pixel inside the elementary triangle by barycentric interpolation as a function of said three pixels and the respective areas of the triangles defined by the new pixel and two vertices of the elementary triangle.
17. Procédé d’imagerie selon la revendication 16 dans lequel l’étape (206) d’appliquer une interpolation barycentrique à la seconde image comprend : 17. The imaging method according to claim 16 in which the step (206) of applying a barycentric interpolation to the second image comprises:
- La définition d’une grille d’échantillonnage de densité uniforme pour la troisième image,  - The definition of a uniform density sampling grid for the third image,
- Le calcul d’un nouveau pixel par interpolation barycentrique pour tous les points de ladite grille pour lesquels un pixel n’a pas déjà été calculé,  - The calculation of a new pixel by barycentric interpolation for all the points of said grid for which a pixel has not already been calculated,
- Chaque nouveau pixel étant calculé à partir d’un triangle élémentaire défini par trois pixels déjà calculés et dans lequel se situe le nouveau pixel.  - Each new pixel being calculated from an elementary triangle defined by three pixels already calculated and in which the new pixel is located.
18. Procédé d’imagerie selon l’une des revendications précédentes dans lequel les étapes de définir (204) au moins une zone d’intérêt de l’objet à imager et de déterminer (205) une seconde image de l’objet sont réalisées au moyen des étapes récursives suivantes : 18. An imaging method according to one of the preceding claims in which the steps of defining (204) at least one area of interest of the object to be imaged and of determining (205) a second image of the object are carried out using the following recursive steps:
- Décomposer l’image en sous-zones,  - Break down the image into sub-areas,
- Calculer (603) un score pour chaque sous-zone,  - Calculate (603) a score for each sub-area,
- Sélectionner (604) les N sous-zones ayant les scores les plus élevés, N étant un entier supérieur ou égal à 1 ,  - Select (604) the N subzones with the highest scores, N being an integer greater than or equal to 1,
- Subdiviser (605) chacune des N sous-zones en quatre sous- zones, - Calculer (606) de nouveaux pixels au centre et aux points cardinaux de chaque sous-zone, si ces pixels n’ont pas déjà été calculés. - Subdivide (605) each of the N sub-areas into four sub-areas, - Calculate (606) new pixels at the center and at the cardinal points of each sub-area, if these pixels have not already been calculated.
19. Procédé d’imagerie selon la revendication 18 dans lequel le score calculé pour une sous-zone dépend des amplitudes des pixels calculés pour le centre et les points cardinaux de la sous-zone. 19. The imaging method according to claim 18, in which the score calculated for a sub-area depends on the amplitudes of the pixels calculated for the center and the cardinal points of the sub-area.
20. Dispositif d’imagerie pour imager un objet, le dispositif comprenant une interface pour recevoir une pluralité de signaux reçus par une pluralité de récepteurs aptes à recevoir une onde élastique provenant d’un objet (OBJ) à imager et un imageur (IMG) configuré pour mettre en oeuvre les étapes du procédé d’imagerie selon l’une quelconque des revendications précédentes. 20. An imaging device for imaging an object, the device comprising an interface for receiving a plurality of signals received by a plurality of receivers capable of receiving an elastic wave coming from an object (OBJ) to be imaged and an imager (IMG) configured to implement the steps of the imaging method according to any one of the preceding claims.
21. Dispositif d’imagerie selon la revendication 20, comprenant une pluralité d’émetteurs (Cj) aptes à émettre une onde élastique dans l’objet à imager et une pluralité de récepteurs (C,) aptes à recevoir une onde élastique provenant de l’objet à imager. 21. An imaging device according to claim 20, comprising a plurality of transmitters (C j ) capable of emitting an elastic wave in the object to be imaged and a plurality of receivers (C,) capable of receiving an elastic wave coming from the object to be imaged.
PCT/EP2019/072136 2018-08-20 2019-08-19 Improved imaging method and imaging device for imaging an object WO2020038885A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP19753387.0A EP3841400A1 (en) 2018-08-20 2019-08-19 Improved imaging method and imaging device for imaging an object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1857536A FR3085096B1 (en) 2018-08-20 2018-08-20 IMPROVED IMAGING METHOD AND DEVICE FOR IMAGING AN OBJECT
FR1857536 2018-08-20

Publications (1)

Publication Number Publication Date
WO2020038885A1 true WO2020038885A1 (en) 2020-02-27

Family

ID=65201108

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/072136 WO2020038885A1 (en) 2018-08-20 2019-08-19 Improved imaging method and imaging device for imaging an object

Country Status (3)

Country Link
EP (1) EP3841400A1 (en)
FR (1) FR3085096B1 (en)
WO (1) WO2020038885A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022073120A1 (en) * 2020-10-09 2022-04-14 Olympus NDT Canada Inc. Automated tfm grid resolution setup tools

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5873830A (en) * 1997-08-22 1999-02-23 Acuson Corporation Ultrasound imaging system and method for improving resolution and operation
JP2006280768A (en) * 2005-04-04 2006-10-19 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic equipment
WO2013044350A1 (en) * 2011-09-26 2013-04-04 Ontario Power Generation Inc. Ultrasound matrix inspection
US20130121568A1 (en) * 2011-11-15 2013-05-16 At&T Intellectual Property I, L.P. System and Method of Image Upsampling
EP2607895A1 (en) * 2011-12-21 2013-06-26 Siemens Aktiengesellschaft Phased array scans with selectable resolution

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5873830A (en) * 1997-08-22 1999-02-23 Acuson Corporation Ultrasound imaging system and method for improving resolution and operation
JP2006280768A (en) * 2005-04-04 2006-10-19 Ge Medical Systems Global Technology Co Llc Ultrasonic diagnostic equipment
WO2013044350A1 (en) * 2011-09-26 2013-04-04 Ontario Power Generation Inc. Ultrasound matrix inspection
US20130121568A1 (en) * 2011-11-15 2013-05-16 At&T Intellectual Property I, L.P. System and Method of Image Upsampling
EP2607895A1 (en) * 2011-12-21 2013-06-26 Siemens Aktiengesellschaft Phased array scans with selectable resolution

Non-Patent Citations (11)

* Cited by examiner, † Cited by third party
Title
"Interdisciplinary Bayesian Statistics", vol. 83, 1 January 2014, SPRINGER INTERNATIONAL PUBLISHING, Cham, ISBN: 978-3-319-12454-4, ISSN: 2194-1009, article KAI HORMANN: "Barycentric Interpolation", pages: 197 - 218, XP055638623, DOI: 10.1007/978-3-319-06404-8_11 *
G. ROUGERONJ. LAMBERTE. LAKOVLEVAL. LACASSAGNEN. DOMINGUEZ: "Implementation of a GPU accelerated total focusing reconstruction method within CIVA software", AIP CONFÉRENCE PROCEEDINGS, 2014
HALL, J. S.MICHAELS, J. E.: "IEEE transactions on ultrasonics, ferroelectrics, and frequency control", vol. 57, 2010, IEEE, article "Minimum variance ultrasonic imaging applied to an in situ sparse guided wave array", pages: 2311 - 2323
J. GUOX. LIX. GAOZ. WANGQ. ZHAO: "Implementation of total focusing method for phased array ultrasonic imaging on FPGA", NINTH INTERNATIONAL SYMPOSIUM ON PRÉCISION ENGINEERING MEASUREMENT AND INSTRUMENTATION, 2015
J. LAMBERTA. PEDRONG. GENSF. BIMBARDL. LACASSAGNEE. LAKOVLEVA: "Performance évaluation of total focusing method on GPP and GPU", DESIGN AND ARCHITECTURES FOR SIGNAL AND IMAGE PROCESSING (DASIP), 2012 CONFÉRENCE ON, 2012
M. NJIKIA. ELOUARDIS. BOUAZIZO. CASULAO. ROY: "A real-time implementation of the total focusing method for rapid and precise diagnostic in non destructive evaluation", APPLICATION-SPECIFIC SYSTEMS, ARCHITECTURES AND PROCESSORS (ASAP), 2013 IEEE 24TH INTERNATIONAL CONFÉRENCE ON
M.EBDEN, GAUSSIAN PROCESSES FOR REGRESSION: A QUICK INTRODUCTION, August 2008 (2008-08-01)
MAYER, K. ET AL.: "Three-dimensional imaging system based on Fourier transform synthetic aperture focusing technique", ULTRASONICS, vol. 28.4, 1990, pages 241 - 255, XP025703388, doi:10.1016/0041-624X(90)90091-2
QUAEGEBEUR, N.MASSON, P.LANGLOIS-DEMERS, D.MICHEAU, P.: "Smart Materials and Structures", vol. 17, 2008, IOP PUBLISHING, article "Détection, localization and characterization of damage in plates with an in situ array of spatially distributed ultrasonic sensors", pages: 035035
SCHMIDT, RALPH: "Multiple emitter location and signal parameter estimation", IEEE TRANSACTIONS ON ANTENNAS AND PROPAGATION, vol. 34.3, 1986, pages 276 - 280
ZHAO, X.GAO, H.ZHANG, G.AYHAN, B.YAN, F.KWAN, C.ROSE, J. L.: "Defect détection, localization and growth monitoring Smart materials and structures", vol. 16, 2007, IOP PUBLISHING, article "Active health monitoring of an aircraft wing with embedded piezoelectric sensor/actuator network: I", pages: 1208

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022073120A1 (en) * 2020-10-09 2022-04-14 Olympus NDT Canada Inc. Automated tfm grid resolution setup tools
US11494873B2 (en) 2020-10-09 2022-11-08 Evident Canada, Inc. Automated TFM grid resolution setup tools

Also Published As

Publication number Publication date
EP3841400A1 (en) 2021-06-30
FR3085096B1 (en) 2021-09-03
FR3085096A1 (en) 2020-02-21

Similar Documents

Publication Publication Date Title
EP2294452B1 (en) Method and device for measuring using wave propagation
CA2878545C (en) Method for processing signals acquired by echo sounding, and corresponding computer program and echo sounding device
CA3205122A1 (en) Method, device and program for detecting, by ultrasound, defects in a material
EP3847450B1 (en) Method for ultrasound detection and characterisation of defects in a heterogeneous material
EP3295212B1 (en) Method and device for probing by wave propagation
WO2020038885A1 (en) Improved imaging method and imaging device for imaging an object
FR3085095A1 (en) IMPROVED IMAGING METHOD AND DEVICE FOR IMAGING AN OBJECT
EP3526597B1 (en) Method and device for detecting and characterizing a reflecting element in an object
FR3108733A1 (en) A method of generating a stream of sea clutter, programmable device and associated computer program.
WO2016087315A1 (en) Method and device for ultrasound imaging with filtering of artefacts due to geometry echoes
EP2929343B1 (en) Ultrasound imaging apparatus and method with filtering of artefacts due to interferences between reconstruction modes
EP3071992A1 (en) Method for reconstructing a surface of a part
FR2849368A1 (en) DETECTION OF SMALL SIZE DEFECTS IN MEDICAL ULTRASONIC IMAGING
FR3045165A1 (en) METHOD AND SYSTEM ON ULTRASOUND IMAGING CHIP
WO2024074252A1 (en) Method for achieving ultrasound imaging through multi-dimensional fourier transform using two separate multi-element transducers
WO2024023136A1 (en) Method and device for ultrasound imaging with reduced processing complexity
FR3113130A1 (en) Corrosion control system in metal structures by ultrasonic guided waves
EP4127692A1 (en) Non-destructive testing of a mechanical part made of a polycrystalline material
FR3134191A1 (en) Method for detecting buried longitudinal structures using ground penetrating radar
EP1629303A1 (en) Method for scanning and analysing a three-dimensional structure

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19753387

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019753387

Country of ref document: EP

Effective date: 20210322