EP3555845A1 - Means for producing and/or checking a part made of composite materials - Google Patents

Means for producing and/or checking a part made of composite materials

Info

Publication number
EP3555845A1
EP3555845A1 EP16829103.7A EP16829103A EP3555845A1 EP 3555845 A1 EP3555845 A1 EP 3555845A1 EP 16829103 A EP16829103 A EP 16829103A EP 3555845 A1 EP3555845 A1 EP 3555845A1
Authority
EP
European Patent Office
Prior art keywords
image
pixel
determined
pixels
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP16829103.7A
Other languages
German (de)
French (fr)
Inventor
Serge Luquain
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Techni-Modul Engineering
Original Assignee
Techni-Modul Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Techni-Modul Engineering filed Critical Techni-Modul Engineering
Publication of EP3555845A1 publication Critical patent/EP3555845A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper

Definitions

  • the present invention relates to the field of production of composite material parts, as well as quality control processes of said parts. More particularly, the invention relates to the production and / or controls of preforms, adapted to be used to manufacture composite material parts.
  • composite materials are widely used in both the secondary and primary structures of civil and military aircraft, but also for the realization of many elements in motor vehicles or in railway equipment.
  • the manufacturing method comprising a draping step followed by a cooking step in an autoclave, an oven or a press is widely used.
  • Such a process often requires the use of a preform-set of compacted tissues.
  • To manufacture a preform it is known to cut, position and form layers of fabric, manually and non-automatically.
  • One operator in particular must ensure the proper main orientation of the various tissue layers, relative to each other.
  • a texture is described as directional when elementary structures identifiable in said texture are arranged substantially in a main orientation.
  • Various image analysis methods are known for determining the main orientation of a texture.
  • the document Da-Costa, JP "Statistical analysis of directional textures, application to the characterization of composite materials", Thesis of the University of Bordeaux 1, defended on December 21, 2001, describes such a process.
  • the known methods analyze the texture image in a dense manner, that is to say by using in an identical manner any pixel or any point of said image. This results in a significant sensitivity to the noise present in the image, which negatively affects the reliability and accuracy of the determination of the main orientation.
  • One of the objects of the invention is to provide means capable of enabling the automated production of composite material parts. Another object of the invention is to provide means capable of allowing the determination of the main orientation of a texture, which are not very sensitive to the noise present in the image representing the texture. Another object of the invention is to provide a method for determining an estimate of the main orientation of a particularly robust texture, of very good quality even in the presence of a significant noise in the image representing the texture. Another object of the invention is to propose a method for determining a principal orientation error of a texture with respect to a reference orientation, which is particularly robust, of very good quality even in the presence of a large noise in the field. image representing the texture.
  • the invention relates to a method for producing and / or controlling a composite material part formed from at least one fabric having a surface whose texture has a main orientation.
  • the method comprises the following steps:
  • determining the main orientation as a function of the estimate of the overall distribution of the gradient orientations of the pixels of the first image
  • the piece of composite material is for example composed of a plurality of superimposed fabrics so that the main orientation of each fabric respects a predetermined sequence.
  • the part may be in particular a preform adapted to be used to manufacture composite material parts, in particular by implementing a process comprising a draping step followed by a cooking step in an autoclave, a furnace or a hurry.
  • the method is particularly adapted to be implemented by automated devices, such as robots provided with calculation means and an image pickup device, adapted to arrange the fabrics relative to one another according to one another so that the main orientation of each tissue substantially respects a predetermined sequence.
  • the set value is for example obtained from a predefined value or calculated as a function, for example, of the orientation of at least one of the other fabrics forming the part.
  • the setpoint may be a range of acceptable values.
  • the position of the fabric can be modified to reduce the deviation to a value below a predefined threshold.
  • the previous steps may be repeated as often as necessary.
  • the control signal can be generated so as to allow the signaling, to a operator-controller or a quality control device, a potential defect of orientation of the fabric, when the difference is greater than a tolerance value greater than a predefined threshold.
  • the orientation of gradients relative to the luminance level of said pixel can be obtained by:
  • the estimation of the overall distribution of the gradient orientations of the pixels of the first image can be determined by constructing a discrete histogram, comprising a plurality of classes relating to different ranges of possible values for the gradient orientations. pixels of the first image.
  • the histogram is for example constructed by determining:
  • the main orientation can be determined by identifying, in the histogram, the class whose height is maximum.
  • the method may comprise:
  • a step during which, for each pixel of the first image, a score relating to the membership of said pixel in a luminance contour is determined
  • a step during which, for each pixel of the first image, a probability of importance is determined, using the score of said pixel;
  • the score is for example a calculated Harris score, based on the luminance levels of the pixels of the first image.
  • the presence of noise - for example "pepper and salt" - is filtered by the use of the Harris score and the probability of importance.
  • the corners of the first image used to calculate the score of each pixel of the first image may correspond to a break between luminance levels of the first image in a single direction.
  • the score is for example an estimate of the luminance gradient amplitude, based on the luminance levels of the pixels of the first image.
  • the probability of importance can be determined using a sigmoid function and the score of said pixel.
  • the method may include a step in which the luminance level of each pixel of the first image is filtered so as to reduce the noise present in the luminance information of the first image.
  • a reference estimate of an overall distribution of the gradient orientations of the pixels of the reference image is determined
  • an error of the main orientation is determined according to the estimation of the global distribution of the gradient orientations of the pixels of the first image and according to the reference estimate of the global distribution gradient orientations of the pixels of the first image.
  • the difference between the estimate for Primary orientation and the setpoint is determined by the error of the main orientation.
  • the reference value can be chosen according to the reference estimate of the overall distribution of the gradient orientations of the pixels of the reference image.
  • the reference estimate of the overall distribution of the gradient orientations of the pixels of the reference image can be determined by constructing a discrete reference histogram, comprising a plurality of classes relating to different ranges of values. possible for the pixel gradient orientations of the reference image, and in which in the third step, the error of the main orientation is determined according to a maximum correlation between the histogram and the histogram of reference.
  • the maximum correlation between the histogram and the reference histogram can be determined by calculating a measure of the correlation between the histogram and the reference histogram for a plurality of offsets of the histogram. relative to the reference histogram by an offset angle within a specified range.
  • the measurement of the correlation between the histogram and the reference histogram can be determined according to a probabilistic distance of Bhattacharyya, a quality index being determined according to the value of the probabilistic distance. of Bhattacharyya and the error, and / or an estimate of conformity according to the probabilistic distance of Bhattacharyya, during a fourth stage.
  • FIG. 1 is a block diagram of the steps of a method for determining an estimate of the main orientation of a texture according to one embodiment of the invention
  • FIG. 2 is a block diagram of the steps of a method for determining a main orientation error of a texture with respect to a main reference orientation, according to an embodiment of the invention
  • FIG. 3a is a reproduction of an image of a texture whose main orientation is substantially equal to 5 ° in the reference frame R;
  • FIG. 3b is a reproduction of a reference image of a texture whose main orientation is substantially equal to 0 ° in the reference frame R;
  • Figure 4 is a block diagram of the steps of a method for producing and / or controlling a composite material part, according to one embodiment of the invention.
  • the composite material part is produced from at least one fabric having a surface whose texture has a main orientation O.
  • the composite material part is composed of a plurality of superimposed fabrics so that the orientation principal of each fabric respects a predetermined sequence.
  • the piece may in particular be a preform adapted to be used to manufacture composite material parts, in particular by implementing a process comprising a draping step followed by a cooking step in an autoclave, a furnace or a hurry.
  • the method is particularly adapted to be implemented by automated devices, such as robots provided with calculation means and an image pickup device, adapted to arrange the fabrics relative to one another according to one another so that the main orientation of each tissue substantially respects a predetermined sequence.
  • this situation can be encountered when a robot moves a fabric from a storage location to a manufacturing area of composite material parts, and that said fabric is to be positioned in a particular main orientation.
  • this operation can be repeated as often as necessary to obtain the final piece, typically at least as often as the number of tissues forming the final piece.
  • the orientation of each of the tissues may be predetermined from a recorded sequence.
  • the orientation of each of the tissues may also be predetermined from the orientation of at least one of the other tissues forming the workpiece.
  • the method includes a step of obtaining a first image I REQ formed by a plurality of pixels and wherein a luminance level can be determined for each pixel, representing the texture of the fabric.
  • the image I RE Q of the texture comprises at least luminance information.
  • the image I RE Q may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated with at least one value l (x, y) corresponding to a luminance level.
  • the image I REQ. can be a so-called gray level image, each gray value corresponding to a luminance level.
  • the method comprises a step 20 of determining an estimate relating to the main orientation O of the texture, as a function of the luminance information included in an image of said texture.
  • the method comprises a step 30 for determining a difference D between the main orientation O and a set value.
  • the reference value is for example obtained from a predefined value or calculated according to, for example the orientation of at least one of the other tissues forming the part.
  • the setpoint may be a range of acceptable values.
  • the method comprises a step 40a for producing the part as a function of the difference D and / or a step 40b for transmitting a control signal as a function of the difference.
  • step 40a the position of the fabric can be modified so as to reduce the deviation D to a value lower than a predefined threshold.
  • steps 10 to 40 may be repeated as often as necessary.
  • control signal can be generated so as to enable the signaling to a control operator or a quality control device of a potential defect of orientation of the tissue, when the deviation E is greater than a tolerance value greater than a predefined threshold.
  • the first method is particularly adapted to allow the determination of an estimate relating to the main orientation O of the texture, as a function of the luminance information included in an image of said texture, in the production and / or control method. of a piece made of composite materials.
  • the first method is to determine a principal orientation in a texture based on the luminance information included in an image of said texture. More particularly, the first method aims at determining a principal orientation in the texture as a function of a spatial derivative of the luminance information included in the image of said texture.
  • the term "gradient" refers to the spatial derivative of the luminance information included in the image of said texture.
  • the first method is adapted in particular to estimate, in real time, the main orientation O of a texture, from an image IREQ of said texture, the main orientation O being determined, for a measurement interval M relatively to a reference frame R of the image IREQ.
  • the measurement interval M is [-5 ° .. 5 °].
  • the first method also makes it possible to calculate a quality index Q of the estimate of the main orientation O, relating to a degree of confidence or reliability of the estimate of the main orientation O.
  • the image IREQ. of the texture comprises at least luminance information.
  • the image IREQ may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated at least with a value l (x, y) corresponding to a luminance level.
  • the image IREQ can thus be a so-called gray level image, each gray value corresponding to a luminance level.
  • a filtered image I IF LT is determined, based on the luminance information I (x, y) of the image IREQ, by implementing a noise reduction method.
  • the filtered image I FI LT can be determined in particular, by reducing or eliminating the components relating to luminance information l (x, y) of the image IREQ. whose spatial frequency is greater than a cutoff frequency FC.
  • a spatial convolutional filter with a Gaussian core can be used for this purpose.
  • the filtered image I FI LT thus obtained comprises at least the filtered luminance information IFILT (x, y) of the image IREQ.
  • the first method comprises a second optional step S120 and a third optional step S130.
  • a score SH relating to the belonging of said pixel to a luminance contour is determined.
  • a Harris score is calculated from luminance information l (x, y) or filtered luminance information IFILT (x, y).
  • the algorithm known as "Harris and Stephen" for calculating SH (x, y) is described in detail in Harris, C. & Stephens, M. (1988), "A Combined Corner and Edge Detector", in 'Proceedings of the 4th Alvey Vision Conference', pp. 147-151.
  • a first pseudo-image SH is obtained, in which the value of each pixel corresponds to the Harris score associated with the pixel whose coordinates correspond in the filtered image I FI LT or in the image. IREQ image.
  • the Harris score SH (x, y) of an x, y pixel of the filtered image I F1 LT or of the image IREQ is all the more important since the proximity of said pixel x, y is large in terms of luminance with a corner of the I FI LT filtered image or the IREQ image.
  • the corners taken into account to determine the Harris score SH (x, y) of the pixel x, y can be the corners corresponding to a break between gray levels in a single direction, the Harris score SH (x, y) of the pixel x, y, then being less than zero.
  • frank breaks in a single direction can be favored.
  • an estimate EGRAD (x, y) of the amplitude the luminance gradient can be determined from the luminance information l (x, y) or the filtered luminance information IFILT (x, y).
  • a description of a method for determining ⁇ EGRAD estimate (x, y) is detailed in the document I. Sobel and G. Feldman, entitled “A 3x3 isotropic gradient operator for image processing", presented at the conference “Stanford Artificial Project ", 1968.
  • a probability of importance p is determined, using the Harris SH score. (x, y) said pixel x, y or the estimate EGRAD (x, y) of the gradient amplitude of said pixel x, y.
  • a calibration method can be implemented to obtain the probability of importance p (x, y), for each pixel x, y of the IFILT filtered image or of the image IREQ., From the score Harris SH (x, y) of said pixel or estimate EGRAD (x, y) of the gradient of said pixel x, y.
  • the calibration method may for example comprise a step in which a sigmoid function, whose parameters have been determined empirically, is applied to the first pseudo-image SH, as described for example in the document "Platt, J. ( 1999). Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods. Advances in large margin classifiers ", 10 (3), pages 61-74.
  • a second pseudo-image PI is obtained, in which the value of each pixel corresponds to the probability of importance p (x, y) associated with the pixel whose coordinates correspond in the IFILT filtered image or in the image IREQ.
  • a fourth step S140 for each pixel x, y of the IFILT filtered image or of the IREQ image, an orientation OG (x, y) of gradients relative to the luminance level is determined.
  • the orientation OG (x, y) of gradients is densely determined, i.e. using the information of all x, y pixels of said image. For example, to determine the orientation OG (x, y) of the pixel x, y, we calculate:
  • the orientation OG (x, y) of the pixel x, y is then obtained by forming a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response.
  • the argument of the vector thus formed is thus estimated for an interval [0; 2 ⁇ ].
  • a third pseudo-image OG is obtained, in which the value of each pixel corresponds to the orientation OG (x, y) of gradients associated with the pixel whose coordinates correspond in the image. filtered IFILT or in the image IREQ.
  • the estimation of the overall distribution of the gradients OG (x, y) is, for example, a discrete histogram H, comprising a plurality of classes relating to different ranges of possible values for the orientations of the gradients OG (x, y).
  • the histogram H is constructed by determining:
  • the contribution C (x, y) of each pixel x, y can be chosen constant, for example equal to 1.
  • the contribution C (x, y) of each pixel x, y may be a function of the probability of importance p (x, y) associated with said pixel.
  • the main orientation O is determined as a function of the estimation of the global distribution of the gradient orientations, the pixels x, y of the IFILT filtered image or the IREQ image.
  • the main orientation O can be determined by identifying, in the histogram H, the class whose height is maximum.
  • the second method is particularly adapted to allow the determination of an estimate relating to the main orientation O of the texture, as a function of the luminance information included in an image of said texture, in the production and / or control process. a piece of material composites.
  • the second method is adapted to determine the main orientation error E in the texture as a function of the luminance information included in an IREQ image of said texture, and according to the luminance information included in a reference image IREF.
  • the second method also makes it possible to determine a quality index Q of the estimate of the error E, relating to a degree of confidence or reliability of the estimate of the error E, and a conformity estimate CF.
  • the term "gradient" refers to the spatial derivative of the luminance information included in the image of said texture. From an image of the textured surface of said piece, and an image of a textured surface considered to be a reference to be reached in terms of principal orientation of the fibers of the part to be manufactured, it is then possible to determine an estimate of the error E and undertake the corrective steps that may then be necessary during the step 40a.
  • the image IREQ. of the texture comprises at least luminance information.
  • the image IREQ. may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated with at least one value l (x, y) corresponding to a luminance level.
  • the image IREQ can thus be a so-called gray level image, each gray value corresponding to a luminance level.
  • the reference image IREF is an image of a textured surface considered to be a reference to which the IREQ image should be compared in terms of principal orientation of the fibers.
  • the reference image IREF comprises at least luminance information.
  • the reference image IREF may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated with at least one value l (x, y) corresponding to a luminance level.
  • the reference image IREF can thus be a so-called gray level image, each gray value corresponding to a luminance level.
  • a filtered image I IF LT is determined, based on the luminance information I (x, y) of the IREQ image, by implementing a noise reduction method.
  • the filtered image I FI LT can be determined in particular, by reducing or eliminating the luminance information components l (x, y) of the IREQ image whose spatial frequency is greater than a cutoff frequency FC.
  • a spatial convolutional filter with a Gaussian core can be used for this purpose.
  • the filtered image I FI LT thus obtained comprises at least the filtered luminance information IFILT (x, y) of the image IREQ.
  • a IFILT-REQ reference filtered image is determined, based on the luminance information I (x, y) of the reference image IREF, by implementing a noise reduction method.
  • the filtered reference image IREF can be determined in particular by reducing or eliminating the luminance information components l (x, y) of the reference image IREF whose spatial frequency is greater than a cutoff frequency FC.
  • a spatial convolutional filter with a Gaussian core can be used for this purpose.
  • the filtered IFILT-REF reference image thus obtained comprises at least the filtered luminance information IFILT-REF (x, y) of the reference image IREF.
  • the second method comprises a second optional step S220 and an optional third step S230.
  • a Harris score is calculated, based on the luminance information l (x, y) or filtered luminance information IFILT (x, y).
  • the algorithm known as "Harris and Stephen” for calculating SH (x, y) is described in detail in Harris, C. & Stephens, M. (1988), "A Combined Corner and Edge Detector", in 'Proceedings of the 4th Alvey Vision Conference', pp. 147-151.
  • a first pseudo-image SH is obtained, in which the value of each pixel corresponds to the Harris score associated with the pixel whose coordinates correspond in the IFILT filtered image or in the image
  • the Harris score SH (x, y) of an x, y pixel of the IFILT filtered image or of the IREQ image is all the more important as the proximity of said pixel x, y is large in terms of luminance with a corner of the IFILT filtered image or the IREQ image.
  • the corners taken into account to determine the Harris score SH (x, y) of the pixel x, y may to be the corners corresponding to a break between gray levels in a single direction, the Harris SH score (x, y) of the pixel x, y, then being less than zero.
  • frank breaks in a single direction can be favored.
  • an estimate EGRAD (x, y) of the amplitude of the luminance gradient can be determined from luminance information l (x, y) or filtered luminance information IFILT (x, y).
  • a Harris SH-REF (x, y) score is calculated, at from luminance information IREF (x, y) or filtered luminance information IFILT-REF (x, y).
  • a first pseudo-reference image SH-REF is obtained, in which the value of each pixel corresponds to the Harris score associated with the pixel whose coordinates correspond in the filtered reference image. IFILT-REF or in the reference image IREF.
  • the Harris SH-REF score (x, y) of an x, y pixel of the IFILT-REF reference image or of the reference image IREF is all the more important as the proximity of said pixel x, y is large in terms of luminance with a corner of the IFILT-REF reference filtered image or the IREF reference image.
  • the corners taken into account to determine the Harris SH-REF score (x, y ) of the pixel x, y may be the corners corresponding to a break between gray levels in a single direction, the Harris score SH (x, y) of the pixel x, y, then being less than zero.
  • frank breaks in a single direction can be favored.
  • an estimate EGRAD-REF ( x, y) of the luminance gradient amplitude can be determined from the luminance information IREF (x, y) or the filtered luminance information IFILT-REF (x, y).
  • a probability of importance p (x, y) is determined, using the score of Harris SH (x, y) of said pixel x, y or the estimate EGRAD (x, y) of the gradient amplitude of said pixel x, y.
  • a calibration method can be implemented to obtain the probability of importance p (x, y), for each pixel x, y of the filtered image I FI LT or of the image IREQ., From Harris score SH (x, y) of said pixel or EGRAD estimate (x, y) of the gradient amplitude of said pixel x, y.
  • the calibration method may for example comprise a step in which a sigmoid function, whose parameters have been determined empirically, is applied to the first pseudo-image SH.
  • a second pseudo-image PI is obtained, in which the value of each pixel corresponds to the probability of importance p (x, y) associated with the pixel whose coordinates correspond in the filtered image IFILT or in the image IREQ.
  • a probability of importance pREF is determined, using Harris SH-REF (x, y) score of said pixel x, y or EGRAD-REF estimate (x, y) of the gradient amplitude of said pixel x, y.
  • a calibration method can be implemented to obtain the probability of importance pREF (x, y), for each pixel x, y of the IFILT-REF reference filtered image or of the reference image IREF from the Harris SH-REF (x, y) score of said pixel or from the EGRAD-REF (x, y) estimate of the gradient amplitude of said pixel x, y.
  • the calibration method may for example comprise a step in which a sigmoid function, the parameters of which have been determined empirically, is applied to the first pseudo-image SH-REF.
  • a second pseudo-image PI-REF is obtained, in which the value of each pixel corresponds to the probability of importance pREF (x, y) associated with the pixel whose coordinates correspond in the filtered image reference IFILT-REF or in the reference image IREF.
  • a fourth step S240 for each pixel x, y of the IFILT filtered image or the IREQ image, an orientation OG (x, y) of gradients relative to the luminance level is determined.
  • the orientation OG (x, y) of gradients is densely determined, i.e. using the information of all x, y pixels of said image. For example, to determine the orientation OG (x, y) of the pixel x, y, we calculate:
  • the orientation OG (x, y) of the pixel x, y is then obtained by forming a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response.
  • the argument of the vector thus formed is thus estimated for an interval [0; 2 ⁇ ].
  • a third pseudo-image OG is obtained, in which the value of each pixel corresponds to the orientation OG (x, y) of gradients associated with the pixel whose coordinates correspond in the image. filtered IFILT or in the image IREQ ..
  • an orientation OG-REF (x, y) of gradients relative to the luminance level is determined.
  • the orientation OG-REF (x, y) of gradients is determined densely, that is to say using the information of all pixels x, y of said image. For example, to determine the orientation OG-REF (x, y) of the pixel x, y, we calculate:
  • the orientation OG-REF (x, y) of the pixel x, y is then obtained by forming a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response.
  • the argument of the vector thus formed is thus estimated for an interval [0; 2 ⁇ ].
  • a third pseudo-image OG-REF is obtained, in which the value of each pixel corresponds to the orientation OG-REF (x, y) of gradients associated with the pixel whose coordinates correspond to in the IFILT-REF reference filtered image or in the IREF reference image.
  • the estimation of the global distribution of the gradients OG (x, y) is, for example, a discrete histogram H, comprising a plurality of classes relating to different ranges of possible values for the orientations of the gradients OG (x, y).
  • the histogram H is constructed by determining:
  • the contribution C (x, y) of each pixel x, y can be chosen constant, for example equal to 1.
  • the contribution C (x, y) of each pixel x, y may be a function of the probability of importance p (x, y) associated with said pixel.
  • a reference estimate of the global distribution of the orientations of the gradients OG-REF (x, y) of the pixels x, y of the reference filtered image IFILT-REF or of the reference image IREF is determined.
  • the reference estimate of the global gradient distribution OG-REF (x, y) is, for example, a discrete HREF reference histogram comprising a plurality of classes relating to different ranges of possible values for the OG-REF gradient orientations ( x, y).
  • the reference histogram HREF is constructed by determining:
  • the contribution CREF (x, y) of each pixel x, y can be chosen constant, for example equal to 1.
  • the contribution CREF (x, y) of each pixel x, y may be a function of the probability of importance pREF (x, y) associated with said pixel.
  • a sixth step S260 the main orientation 0 is determined according to:
  • a maximum correlation between the histogram H and the reference histogram HREF can be sought.
  • the measurement of the correlation between the histogram H and the reference histogram HREF is, for example, determined as a function of the probabilistic distance of Bhattacharyya, described in particular in the document entitled Kailath, T., (1967), "The Divergence and Bhattacharyya". Distance Measures in Signal Selection ", IEEE Transactions on Communication Technology, Vol. 15, No. 1, 1967, p. 52-60.
  • the estimate of the error E is then equal to the offset angle for which a maximum correlation is observed.
  • the quality index Q. is then a function of the value of the Bhattacharyya distance associated with the estimate of the error E.
  • a conformity estimate CF based on a statistical distance between the histogram H and the reference histogram HREF is determined.
  • the conformity estimate CF is then obtained as a function of the probabilistic distance of Bhattacharyya between the histogram H and the reference histogram HREF, typically by subtracting 1 said probabilistic distance from Bhattacharyya.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method for producing and/or checking a part made of composite materials formed from at least one fabric having a surface whose texture exhibits a main orientation, comprising the following steps: -obtaining a first image representing the texture of the fabric; -determining an estimation relating to the main orientation of the texture, by: determining, for each pixel of the first image, an orientation of gradients relating to the luminance level of said pixel; determining an estimation of a global distribution of the orientations of gradients of the pixels of the first image; determining the main orientation as a function of the estimation of the global distribution of the orientations of gradients of the pixels of the first image; -determining a deviation between the estimation relating to the main orientation and a setpoint value; -producing the part as a function of the deviation and/or emitting a check signal dependent on the deviation.

Description

Moyens de production et/ou de contrôle d'une pièce en matériaux composites Means for producing and / or controlling a composite material part
La présente invention se rapporte au domaine de la production de pièces en matériaux composites, ainsi qu'aux processus de contrôle qualité desdites pièces. Plus particulièrement, l'invention a trait à la production et/ou aux contrôles de préformes, adaptées à être utilisées pour fabriquer des pièces en matériaux composites. The present invention relates to the field of production of composite material parts, as well as quality control processes of said parts. More particularly, the invention relates to the production and / or controls of preforms, adapted to be used to manufacture composite material parts.
L'utilisation de pièces réalisées en matériaux composites ne cesse d'augmenter, en particulier dans le domaine du transport, en raison notamment des gains potentiels en matière de masse, de résistance, de rigidité ou encore de durée de vie. Par exemple, les matériaux composites sont largement utilisés à la fois dans les structures secondaires et primaires des avions civils et militaires, mais encore pour la réalisation de nombreux éléments dans les véhicules automobiles ou encore dans les matériels ferroviaires.  The use of parts made of composite materials continues to increase, particularly in the field of transport, due in particular to the potential gains in terms of weight, strength, stiffness or even life. For example, composite materials are widely used in both the secondary and primary structures of civil and military aircraft, but also for the realization of many elements in motor vehicles or in railway equipment.
Parmi les procédés connus de fabrication de pièces réalisées en matériaux composites, le procédé de fabrication comprenant une étape de drapage suivie d'une étape de cuisson dans un autoclave, un four ou une presse est largement répandu. Un tel processus requiert souvent l'utilisation d'une préforme—ensemble de tissus compactés. Pour fabriquer une préforme, il est connu de découper, positionner et former des couches de tissu, en procédant manuellement et de manière non automatisée. Un opérateur en particulier doit s'assurer de la bonne orientation principale des diverses couches de tissus, les unes relativement aux autres.  Among the known processes for manufacturing parts made of composite materials, the manufacturing method comprising a draping step followed by a cooking step in an autoclave, an oven or a press is widely used. Such a process often requires the use of a preform-set of compacted tissues. To manufacture a preform, it is known to cut, position and form layers of fabric, manually and non-automatically. One operator in particular must ensure the proper main orientation of the various tissue layers, relative to each other.
Aussi, une telle approche présente le défaut d'une faible répétabilité lors de la production d'une série de préformes complexes, chaque intervention manuelle étant sujette à divers erreurs ou défauts. En outre, la productivité d'un tel procédé est limitée par les contrôles nécessaires et par la difficulté de mise en œuvre desdites étapes. Il est donc généralement souhaitable d'automatiser l'étape de production de préformes complexes. Il est entendu que le choix d'automatisation est conditionné par d'autres critères également notamment par le nombre de pièces à produire (rentabilité du procédé), par la forme de la pièce, etc.  Also, such an approach has the defect of low repeatability when producing a series of complex preforms, each manual intervention being subject to various errors or defects. In addition, the productivity of such a process is limited by the necessary controls and by the difficulty of implementing said steps. It is therefore generally desirable to automate the step of producing complex preforms. It is understood that the choice of automation is conditioned by other criteria also in particular by the number of parts to be produced (profitability of the process), by the shape of the part, etc.
Or, pour permettre l'automatisation d'un tel processus, par exemple en déployant des robots pour fabriquer des préformes, il est nécessaire de pouvoir déterminer et/ou contrôler l'orientation principale des couches de tissus utilisés, chaque couche présentant une texture directionnelle. Une texture est qualifiée de directionnelle lorsque des structures élémentaires identifiables dans ladite texture sont arrangées sensiblement selon une orientation principale. Divers procédés d'analyse d'images sont connus pour déterminer l'orientation principale d'une texture. Le document Da-Costa, J.P. «Analyse statistique de textures directionnelles, application à la caractérisation de matériaux composites», Thèse de l'Université de Bordeaux 1, soutenue le 21 décembre 2001, décrit un tel procédé. Cependant, pour déterminer l'orientation principale d'une texture, les procédés connus analysent l'image de la texture de manière dense, c'est-à-dire en utilisant de manière identique tout pixel ou tout point de ladite image. Il en découle une importante sensibilité au bruit présent dans l'image, ce qui affecte négativement la fiabilité et la précision de la détermination de l'orientation principale. However, to allow the automation of such a process, for example by deploying robots to manufacture preforms, it is necessary to be able to determine and / or control the main orientation of the tissue layers used, each layer having a directional texture. . A texture is described as directional when elementary structures identifiable in said texture are arranged substantially in a main orientation. Various image analysis methods are known for determining the main orientation of a texture. The document Da-Costa, JP "Statistical analysis of directional textures, application to the characterization of composite materials", Thesis of the University of Bordeaux 1, defended on December 21, 2001, describes such a process. However, in order to determine the main orientation of a texture, the known methods analyze the texture image in a dense manner, that is to say by using in an identical manner any pixel or any point of said image. This results in a significant sensitivity to the noise present in the image, which negatively affects the reliability and accuracy of the determination of the main orientation.
II existe donc encore un besoin pour des moyens aptes à permettre la production automatisée de pièces en matériaux composites, notamment des préformes, économiquement efficace, et garantissant une qualité, une répétabilité et une précision améliorée par rapport aux procédés manuels.  There is therefore still a need for means capable of enabling the automated production of composite material parts, especially preforms, which is economically efficient and which guarantees improved quality, repeatability and accuracy compared to manual processes.
Un des objets de l'invention est de fournir des moyens aptes à permettre la production automatisée de pièces en matériaux composites. Un autre objet de l'invention est de fournir des moyens aptes à permettre la détermination de l'orientation principale d'une texture, peu sensibles au bruit présent dans l'image représentant la texture. Un autre objet de l'invention est de proposer un procédé pour déterminer une estimation de l'orientation principale d'une texture particulièrement robuste, de très bonne qualité même en présence d'un bruit important dans l'image représentant la texture. Un autre objet de l'invention est de proposer un procédé pour déterminer une erreur d'orientation principale d'une texture par rapport à une orientation principale de référence, particulièrement robuste, de très bonne qualité même en présence d'un bruit important dans l'image représentant la texture.  One of the objects of the invention is to provide means capable of enabling the automated production of composite material parts. Another object of the invention is to provide means capable of allowing the determination of the main orientation of a texture, which are not very sensitive to the noise present in the image representing the texture. Another object of the invention is to provide a method for determining an estimate of the main orientation of a particularly robust texture, of very good quality even in the presence of a significant noise in the image representing the texture. Another object of the invention is to propose a method for determining a principal orientation error of a texture with respect to a reference orientation, which is particularly robust, of very good quality even in the presence of a large noise in the field. image representing the texture.
Un ou plusieurs de ces objets sont remplis par le procédé pour déterminer une estimation relative à une orientation principale d'une texture. Les revendications dépendantes fournissent en outre des solutions à ces objets et/ou d'autres avantages.  One or more of these objects are filled by the method to determine an estimate for a main orientation of a texture. The dependent claims further provide solutions to these objects and / or other advantages.
Plus particulièrement, selon un premier aspect, l'invention se rapporte à un procédé de production et/ou de contrôle d'une pièce en matériaux composites formée à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale. Le procédé comporte les étapes suivantes :  More particularly, according to a first aspect, the invention relates to a method for producing and / or controlling a composite material part formed from at least one fabric having a surface whose texture has a main orientation. The method comprises the following steps:
- obtenir une première image formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, représentant la texture du tissu ; - déterminer une estimation relative à l'orientation principale de la texture,: obtaining a first image formed by a plurality of pixels and in which a luminance level can be determined for each pixel, representing the texture of the fabric; - determine an estimate of the main orientation of the texture:
lors d'une première étape, en déterminant, pour chaque pixel de la première image, une orientation de gradients relatifs au niveau de luminance dudit pixel ;  in a first step, determining, for each pixel of the first image, an orientation of gradients relative to the luminance level of said pixel;
lors d'une deuxième étape, en déterminant une estimation d'une distribution globale des orientations de gradients des pixels de la première image ;  in a second step, by determining an estimate of an overall distribution of the gradient orientations of the pixels of the first image;
lors d'une troisième étape, en déterminant l'orientation principale en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image ;  in a third step, determining the main orientation as a function of the estimate of the overall distribution of the gradient orientations of the pixels of the first image;
- déterminer un écart entre l'estimation relative à l'orientation principale et une valeur de consigne ;  - determining a difference between the estimate of the main orientation and a set value;
- produire la pièce en fonction de l'écart et/ou émettre un signal de contrôle fonction de l'écart.  - produce the part according to the deviation and / or issue a control signal depending on the deviation.
Typiquement, la pièce en matériaux composites est par exemple composée d'une pluralité de tissus superposés de telle sorte que l'orientation principale de chaque tissu respecte une séquence prédéterminée. La pièce peut être en particulier une préforme adaptée à être utilisée pour fabriquer des pièces en matériaux composites, notamment par la mise en œuvre d'un processus comprenant une étape de drapage suivi d'une étape de cuisson dans un autoclave, un four ou une presse. Le procédé est notamment adapté à être mis en œuvre par des dispositifs automatisés, comme des robots pourvus de moyens de calculs et d'un dispositif de prises d'image, adapté à disposer les tissus relativement les uns par rapport aux autres selon de sorte que l'orientation principale de chaque tissu respecte sensiblement une séquence prédéterminée.  Typically, the piece of composite material is for example composed of a plurality of superimposed fabrics so that the main orientation of each fabric respects a predetermined sequence. The part may be in particular a preform adapted to be used to manufacture composite material parts, in particular by implementing a process comprising a draping step followed by a cooking step in an autoclave, a furnace or a hurry. The method is particularly adapted to be implemented by automated devices, such as robots provided with calculation means and an image pickup device, adapted to arrange the fabrics relative to one another according to one another so that the main orientation of each tissue substantially respects a predetermined sequence.
La valeur de consigne est par exemple obtenue à partir d'une valeur prédéfinie ou calculée en fonction par exemple de l'orientation d'au moins un des autres tissus formant la pièce. Alternativement, la valeur de consigne peut être une plage de valeurs acceptables.  The set value is for example obtained from a predefined value or calculated as a function, for example, of the orientation of at least one of the other fabrics forming the part. Alternatively, the setpoint may be a range of acceptable values.
Au cours de l'étape de production de la pièce, la position du tissu peut être modifiée de sorte à réduire l'écart à une valeur inférieure à un seuil prédéfini. À cette fin, les étapes précédentes peuvent être également répétées aussi souvent que nécessaire.  During the production step of the workpiece, the position of the fabric can be modified to reduce the deviation to a value below a predefined threshold. For this purpose, the previous steps may be repeated as often as necessary.
Au cours de l'étape d'émission du signal de contrôle en fonction de l'écart 40b, le signal de contrôle peut être généré de sorte à permettre le signalement, à un opérateur-contrôleur ou à un dispositif de contrôle de qualité, d'un défaut potentiel d'orientation du tissu, lorsque l'écart est supérieur à une valeur de tolérance supérieure à un seuil prédéfini. During the step of transmitting the control signal as a function of the difference 40b, the control signal can be generated so as to allow the signaling, to a operator-controller or a quality control device, a potential defect of orientation of the fabric, when the difference is greater than a tolerance value greater than a predefined threshold.
Au cours de la première étape, pour chaque pixel de la première image, l'orientation de gradients relatifs au niveau de luminance dudit pixel peut être obtenue en :  During the first step, for each pixel of the first image, the orientation of gradients relative to the luminance level of said pixel can be obtained by:
• déterminant une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ;  Determining a first response of a first Sobel-type convolution filter applied at the luminance level in a first direction;
• une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction ;  A second response of a second Sobel-type convolution filter applied at the luminance level, in a second direction orthogonal to the first direction;
• calculant l'argument d'un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse.  • calculating the argument of a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response.
Au cours de la deuxième étape, l'estimation de la distribution globale des orientations de gradients des pixels de la première image peut être déterminée en construisant un histogramme discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de la première image. L'histogramme est par exemple construit en déterminant :  During the second step, the estimation of the overall distribution of the gradient orientations of the pixels of the first image can be determined by constructing a discrete histogram, comprising a plurality of classes relating to different ranges of possible values for the gradient orientations. pixels of the first image. The histogram is for example constructed by determining:
· pour chaque pixel de la première image, une contribution ; et, · For each pixel of the first image, a contribution; and,
• pour chaque classe, une hauteur égale à la somme des contributions de tous les pixels de la première image dont l'orientation est comprise dans ladite classe. • for each class, a height equal to the sum of the contributions of all the pixels of the first image whose orientation is included in said class.
Au cours de la troisième étape, l'orientation principale peut être déterminée en identifiant, dans l'histogramme, la classe dont la hauteur est maximale. Préalablement à la première étape, le procédé peut comporter :  During the third step, the main orientation can be determined by identifying, in the histogram, the class whose height is maximum. Prior to the first step, the method may comprise:
• une étape, au cours de laquelle, pour chaque pixel de la première image, un score relatif à l'appartenance dudit pixel à un contour de luminance est déterminé;  A step, during which, for each pixel of the first image, a score relating to the membership of said pixel in a luminance contour is determined;
• une étape, au cours de laquelle, pour chaque pixel de la première image, une probabilité d'importance est déterminée, à l'aide du score dudit pixel ;  A step, during which, for each pixel of the first image, a probability of importance is determined, using the score of said pixel;
et dans lequel, au cours de la deuxième étape, la contribution de chaque pixel est déterminée en fonction de la probabilité d'importance associée audit pixel. Pour chaque pixel de la première image, le score est par exemple un score de Harris calculé, à partir des niveaux de luminance des pixels de la première image. Ainsi, la présence de bruit - par exemple « poivre et sel » - est filtrée par l'utilisation du score de Harris et de la probabilité d'importance. Avantageusement, les coins de la première image utilisés pour calculer le score de chaque pixel de la première image peuvent correspondre à une rupture entre des niveaux de luminance de la première image dans une unique direction. Pour chaque pixel de la première image, le score est par exemple une estimation de l'amplitude du gradient de luminance, à partir des niveaux de luminance des pixels de la première image. Pour chaque pixel de la première image, la probabilité d'importance peut être déterminée à l'aide d'une fonction sigmoïde et du score dudit pixel. and wherein, in the second step, the contribution of each pixel is determined according to the importance probability associated with said pixel. For each pixel of the first image, the score is for example a calculated Harris score, based on the luminance levels of the pixels of the first image. Thus, the presence of noise - for example "pepper and salt" - is filtered by the use of the Harris score and the probability of importance. Advantageously, the corners of the first image used to calculate the score of each pixel of the first image may correspond to a break between luminance levels of the first image in a single direction. For each pixel of the first image, the score is for example an estimate of the luminance gradient amplitude, based on the luminance levels of the pixels of the first image. For each pixel of the first image, the probability of importance can be determined using a sigmoid function and the score of said pixel.
Préalablement à la troisième étape, le procédé peut comporter une étape au cours de laquelle le niveau de luminance de chaque pixel de la première image est filtré de sorte à réduire le bruit présent dans les informations de luminance de la première image.  Prior to the third step, the method may include a step in which the luminance level of each pixel of the first image is filtered so as to reduce the noise present in the luminance information of the first image.
Dans un mode de réalisation,  In one embodiment,
• au cours de la première étape, pour chaque pixel d'une image de référence d'une surface texturée, ladite image de référence étant formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, une orientation de gradients relatifs au niveau de luminance dudit pixel est déterminée ;  During the first step, for each pixel of a reference image of a textured surface, said reference image being formed by a plurality of pixels and in which a luminance level can be determined for each pixel, an orientation gradients relating to the luminance level of said pixel is determined;
• au cours de la deuxième étape, une estimation de référence d'une distribution globale des orientations de gradients des pixels de l'image de référence est déterminée ;  During the second step, a reference estimate of an overall distribution of the gradient orientations of the pixels of the reference image is determined;
• au cours de la troisième étape, une erreur de l'orientation principale est déterminée en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image et en fonction de l'estimation de référence de la distribution globale des orientations de gradients des pixels de la première image. L'écart entre l'estimation relative à N'orientation principale et la valeur de consigne est déterminé en fonction de l'erreur de l'orientation principale. En particulier, la valeur de consigne peut être choisie en fonction de l'estimation de référence de la distribution globale des orientations de gradients des pixels de l'image de référence.  During the third step, an error of the main orientation is determined according to the estimation of the global distribution of the gradient orientations of the pixels of the first image and according to the reference estimate of the global distribution gradient orientations of the pixels of the first image. The difference between the estimate for Primary orientation and the setpoint is determined by the error of the main orientation. In particular, the reference value can be chosen according to the reference estimate of the overall distribution of the gradient orientations of the pixels of the reference image.
Au cours de la deuxième étape, l'estimation de référence de la distribution globale des orientations de gradients des pixels de l'image de référence peut être déterminée en construisant un histogramme de référence discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de l'image de référence, et dans lequel au cours de la troisième étape, l'erreur de l'orientation principale est déterminée en fonction d'un maximum de corrélation entre l'histogramme et l'histogramme de référence. Au cours de la troisième étape, le maximum de corrélation entre l'histogramme et l'histogramme de référence peut être déterminé en calculant une mesure de la corrélation entre l'histogramme et l'histogramme de référence pour une pluralité de décalages de l'histogramme par rapport à l'histogramme de référence selon un angle de décalage compris dans un intervalle déterminé. Au cours de la troisième étape, la mesure de la corrélation entre l'histogramme et l'histogramme de référence peut être déterminée en fonction d'une distance probabiliste de Bhattacharyya, un indice de qualité étant déterminé en fonction de la valeur de la distance probabiliste de Bhattacharyya et de l'erreur, et/ou une estimation de conformité fonction de la distance probabiliste de Bhattacharyya, au cours d'une quatrième étape. During the second step, the reference estimate of the overall distribution of the gradient orientations of the pixels of the reference image can be determined by constructing a discrete reference histogram, comprising a plurality of classes relating to different ranges of values. possible for the pixel gradient orientations of the reference image, and in which in the third step, the error of the main orientation is determined according to a maximum correlation between the histogram and the histogram of reference. In the third step, the maximum correlation between the histogram and the reference histogram can be determined by calculating a measure of the correlation between the histogram and the reference histogram for a plurality of offsets of the histogram. relative to the reference histogram by an offset angle within a specified range. In the third step, the measurement of the correlation between the histogram and the reference histogram can be determined according to a probabilistic distance of Bhattacharyya, a quality index being determined according to the value of the probabilistic distance. of Bhattacharyya and the error, and / or an estimate of conformity according to the probabilistic distance of Bhattacharyya, during a fourth stage.
D'autres particularités et avantages de la présente invention apparaîtront, dans la description ci-après de modes de réalisation, en référence aux dessins annexés, dans lesquels :  Other features and advantages of the present invention will become apparent from the following description of embodiments with reference to the accompanying drawings, in which:
- la figure 1 est un synoptique des étapes d'un procédé pour déterminer une estimation de l'orientation principale d'une texture selon un mode de réalisation de l'invention ;  FIG. 1 is a block diagram of the steps of a method for determining an estimate of the main orientation of a texture according to one embodiment of the invention;
la figure 2 est un synoptique des étapes d'un procédé pour déterminer une erreur d'orientation principale d'une texture par rapport à une orientation principale de référence, selon un mode de réalisation de l'invention ;  FIG. 2 is a block diagram of the steps of a method for determining a main orientation error of a texture with respect to a main reference orientation, according to an embodiment of the invention;
la figure 3a est une reproduction d'une image d'une texture dont l'orientation principale est sensiblement égale à 5° dans le référentiel R ;  FIG. 3a is a reproduction of an image of a texture whose main orientation is substantially equal to 5 ° in the reference frame R;
- la figure 3b est une reproduction d'une image de référence d'une texture dont l'orientation principale est sensiblement égale à 0° dans le référentiel R ;  FIG. 3b is a reproduction of a reference image of a texture whose main orientation is substantially equal to 0 ° in the reference frame R;
la figure 4 est un synoptique des étapes d'un procédé de production et/ou de contrôle d'une pièce en matériaux composites, selon un mode de réalisation de l'invention.  Figure 4 is a block diagram of the steps of a method for producing and / or controlling a composite material part, according to one embodiment of the invention.
En référence à la figure 4, un procédé de production et/ou de contrôle d'une pièce en matériaux composites va maintenant être décrit. La pièce en matériaux composites est produite à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale O. Typiquement, la pièce en matériaux composites est composée d'une pluralité de tissus superposés de telle sorte que l'orientation principale de chaque tissu respecte une séquence prédéterminée. La pièce peut être en particulier une préforme ada ptée à être utilisée pour fabriquer des pièces en matériaux composites, notamment par la mise en œuvre d'un processus comprenant une étape de drapage suivi d'une étape de cuisson dans un autoclave, un four ou une presse. Le procédé est notamment adapté à être mis en œuvre par des dispositifs automatisés, comme des robots pourvus de moyens de calculs et d'un dispositif de prises d'image, adapté à disposer les tissus relativement les uns par rapport aux autres selon de sorte que l'orientation principale de chaque tissu respecte sensiblement une séquence prédéterminée. With reference to FIG. 4, a method for producing and / or controlling a composite material part will now be described. The composite material part is produced from at least one fabric having a surface whose texture has a main orientation O. Typically, the composite material part is composed of a plurality of superimposed fabrics so that the orientation principal of each fabric respects a predetermined sequence. The The piece may in particular be a preform adapted to be used to manufacture composite material parts, in particular by implementing a process comprising a draping step followed by a cooking step in an autoclave, a furnace or a hurry. The method is particularly adapted to be implemented by automated devices, such as robots provided with calculation means and an image pickup device, adapted to arrange the fabrics relative to one another according to one another so that the main orientation of each tissue substantially respects a predetermined sequence.
Dans la suite de la description, à des fins d'illustration, il est considéré le cas où l'on souhaite obtenir l'information d'orientation principale d'un tissu dans un référentiel donné de sorte à contrôler ou modifier le positionnement dudit tissu dans ce référentiel. Par exemple, cette situation peut être rencontrée lorsqu'un robot déplace un tissu d'un lieu de stockage vers une zone de fabrication de pièces en matériaux composites, et que ledit tissu doit être positionné selon une orientation principale déterminée. Cependant, au cours de la fabrication d'une pièce en matériaux composites, cette opération peut être répétée aussi souvent que nécessaire pour obtenir la pièce finale, typiquement au moins aussi souvent que le nombre de tissus formant la pièce finale. L'orientation de chacun des tissus peut être prédéterminée à partir d'une séquence enregistrée. L'orientation de chacun des tissus peut également être prédéterminée à partir de l'orientation d'au moins un des a utres tissus formant la pièce.  In the remainder of the description, for purposes of illustration, it is considered the case where it is desired to obtain the main orientation information of a fabric in a given reference system so as to control or modify the positioning of said fabric. in this repository. For example, this situation can be encountered when a robot moves a fabric from a storage location to a manufacturing area of composite material parts, and that said fabric is to be positioned in a particular main orientation. However, during the manufacture of a piece of composite material, this operation can be repeated as often as necessary to obtain the final piece, typically at least as often as the number of tissues forming the final piece. The orientation of each of the tissues may be predetermined from a recorded sequence. The orientation of each of the tissues may also be predetermined from the orientation of at least one of the other tissues forming the workpiece.
Le procédé comporte une étape 10 d'obtention d'une première image I REQ formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, représentant la texture du tissu. L'image I REQ de la texture comporte au moins des informations de luminance. Ainsi, l'image I REQ peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image I REQ. peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance. The method includes a step of obtaining a first image I REQ formed by a plurality of pixels and wherein a luminance level can be determined for each pixel, representing the texture of the fabric. The image I RE Q of the texture comprises at least luminance information. Thus, the image I RE Q may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated with at least one value l (x, y) corresponding to a luminance level. The image I REQ. can be a so-called gray level image, each gray value corresponding to a luminance level.
Le procédé comporte une étape 20 de détermination d'une estimation relative à l'orientation principale O de la texture, en fonction des informations de luminance comprise dans une image de ladite texture.  The method comprises a step 20 of determining an estimate relating to the main orientation O of the texture, as a function of the luminance information included in an image of said texture.
Le procédé comporte une étape 30 de détermination d'un écart D entre l'orientation principale O et une valeur de consigne. La valeur de consigne est par exemple obtenue à partir d'une valeur prédéfinie ou calculée en fonction par exemple de l'orientation d'au moins un des autres tissus formant la pièce. Alternativement, la valeur de consigne peut être une plage de valeurs acceptables. The method comprises a step 30 for determining a difference D between the main orientation O and a set value. The reference value is for example obtained from a predefined value or calculated according to, for example the orientation of at least one of the other tissues forming the part. Alternatively, the setpoint may be a range of acceptable values.
Le procédé comporte une étape 40a de production de la pièce en fonction de l'écart D et/ou une étape 40b d'émission d'un signal de contrôle en fonction de l'écart.  The method comprises a step 40a for producing the part as a function of the difference D and / or a step 40b for transmitting a control signal as a function of the difference.
Au cours de l'étape 40a, la position du tissu peut être modifiée de sorte à réduire l'écart D à une valeur inférieure à un seuil prédéfini. À cette fin, les étapes 10 à 40 peuvent être également répétées aussi souvent que nécessaire.  During step 40a, the position of the fabric can be modified so as to reduce the deviation D to a value lower than a predefined threshold. For this purpose, steps 10 to 40 may be repeated as often as necessary.
Au cours de l'étape 40b, le signal de contrôle peut être généré de sorte à permettre le signalement, à un opérateur-contrôleur ou à un dispositif de contrôle de qualité, d'un défaut potentiel d'orientation du tissu, lorsque l'écart E est supérieur à une valeur de tolérance supérieure à un seuil prédéfini.  During step 40b, the control signal can be generated so as to enable the signaling to a control operator or a quality control device of a potential defect of orientation of the tissue, when the deviation E is greater than a tolerance value greater than a predefined threshold.
En référence à la figure 1 et à la figure 3a, un premier procédé pour déterminer une estimation de l'orientation principale d'une texture selon un mode de réalisation de l'invention, va maintenant être décrit. Le premier procédé est notamment adapté à permettre la détermination 20 d'une estimation relative à l'orientation principale O de la texture, en fonction des informations de luminance comprise dans une image de ladite texture, dans le procédé de production et/ou de contrôle d'une pièce en matériaux composites.  With reference to FIG. 1 and FIG. 3a, a first method for determining an estimate of the main orientation of a texture according to one embodiment of the invention will now be described. The first method is particularly adapted to allow the determination of an estimate relating to the main orientation O of the texture, as a function of the luminance information included in an image of said texture, in the production and / or control method. of a piece made of composite materials.
Le premier procédé vise à déterminer une orientation principale dans une texture en fonction des informations de luminance comprise dans une image de ladite texture. Plus particulièrement, le premier procédé vise à déterminer une orientation principale dans la texture en fonction d'une dérivée spatiale des informations de luminance comprise dans l'image de ladite texture. Dans la suite de la description, le terme « gradient » se réfère à la dérivée spatiale des informations de luminance comprise dans l'image de ladite texture.  The first method is to determine a principal orientation in a texture based on the luminance information included in an image of said texture. More particularly, the first method aims at determining a principal orientation in the texture as a function of a spatial derivative of the luminance information included in the image of said texture. In the remainder of the description, the term "gradient" refers to the spatial derivative of the luminance information included in the image of said texture.
Le premier procédé est adapté en particulier pour estimer, en temps réel, l'orientation principale O d'une texture, à partir d'une image IREQ de ladite texture, l'orientation principale O étant déterminée, pour un intervalle de mesures M relativement à un référentiel R de l'image IREQ.. Typiquement, l'intervalle de mesures M est [-5°.. 5°]. Le premier procédé permet en outre de calculer un indice de qualité Q de l'estimation de l'orientation principale O, relatif à un degré de confiance ou de fiabilité de l'estimation de l'orientation principale O.  The first method is adapted in particular to estimate, in real time, the main orientation O of a texture, from an image IREQ of said texture, the main orientation O being determined, for a measurement interval M relatively to a reference frame R of the image IREQ. Typically, the measurement interval M is [-5 ° .. 5 °]. The first method also makes it possible to calculate a quality index Q of the estimate of the main orientation O, relating to a degree of confidence or reliability of the estimate of the main orientation O.
L'image IREQ. de la texture comporte au moins des informations de luminance. Ainsi, l'image IREQ peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image IREQ peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance. The image IREQ. of the texture comprises at least luminance information. Thus, the image IREQ may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated at least with a value l (x, y) corresponding to a luminance level. The image IREQ can thus be a so-called gray level image, each gray value corresponding to a luminance level.
Dans une première étape optionnelle S110, une image filtrée I FI LT est déterminée, à partir des informations de luminance l(x,y) de l'image IREQ, en mettant en œuvre un procédé de réduction du bruit. L'image filtrée I FI LT peut être déterminée notamment, en réduisant ou supprimant les composantes relatives aux informations luminance l(x,y) de l'image IREQ. dont la fréquence spatiale est supérieure à une fréquence de coupure FC. Un filtre à convolution spatial dont le noyau est de type Gaussien, peut être utilisé à cette fin. À l'issue de la première étape optionnelle S110, l'image filtrée I FI LT ainsi obtenue comporte au moins les informations de luminance filtrées IFILT(x,y) de l'image IREQ.  In a first optional step S110, a filtered image I IF LT is determined, based on the luminance information I (x, y) of the image IREQ, by implementing a noise reduction method. The filtered image I FI LT can be determined in particular, by reducing or eliminating the components relating to luminance information l (x, y) of the image IREQ. whose spatial frequency is greater than a cutoff frequency FC. A spatial convolutional filter with a Gaussian core can be used for this purpose. At the end of the first optional step S110, the filtered image I FI LT thus obtained comprises at least the filtered luminance information IFILT (x, y) of the image IREQ.
Avantageusement, le premier procédé comporte une deuxième étape optionnelle S120 et une troisième étape optionnelle S130.  Advantageously, the first method comprises a second optional step S120 and a third optional step S130.
Au cours de la deuxième étape optionnelle S120, pour chaque pixel x,y de l'image filtrée I FI LT ou de l'image IREQ, un score SH relatif à l'appartenance dudit pixel à un contour de luminance est déterminé. En particulier, un score de Harris est calculé, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y). L'algorithme dit de « Harris et Stephen » permettant de calculer SH(x,y) est notamment décrit de manière détaillée dans le document Harris, C. & Stephens, M. (1988), « A Combined Corner and Edge Detector », in 'Proceedings of the 4th Alvey Vision Conférence' , pp. 147—151. À l'issue de la deuxième étape optionnelle S120, une première pseudo-image SH est obtenue, dans laquelle la valeur de chaque pixel correspond au score de Harris associé au pixel dont les coordonnées correspondent dans l'image filtrée I FI LT ou dans l'image IREQ. Le score de Harris SH(x,y) d'un pixel x,y de l'image filtrée I FI LT ou de l'image IREQ est d'autant plus important que la proximité dudit pixel x,y est grande en termes de luminance avec un coin de l'image filtrée I FI LT ou de l'image IREQ. Le terme "coin", aussi couramment désigné par le terme anglais "corner", se réfère à une zone d'une image où une discontinuité dans les informations de luminance est présente, typiquement lorsqu'un changement brusque du niveau de luminance est observé entre pixels adjacents.  During the second optional step S120, for each pixel x, y of the filtered image I FI LT or of the image IREQ, a score SH relating to the belonging of said pixel to a luminance contour is determined. In particular, a Harris score is calculated from luminance information l (x, y) or filtered luminance information IFILT (x, y). The algorithm known as "Harris and Stephen" for calculating SH (x, y) is described in detail in Harris, C. & Stephens, M. (1988), "A Combined Corner and Edge Detector", in 'Proceedings of the 4th Alvey Vision Conference', pp. 147-151. At the end of the second optional step S120, a first pseudo-image SH is obtained, in which the value of each pixel corresponds to the Harris score associated with the pixel whose coordinates correspond in the filtered image I FI LT or in the image. IREQ image. The Harris score SH (x, y) of an x, y pixel of the filtered image I F1 LT or of the image IREQ is all the more important since the proximity of said pixel x, y is large in terms of luminance with a corner of the I FI LT filtered image or the IREQ image. The term "corner", also commonly referred to as "corner", refers to an area of an image where a discontinuity in the luminance information is present, typically when a sudden change in luminance level is observed between adjacent pixels.
Avantageusement, dans l'image filtrée I FI LT ou l'image IREQ, où chaque valeur de gris correspond à un niveau de luminance, les coins pris en compte pour déterminer le score de Harris SH(x,y) du pixel x,y, peuvent être les coins correspondant à une rupture entre des niveaux de gris dans une unique direction, le score de Harris SH(x,y) du pixel x,y, étant alors inférieur à zéro. Ainsi, les ruptures franches dans une unique direction peuvent être privilégiées. Advantageously, in the filtered image I FI LT or the IREQ image, where each gray value corresponds to a luminance level, the corners taken into account to determine the Harris score SH (x, y) of the pixel x, y , can be the corners corresponding to a break between gray levels in a single direction, the Harris score SH (x, y) of the pixel x, y, then being less than zero. Thus, frank breaks in a single direction can be favored.
Alternativement aux calculs d'un score de Harris, au cours de la deuxième étape optionnelle S120, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une estimation EGRAD(x,y) de l'amplitude du gradient de luminance peut être déterminée, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y). Une description d'une méthode pour déterminer Γ estimation EGRAD(x,y) est notamment détaillée dans le document I. Sobel and G. Feldman, intitulé « A 3x3 isotropic gradient operator for image processing », présenté lors de la conférence « Stanford Artificial Project », 1968.  In the second optional step S120, for each pixel x, y of the filtered image IFILT or the image IREQ, an estimate EGRAD (x, y) of the amplitude the luminance gradient can be determined from the luminance information l (x, y) or the filtered luminance information IFILT (x, y). A description of a method for determining Γ EGRAD estimate (x, y) is detailed in the document I. Sobel and G. Feldman, entitled "A 3x3 isotropic gradient operator for image processing", presented at the conference "Stanford Artificial Project ", 1968.
Dans la troisième étape optionnelle S130, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ., une probabilité d'importance p(x,y) est déterminée, à l'aide du score de Harris SH(x,y) dudit pixel x,y ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y. Pour cela, un procédé de calibration peut être mis en œuvre pour obtenir la probabilité d'importance p(x,y), pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ., à partir du score de Harris SH(x,y) dudit pixel ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y.  In the optional third step S130, for each pixel x, y of the IFILT filtered image or of the IREQ image, a probability of importance p (x, y) is determined, using the Harris SH score. (x, y) said pixel x, y or the estimate EGRAD (x, y) of the gradient amplitude of said pixel x, y. For this, a calibration method can be implemented to obtain the probability of importance p (x, y), for each pixel x, y of the IFILT filtered image or of the image IREQ., From the score Harris SH (x, y) of said pixel or estimate EGRAD (x, y) of the gradient of said pixel x, y.
Le procédé de calibration peut par exemple comporter une étape dans laquelle une fonction sigmoïde, dont les paramètres ont été déterminés de manière empirique, est appliquée à la première pseudo-image SH, tel que décrit par exemple dans le document « Platt, J. (1999). Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods. Advances in large margin classifiers », 10(3), pages 61-74. En sortie du procédé de calibration, une deuxième pseudo-image PI est obtenue, dans laquelle la valeur de chaque pixel correspond à la probabilité d'importance p(x,y) associé au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.  The calibration method may for example comprise a step in which a sigmoid function, whose parameters have been determined empirically, is applied to the first pseudo-image SH, as described for example in the document "Platt, J. ( 1999). Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods. Advances in large margin classifiers ", 10 (3), pages 61-74. At the output of the calibration method, a second pseudo-image PI is obtained, in which the value of each pixel corresponds to the probability of importance p (x, y) associated with the pixel whose coordinates correspond in the IFILT filtered image or in the image IREQ.
Dans une quatrième étape S140, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une orientation OG(x,y) de gradients relatifs au niveau de luminance est déterminée. L'orientation OG(x,y) de gradients est déterminée de manière dense, c'est-à-dire en utilisant les informations de tous les pixels x,y de ladite image. Par exemple, pour déterminer l'orientation OG(x,y) du pixel x,y, on calcule :  In a fourth step S140, for each pixel x, y of the IFILT filtered image or of the IREQ image, an orientation OG (x, y) of gradients relative to the luminance level is determined. The orientation OG (x, y) of gradients is densely determined, i.e. using the information of all x, y pixels of said image. For example, to determine the orientation OG (x, y) of the pixel x, y, we calculate:
• une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ; • une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction. A first response of a first Sobel-type convolution filter applied at the luminance level in a first direction; A second response of a second Sobel core-type convolution filter applied at the luminance level, in a second direction orthogonal to the first direction.
L'orientation OG(x,y) du pixel x,y est alors obtenue en formant un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. L'argument du vecteur ainsi formé est estimé ainsi pour un intervalle [0 ; 2π]. À l'issue de la quatrième étape S140, une troisième pseudo-image OG est obtenue, dans laquelle la valeur de chaque pixel correspond à l'orientation OG(x,y) de gradients associés au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.  The orientation OG (x, y) of the pixel x, y is then obtained by forming a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response. The argument of the vector thus formed is thus estimated for an interval [0; 2π]. At the end of the fourth step S140, a third pseudo-image OG is obtained, in which the value of each pixel corresponds to the orientation OG (x, y) of gradients associated with the pixel whose coordinates correspond in the image. filtered IFILT or in the image IREQ.
Dans une cinquième étape S150, une estimation de la distribution globale des orientations de gradients OG(x,y) des pixels x,y de l'image filtrée IFILT ou de l'image IREQ., est déterminée. L'estimation de la distribution globale des orientations des gradients OG(x,y) est par exemple un histogramme H discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients OG(x,y). L'histogramme H est construit en déterminant :  In a fifth step S150, an estimate of the global distribution of the gradient orientations OG (x, y) of the pixels x, y of the filtered image IFILT or of the image IREQ., Is determined. The estimation of the overall distribution of the gradients OG (x, y) is, for example, a discrete histogram H, comprising a plurality of classes relating to different ranges of possible values for the orientations of the gradients OG (x, y). The histogram H is constructed by determining:
• pour chaque pixel x,y une contribution C(x,y) ; et,  For each pixel x, y a contribution C (x, y); and,
• pour chaque classe, une hauteur égale à la somme des contributions C(x,y) de tous les pixels dont l'orientation OG(x,y) est comprise dans ladite classe.  • for each class, a height equal to the sum of the contributions C (x, y) of all the pixels whose orientation OG (x, y) is included in said class.
La contribution C(x,y) de chaque pixel x,y peut être choisie constante, par exemple égal à 1.  The contribution C (x, y) of each pixel x, y can be chosen constant, for example equal to 1.
Avantageusement, dans le cas où la deuxième pseudo-image PI est disponible, la contribution C(x,y) de chaque pixel x,y peut être fonction de la probabilité d'importance p(x,y) associé audit pixel.  Advantageously, in the case where the second pseudo-image PI is available, the contribution C (x, y) of each pixel x, y may be a function of the probability of importance p (x, y) associated with said pixel.
Dans une sixième étape S160, l'orientation principale O est déterminée en fonction de l'estimation de la distribution globale des orientations de gradients, des pixels x,y de l'image filtrée IFILT ou de l'image IREQ.. En particulier, l'orientation principale O peut être déterminée en identifiant, dans l'histogramme H, la classe dont la hauteur est maximale.  In a sixth step S160, the main orientation O is determined as a function of the estimation of the global distribution of the gradient orientations, the pixels x, y of the IFILT filtered image or the IREQ image. In particular, the main orientation O can be determined by identifying, in the histogram H, the class whose height is maximum.
En référence aux figures 2, 3a et 3b , un deuxième procédé pour déterminer une erreur E d'orientation principale d'une texture par rapport à une orientation principale de référence, selon un mode de réalisation de l'invention, va maintenant être décrit. Le deuxième procédé est notamment adapté à permettre la détermination 20 d'une estimation relative à l'orientation principale O de la texture, en fonction des informations de luminance comprise dans une image de ladite texture, dans le procédé de production et/ou de contrôle d'une pièce en matériaux composites. Le deuxième procédé est adapté pour déterminer l'erreur E d'orientation principale dans la texture en fonction des informations de luminance comprises dans une image IREQ de ladite texture, et en fonction des informations de luminance comprises dans une image de référence IREF. Le deuxième procédé permet également de déterminer un indice de qualité Q de l'estimation de l'erreur E, relatif à un degré de confiance ou de fiabilité de l'estimation de l'erreur E, ainsi qu'une estimation de conformité CF. Dans la suite de la description, le terme « gradient » se réfère à la dérivée spatiale des informations de luminance comprise dans l'image de ladite texture. A partir d'une image de la surface texturée de ladite pièce, et d'une image d'une surface texturée considérée comme étant une référence à atteindre en terme d'orientation principale des fibres de la pièce à fabriquer, il est alors possible de déterminer une estimation de l'erreur E et d'entreprendre les étapes correctives qui peuvent alors s'avérer nécessaires au cours de l'étape 40a. With reference to FIGS. 2, 3a and 3b, a second method for determining a principal orientation error E of a texture with respect to a main reference orientation, according to an embodiment of the invention, will now be described. The second method is particularly adapted to allow the determination of an estimate relating to the main orientation O of the texture, as a function of the luminance information included in an image of said texture, in the production and / or control process. a piece of material composites. The second method is adapted to determine the main orientation error E in the texture as a function of the luminance information included in an IREQ image of said texture, and according to the luminance information included in a reference image IREF. The second method also makes it possible to determine a quality index Q of the estimate of the error E, relating to a degree of confidence or reliability of the estimate of the error E, and a conformity estimate CF. In the remainder of the description, the term "gradient" refers to the spatial derivative of the luminance information included in the image of said texture. From an image of the textured surface of said piece, and an image of a textured surface considered to be a reference to be reached in terms of principal orientation of the fibers of the part to be manufactured, it is then possible to determine an estimate of the error E and undertake the corrective steps that may then be necessary during the step 40a.
L'image IREQ. de la texture comporte au moins des informations de luminance. Ainsi, l'image IREQ. peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image IREQ peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance.  The image IREQ. of the texture comprises at least luminance information. So the image IREQ. may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated with at least one value l (x, y) corresponding to a luminance level. The image IREQ can thus be a so-called gray level image, each gray value corresponding to a luminance level.
L'image de référence IREF est une image d'une surface texturée considérée comme étant une référence à laquelle doit être comparée l'image IREQ en termes d'orientation principale des fibres. L'image de référence IREF comporte au moins des informations de luminance. Ainsi, l'image de référence IREF peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image de référence IREF peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance.  The reference image IREF is an image of a textured surface considered to be a reference to which the IREQ image should be compared in terms of principal orientation of the fibers. The reference image IREF comprises at least luminance information. Thus, the reference image IREF may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated with at least one value l (x, y) corresponding to a luminance level. The reference image IREF can thus be a so-called gray level image, each gray value corresponding to a luminance level.
Dans une première étape optionnelle S210, une image filtrée I FI LT est déterminée, à partir des informations de luminance l(x,y) de l'image IREQ, en mettant en œuvre un procédé de réduction du bruit. L'image filtrée I FI LT peut être déterminée notamment, en réduisant ou supprimant les composantes relatives aux informations luminance l(x,y) de l'image IREQ dont la fréquence spatiale est supérieure à une fréquence de coupure FC. Un filtre à convolution spatial dont le noyau est de type Gaussien, peut être utilisé à cette fin. À l'issue de la première étape optionnelle S210, l'image filtrée I FI LT ainsi obtenue comporte au moins les informations de luminance filtrées IFILT(x,y) de l'image IREQ. Au cours de la première étape optionnelle S210, une image filtrée de référence IFILT-REQ est déterminée, à partir des informations de luminance l(x,y) de l'image de référence IREF, en mettant en œuvre un procédé de réduction du bruit. L'image filtrée de référence IREF peut être déterminée notamment, en réduisant ou supprimant les composantes relatives aux informations luminance l(x,y) de l'image de référence IREF dont la fréquence spatiale est supérieure à une fréquence de coupure FC. Un filtre à convolution spatial dont le noyau est de type Gaussien, peut être utilisé à cette fin. À l'issue de la première étape optionnelle S210, l'image filtrée de référence IFILT-REF ainsi obtenue comporte au moins les informations de luminance filtrées IFILT-REF(x,y) de l'image de référence IREF. In a first optional step S210, a filtered image I IF LT is determined, based on the luminance information I (x, y) of the IREQ image, by implementing a noise reduction method. The filtered image I FI LT can be determined in particular, by reducing or eliminating the luminance information components l (x, y) of the IREQ image whose spatial frequency is greater than a cutoff frequency FC. A spatial convolutional filter with a Gaussian core can be used for this purpose. At the end of the first optional step S210, the filtered image I FI LT thus obtained comprises at least the filtered luminance information IFILT (x, y) of the image IREQ. During the first optional step S210, a IFILT-REQ reference filtered image is determined, based on the luminance information I (x, y) of the reference image IREF, by implementing a noise reduction method. The filtered reference image IREF can be determined in particular by reducing or eliminating the luminance information components l (x, y) of the reference image IREF whose spatial frequency is greater than a cutoff frequency FC. A spatial convolutional filter with a Gaussian core can be used for this purpose. At the end of the first optional step S210, the filtered IFILT-REF reference image thus obtained comprises at least the filtered luminance information IFILT-REF (x, y) of the reference image IREF.
Avantageusement, le deuxième procédé comporte une deuxième étape optionnelle S220 et une troisième étape optionnelle S230.  Advantageously, the second method comprises a second optional step S220 and an optional third step S230.
Au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ., un score de Harris est calculé, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y). L'algorithme dit de « Harris et Stephen » permettant de calculer SH(x,y) est notamment décrit de manière détaillée dans le document Harris, C. & Stephens, M. (1988), « A Combined Corner and Edge Detector », in 'Proceedings of the 4th Alvey Vision Conférence' , pp. 147—151. À l'issue de la deuxième étape optionnelle S220, une première pseudo-image SH est obtenue, dans laquelle la valeur de chaque pixel correspond au score de Harris associé au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.. Le score de Harris SH(x,y) d'un pixel x,y de l'image filtrée IFILT ou de l'image IREQ est d'autant plus important que la proximité dudit pixel x,y est grande en termes de luminance avec un coin de l'image filtrée IFILT ou de l'image IREQ. Le terme "coin", aussi couramment désigné par le terme anglais "corner", se réfère à une zone d'une image où une discontinuité dans les informations de luminance est présente, typiquement lorsqu'un changement brusque du niveau de luminance est observé entre pixels adjacents.  During the second optional step S220, for each pixel x, y of the IFILT filtered image or of the IREQ image, a Harris score is calculated, based on the luminance information l (x, y) or filtered luminance information IFILT (x, y). The algorithm known as "Harris and Stephen" for calculating SH (x, y) is described in detail in Harris, C. & Stephens, M. (1988), "A Combined Corner and Edge Detector", in 'Proceedings of the 4th Alvey Vision Conference', pp. 147-151. At the end of the second optional step S220, a first pseudo-image SH is obtained, in which the value of each pixel corresponds to the Harris score associated with the pixel whose coordinates correspond in the IFILT filtered image or in the image The Harris score SH (x, y) of an x, y pixel of the IFILT filtered image or of the IREQ image is all the more important as the proximity of said pixel x, y is large in terms of luminance with a corner of the IFILT filtered image or the IREQ image. The term "corner", also commonly referred to as "corner", refers to an area of an image where a discontinuity in the luminance information is present, typically when a sudden change in luminance level is observed between adjacent pixels.
Avantageusement, dans l'image filtrée IFILT ou l'image IREQ, où chaque valeur de gris correspond à un niveau de luminance, les coins pris en compte pour déterminer le score de Harris SH(x,y) du pixel x,y, peuvent être les coins correspondant à une rupture entre des niveaux de gris dans une unique direction, le score de Harris SH(x,y) du pixel x,y, étant alors inférieur à zéro. Ainsi, les ruptures franches dans une unique direction peuvent être privilégiées.  Advantageously, in the IFILT filtered image or the IREQ image, where each gray value corresponds to a luminance level, the corners taken into account to determine the Harris score SH (x, y) of the pixel x, y, may to be the corners corresponding to a break between gray levels in a single direction, the Harris SH score (x, y) of the pixel x, y, then being less than zero. Thus, frank breaks in a single direction can be favored.
Alternativement aux calculs d'un score de Harris, au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une estimation EGRAD(x,y) de l'amplitude du gradient de luminance peut être déterminée, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y). In the second optional step S220, for each pixel x, y of the filtered image IFILT or the image IREQ, an estimate EGRAD (x, y) of the amplitude of the luminance gradient can be determined from luminance information l (x, y) or filtered luminance information IFILT (x, y).
Au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, un score de Harris SH-REF(x,y) est calculé, à partir des informations de luminance IREF(x,y) ou des informations de luminance filtrées IFILT-REF(x,y). À l'issue de la deuxième étape optionnelle S220, une première pseudo-image de référence SH-REF est obtenue, dans laquelle la valeur de chaque pixel correspond au score de Harris associé au pixel dont les coordonnées correspondent dans l'image filtrée de référence IFILT-REF ou dans l'image de référence IREF. Le score de Harris SH-REF(x,y) d'un pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF est d'autant plus important que la proximité dudit pixel x,y est grande en termes de luminance avec un coin de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF.  During the second optional step S220, for each pixel x, y of the reference IFILT-REF reference image or of the reference image IREF, a Harris SH-REF (x, y) score is calculated, at from luminance information IREF (x, y) or filtered luminance information IFILT-REF (x, y). At the end of the second optional step S220, a first pseudo-reference image SH-REF is obtained, in which the value of each pixel corresponds to the Harris score associated with the pixel whose coordinates correspond in the filtered reference image. IFILT-REF or in the reference image IREF. The Harris SH-REF score (x, y) of an x, y pixel of the IFILT-REF reference image or of the reference image IREF is all the more important as the proximity of said pixel x, y is large in terms of luminance with a corner of the IFILT-REF reference filtered image or the IREF reference image.
Avantageusement, dans l'image filtrée de référence IFILT-REF ou l'image de référence IREF, où chaque valeur de gris correspond à un niveau de luminance, les coins pris en compte pour déterminer le score de Harris SH-REF(x,y) du pixel x,y, peuvent être les coins correspondant à une rupture entre des niveaux de gris dans une unique direction, le score de Harris SH(x,y) du pixel x,y, étant alors inférieur à zéro. Ainsi, les ruptures franches dans une unique direction peuvent être privilégiées.  Advantageously, in the IFILT-REF reference filtered image or the reference image IREF, where each gray value corresponds to a luminance level, the corners taken into account to determine the Harris SH-REF score (x, y ) of the pixel x, y, may be the corners corresponding to a break between gray levels in a single direction, the Harris score SH (x, y) of the pixel x, y, then being less than zero. Thus, frank breaks in a single direction can be favored.
Alternativement aux calculs d'un score de Harris, au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, une estimation EGRAD-REF(x,y) de l'amplitude du gradient de luminance peut être déterminée, à partir des informations de luminance IREF(x,y) ou des informations de luminance filtrées IFILT-REF(x,y).  As an alternative to Harris score calculations, in the second optional step S220, for each pixel x, y of the reference IFILT-REF reference image or the IREF reference image, an estimate EGRAD-REF ( x, y) of the luminance gradient amplitude can be determined from the luminance information IREF (x, y) or the filtered luminance information IFILT-REF (x, y).
Dans la troisième étape optionnelle S230, pour chaque pixel x,y de l'image filtrée I FI LT ou de l'image IREQ., une probabilité d'importance p(x,y) est déterminée, à l'aide du score de Harris SH(x,y) dudit pixel x,y ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y. Pour cela, un procédé de calibration peut être mis en œuvre pour obtenir la probabilité d'importance p(x,y), pour chaque pixel x,y de l'image filtrée I FI LT ou de l'image IREQ., à partir du score de Harris SH(x,y) dudit pixel ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y.  In the third optional step S230, for each pixel x, y of the filtered image I FI LT or of the image IREQ., A probability of importance p (x, y) is determined, using the score of Harris SH (x, y) of said pixel x, y or the estimate EGRAD (x, y) of the gradient amplitude of said pixel x, y. For this, a calibration method can be implemented to obtain the probability of importance p (x, y), for each pixel x, y of the filtered image I FI LT or of the image IREQ., From Harris score SH (x, y) of said pixel or EGRAD estimate (x, y) of the gradient amplitude of said pixel x, y.
Le procédé de calibration peut par exemple comporter une étape dans laquelle une fonction sigmoïde, dont les paramètres ont été déterminés de manière empirique, est appliquée à la première pseudo-image SH. En sortie du procédé de calibration, une deuxième pseudo-image PI est obtenue, dans laquelle la valeur de chaque pixel correspond à la probabilité d'importance p(x,y) associé au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ. The calibration method may for example comprise a step in which a sigmoid function, whose parameters have been determined empirically, is applied to the first pseudo-image SH. At the output of the calibration method, a second pseudo-image PI is obtained, in which the value of each pixel corresponds to the probability of importance p (x, y) associated with the pixel whose coordinates correspond in the filtered image IFILT or in the image IREQ.
Dans la troisième étape optionnelle S230, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, une probabilité d'importance pREF(x,y) est déterminée, à l'aide du score de Harris SH-REF(x,y) dudit pixel x,y ou de l'estimation EGRAD-REF(x,y) de l'amplitude du gradient dudit pixel x,y. Pour cela, un procédé de calibration peut être mis en œuvre pour obtenir la probabilité d'importance pREF(x,y), pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, à partir du score de Harris SH- REF(x,y) dudit pixel ou de l'estimation EGRAD-REF(x,y) de l'amplitude du gradient dudit pixel x,y.  In the third optional step S230, for each pixel x, y of the IFILT-REF reference image or of the reference image IREF, a probability of importance pREF (x, y) is determined, using Harris SH-REF (x, y) score of said pixel x, y or EGRAD-REF estimate (x, y) of the gradient amplitude of said pixel x, y. For this, a calibration method can be implemented to obtain the probability of importance pREF (x, y), for each pixel x, y of the IFILT-REF reference filtered image or of the reference image IREF from the Harris SH-REF (x, y) score of said pixel or from the EGRAD-REF (x, y) estimate of the gradient amplitude of said pixel x, y.
Le procédé de calibration peut par exemple comporter une étape dans laquelle une fonction sigmoïde, dont les paramètres ont été déterminés de manière empirique, est appliquée à la première pseudo-image SH-REF. En sortie du procédé de calibration, une deuxième pseudo-image PI-REF est obtenue, dans laquelle la valeur de chaque pixel correspond à la probabilité d'importance pREF(x,y) associé au pixel dont les coordonnées correspondent dans l'image filtrée de référence IFILT-REF ou dans l'image de référence IREF.  The calibration method may for example comprise a step in which a sigmoid function, the parameters of which have been determined empirically, is applied to the first pseudo-image SH-REF. At the output of the calibration method, a second pseudo-image PI-REF is obtained, in which the value of each pixel corresponds to the probability of importance pREF (x, y) associated with the pixel whose coordinates correspond in the filtered image reference IFILT-REF or in the reference image IREF.
Dans une quatrième étape S240, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ., une orientation OG(x,y) de gradients relatifs au niveau de luminance est déterminée. L'orientation OG(x,y) de gradients est déterminée de manière dense, c'est-à-dire en utilisant les informations de tous les pixels x,y de ladite image. Par exemple, pour déterminer l'orientation OG(x,y) du pixel x,y, on calcule :  In a fourth step S240, for each pixel x, y of the IFILT filtered image or the IREQ image, an orientation OG (x, y) of gradients relative to the luminance level is determined. The orientation OG (x, y) of gradients is densely determined, i.e. using the information of all x, y pixels of said image. For example, to determine the orientation OG (x, y) of the pixel x, y, we calculate:
• une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ;  A first response of a first Sobel-type convolution filter applied at the luminance level in a first direction;
• une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction.  A second response of a second Sobel core-type convolution filter applied at the luminance level, in a second direction orthogonal to the first direction.
L'orientation OG(x,y) du pixel x,y est alors obtenue en formant un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. L'argument du vecteur ainsi formé est estimé ainsi pour un intervalle [0 ; 2π]. À l'issue de la quatrième étape S240, une troisième pseudo-image OG est obtenue, dans laquelle la valeur de chaque pixel correspond à l'orientation OG(x,y) de gradients associés au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.. Au cours de la quatrième étape S240, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, une orientation OG- REF(x,y) de gradients relatifs au niveau de luminance est déterminée. L'orientation OG-REF(x,y) de gradients est déterminée de manière dense, c'est-à-dire en utilisant les informations de tous les pixels x,y de ladite image. Par exemple, pour déterminer l'orientation OG-REF(x,y) du pixel x,y, on calcule : The orientation OG (x, y) of the pixel x, y is then obtained by forming a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response. The argument of the vector thus formed is thus estimated for an interval [0; 2π]. At the end of the fourth step S240, a third pseudo-image OG is obtained, in which the value of each pixel corresponds to the orientation OG (x, y) of gradients associated with the pixel whose coordinates correspond in the image. filtered IFILT or in the image IREQ .. During the fourth step S240, for each pixel x, y of the IFILT-REF reference image or of the reference image IREF, an orientation OG-REF (x, y) of gradients relative to the luminance level is determined. The orientation OG-REF (x, y) of gradients is determined densely, that is to say using the information of all pixels x, y of said image. For example, to determine the orientation OG-REF (x, y) of the pixel x, y, we calculate:
• une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ;  A first response of a first Sobel-type convolution filter applied at the luminance level in a first direction;
• une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction.  A second response of a second Sobel core-type convolution filter applied at the luminance level, in a second direction orthogonal to the first direction.
L'orientation OG-REF(x,y) du pixel x,y est alors obtenue en formant un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. L'argument du vecteur ainsi formé est estimé ainsi pour un intervalle [0 ; 2π]. À l'issue de la quatrième étape S240, une troisième pseudo-image OG-REF est obtenue, dans laquelle la valeur de chaque pixel correspond à l'orientation OG-REF(x,y) de gradients associés au pixel dont les coordonnées correspondent dans l'image filtrée de référence IFILT-REF ou dans l'image de référence IREF.  The orientation OG-REF (x, y) of the pixel x, y is then obtained by forming a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response. The argument of the vector thus formed is thus estimated for an interval [0; 2π]. At the end of the fourth step S240, a third pseudo-image OG-REF is obtained, in which the value of each pixel corresponds to the orientation OG-REF (x, y) of gradients associated with the pixel whose coordinates correspond to in the IFILT-REF reference filtered image or in the IREF reference image.
Dans une cinquième étape S250, une estimation de la distribution globale des orientations des gradients OG(x,y) des pixels x,y de l'image filtrée IFILT ou de l'image IREQ., est déterminée. L'estimation de la distribution globale des gradients OG(x,y) est par exemple un histogramme H discret, comportant une pluralité de classes relatives à différentes plages de valeurs possible pour les orientations des gradients OG(x,y). L'histogramme H est construit en déterminant :  In a fifth step S250, an estimate of the global distribution of the orientations of the gradients OG (x, y) of the pixels x, y of the filtered image IFILT or of the image IREQ., Is determined. The estimation of the global distribution of the gradients OG (x, y) is, for example, a discrete histogram H, comprising a plurality of classes relating to different ranges of possible values for the orientations of the gradients OG (x, y). The histogram H is constructed by determining:
• pour chaque pixel x,y une contribution C(x,y) ; et,  For each pixel x, y a contribution C (x, y); and,
• pour chaque classe, une hauteur égale à la somme des contributions C(x,y) de tous les pixels dont l'orientation OG(x,y) est comprise dans ladite classe.  • for each class, a height equal to the sum of the contributions C (x, y) of all the pixels whose orientation OG (x, y) is included in said class.
La contribution C(x,y) de chaque pixel x,y peut être choisie constante, par exemple égal à 1.  The contribution C (x, y) of each pixel x, y can be chosen constant, for example equal to 1.
Avantageusement, dans le cas où la deuxième pseudo-image PI est disponible, la contribution C(x,y) de chaque pixel x,y peut être fonction de la probabilité d'importance p(x,y) associé audit pixel.  Advantageously, in the case where the second pseudo-image PI is available, the contribution C (x, y) of each pixel x, y may be a function of the probability of importance p (x, y) associated with said pixel.
Au cours de la cinquième étape S250, une estimation de référence de la distribution globale des orientations des gradients OG-REF(x,y) des pixels x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, est déterminée. L'estimation de référence de la distribution globale des gradients OG-REF(x,y) est par exemple un histogramme de référence HREF discret, comportant une pluralité de classes relatives à différentes plages de valeurs possible pour les orientations des gradients OG-REF(x,y). L'histogramme de référence HREF est construit en déterminant: During the fifth step S250, a reference estimate of the global distribution of the orientations of the gradients OG-REF (x, y) of the pixels x, y of the reference filtered image IFILT-REF or of the reference image IREF, is determined. The reference estimate of the global gradient distribution OG-REF (x, y) is, for example, a discrete HREF reference histogram comprising a plurality of classes relating to different ranges of possible values for the OG-REF gradient orientations ( x, y). The reference histogram HREF is constructed by determining:
• pour chaque pixel x,y une contribution CREF(x,y) ; et,  • for each pixel x, y a contribution CREF (x, y); and,
• pour chaque classe, une hauteur égale à la somme des contributions CREF(x,y) de tous les pixels dont l'orientation OG-REF(x,y) est comprise dans ladite classe.  • for each class, a height equal to the sum of the CREF (x, y) contributions of all the pixels whose orientation OG-REF (x, y) is included in said class.
La contribution CREF(x,y) de chaque pixel x,y peut être choisie constante, par exemple égal à 1.  The contribution CREF (x, y) of each pixel x, y can be chosen constant, for example equal to 1.
Avantageusement, dans le cas où la deuxième pseudo-image PI-REF est disponible, la contribution CREF(x,y) de chaque pixel x,y peut être fonction de la probabilité d'importance pREF(x,y) associé audit pixel.  Advantageously, in the case where the second pseudo-image PI-REF is available, the contribution CREF (x, y) of each pixel x, y may be a function of the probability of importance pREF (x, y) associated with said pixel.
Dans une sixième étape S260, l'orientation principale 0 est déterminée en fonction :  In a sixth step S260, the main orientation 0 is determined according to:
• de l'estimation de la distribution globale des orientations de gradients, des pixels x,y de l'image filtrée I FI LT ou de l'image IREQ.; et,  Estimating the global distribution of the gradient orientations, the pixels x, y of the filtered image F1 LT or the image IREQ; and,
• de estimation de référence de la distribution globale des orientations des gradients OG-REF(x,y) des pixels x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF.  Reference estimation of the global distribution of the orientations of the gradients OG-REF (x, y) of the pixels x, y of the reference filtered image IFILT-REF or of the reference image IREF.
En particulier, un maximum de corrélation entre l'histogramme H et l'histogramme de référence HREF peut être recherché. Ainsi, il est par exemple possible d'évaluer une mesure de la corrélation entre l'histogramme H et l'histogramme de référence HREF, en faisant varier le décalage de l'histogramme H par rapport à l'histogramme de référence HREF selon un angle de décalage évoluant par pas de 0.1° entre -10° et 10°. La mesure de la corrélation entre l'histogramme H et l'histogramme de référence HREF est par exemple déterminée en fonction de la distance probabiliste de Bhattacharyya, décrit notamment dans le document intitulé Kailath, T., (1967), « The Divergence and Bhattacharyya Distance Measures in Signal Sélection », IEEE Transactions on Communication Technology, vol. 15, no 1, 1967, p. 52-60. L'estimation de l'erreur E est alors égale à l'angle de décalage pour lequel un maximum de corrélation est observé. L'indice de qualité Q. est alors fonction de la valeur de la distance de Bhattacharyya associé à l'estimation de l'erreur E.  In particular, a maximum correlation between the histogram H and the reference histogram HREF can be sought. Thus, it is possible, for example, to evaluate a measure of the correlation between the histogram H and the reference histogram HREF, by varying the offset of the histogram H with respect to the reference histogram HREF by an angle shift in steps of 0.1 ° between -10 ° and 10 °. The measurement of the correlation between the histogram H and the reference histogram HREF is, for example, determined as a function of the probabilistic distance of Bhattacharyya, described in particular in the document entitled Kailath, T., (1967), "The Divergence and Bhattacharyya". Distance Measures in Signal Selection ", IEEE Transactions on Communication Technology, Vol. 15, No. 1, 1967, p. 52-60. The estimate of the error E is then equal to the offset angle for which a maximum correlation is observed. The quality index Q. is then a function of the value of the Bhattacharyya distance associated with the estimate of the error E.
Dans une septième étape S270, une estimation de conformité CF fonction d'une distance statistique entre l'histogramme H et l'histogramme de référence HREF est déterminée. Ainsi, il est par exemple possible de déterminer la distance probabiliste de Bhattacharyya entre l'histogramme H et l'histogramme de référence HREF. L'estimation de conformité CF est alors obtenue en fonction de la distance probabiliste de Bhattacharyya entre l'histogramme H et l'histogramme de référence HREF, typiquement en soustrayant à 1 ladite distance probabiliste de Bhattacharyya. In a seventh step S270, a conformity estimate CF based on a statistical distance between the histogram H and the reference histogram HREF is determined. Thus, it is possible, for example, to determine the probabilistic distance of Bhattacharyya between the histogram H and the reference histogram HREF. The conformity estimate CF is then obtained as a function of the probabilistic distance of Bhattacharyya between the histogram H and the reference histogram HREF, typically by subtracting 1 said probabilistic distance from Bhattacharyya.

Claims

REVENDICATIONS
1. Procédé de production et/ou de contrôle d'une pièce en matériaux composites formée à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale (0), caractérisé en ce qu'il comporte les étapes suivantes : A method for producing and / or controlling a composite material part formed from at least one fabric having a surface whose texture has a main orientation (0), characterized in that it comprises the following steps :
obtenir (10) une première image (IREQ.) formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, représentant la texture du tissu ;  obtaining (10) a first image (IREQ.) formed by a plurality of pixels and wherein a luminance level can be determined for each pixel, representing the texture of the tissue;
- déterminer (20) une estimation relative à l'orientation principale (O) de la texture, :  determining (20) an estimate relating to the principal orientation (O) of the texture,
• lors d'une première étape (S140 ; S240), en déterminant, pour chaque pixel de la première image, une orientation (OG (x, y)) de gradients relatifs au niveau de luminance dudit pixel ;  In a first step (S140; S240), determining, for each pixel of the first image, an orientation (OG (x, y)) of gradients relative to the luminance level of said pixel;
• lors d'une deuxième étape (S150 ; S250), en déterminant une estimation d'une distribution globale des orientations de gradients des pixels de la première image ;  In a second step (S150; S250), by determining an estimate of an overall distribution of the gradient orientations of the pixels of the first image;
· lors d'une troisième étape (S160 ; S260), en déterminant l'orientation principale en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image ;  In a third step (S160; S260), determining the main orientation as a function of the estimate of the overall distribution of the gradient orientations of the pixels of the first image;
déterminer (30) un écart (D) entre l'estimation relative à l'orientation principale (O) et une valeur de consigne ;  determining (30) a deviation (D) between the estimate relating to the main orientation (O) and a set value;
produire (40a) la pièce en fonction de l'écart et/ou émettre (40b) un signal de contrôle fonction de l'écart.  producing (40a) the workpiece according to the deviation and / or outputting (40b) a control signal depending on the deviation.
2. Procédé selon la revendication 1, dans lequel, au cours de la première étape (S140 ; S240), pour chaque pixel de la première image, l'orientation (OG (x, y)) de gradients relatifs au niveau de luminance dudit pixel est obtenu en :  The method according to claim 1, wherein, during the first step (S140; S240), for each pixel of the first image, the orientation (OG (x, y)) of gradients relative to the luminance level of said pixel is obtained in:
• déterminant une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ;  Determining a first response of a first Sobel-type convolution filter applied at the luminance level in a first direction;
• une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction ; • calculant l'argument d'un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. A second response of a second Sobel-type convolution filter applied at the luminance level, in a second direction orthogonal to the first direction; • calculating the argument of a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response.
3. Procédé selon l'une quelconque des revendications 1 à 2, dans lequel au cours de la deuxième étape (S150 ; S250), l'estimation de la distribution globale des orientations de gradients des pixels de la première image est déterminée en construisant un histogramme (H) discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de la première image. The method according to any one of claims 1 to 2, wherein in the second step (S150; S250), estimating the overall distribution of the gradient orientations of the pixels of the first image is determined by constructing a discrete histogram (H), comprising a plurality of classes relating to different ranges of possible values for the orientation of the gradients of the pixels of the first image.
4. Procédé selon la revendication 3, dans lequel l'histogramme (H) est construit en déterminant : The method of claim 3, wherein the histogram (H) is constructed by determining:
• pour chaque pixel de la première image, une contribution ; et,  For each pixel of the first image, a contribution; and,
· pour chaque classe, une hauteur égale à la somme des contributions de tous les pixels de la première image dont l'orientation est comprise dans ladite classe.  · For each class, a height equal to the sum of the contributions of all the pixels of the first image whose orientation is included in said class.
5. Procédé selon la revendication 4, dans lequel, au cours de la troisième étape, l'orientation principale est déterminée en identifiant, dans l'histogramme, la classe dont la hauteur est maximale. 5. The method of claim 4, wherein in the third step, the main orientation is determined by identifying, in the histogram, the class whose height is maximum.
6. Procédé selon l'une quelconque des revendications 4 ou 5, comportant en outre, préalablement à la première étape : 6. Method according to any one of claims 4 or 5, further comprising, prior to the first step:
• une étape (120), au cours de laquelle, pour chaque pixel de la première image, un score (SH) relatif à l'appartenance dudit pixel à un contour de luminance est déterminé ;  A step (120), during which, for each pixel of the first image, a score (SH) relating to the membership of said pixel in a luminance contour is determined;
• une étape (S130), au cours de laquelle, pour chaque pixel de la première image, une probabilité d'importance (p (x, y)) est déterminée, à l'aide du score dudit pixel ;  A step (S130), during which, for each pixel of the first image, a probability of importance (p (x, y)) is determined, using the score of said pixel;
et dans lequel, au cours de la deuxième étape, la contribution de chaque pixel est déterminée en fonction de la probabilité d'importance associée audit pixel.  and wherein, in the second step, the contribution of each pixel is determined according to the importance probability associated with said pixel.
7. Procédé selon la revendication 6, dans lequel, pour chaque pixel de la première image, le score est un score de Harris calculé, à partir des niveaux de luminance des pixels de la première image. The method of claim 6, wherein, for each pixel of the first image, the score is a calculated Harris score, based on the luminance levels of the pixels of the first image.
8. Procédé selon la revendication 7, dans lequel les coins de la première image utilisés pour calculer le score de chaque pixel de la première image correspondent à une rupture entre des niveaux de luminance de la première image dans une unique direction. The method of claim 7, wherein the corners of the first image used to calculate the score of each pixel of the first image correspond to a break between luminance levels of the first image in a single direction.
9. Procédé selon la revendication 6, dans lequel, pour chaque pixel de la première image, le score est une estimation de l'amplitude du gradient de luminance, à partir des niveaux de luminance des pixels de la première image. 9. The method of claim 6, wherein for each pixel of the first image, the score is an estimate of the luminance gradient amplitude from the luminance levels of the pixels of the first image.
10. Procédé selon l'une quelconque des revendications 6 à 9, dans lequel, pour chaque pixel de la première image, la probabilité d'importance est déterminée à l'aide d'une fonction sigmoïde et du score dudit pixel. The method according to any one of claims 6 to 9, wherein for each pixel of the first image, the probability of importance is determined using a sigmoid function and the score of said pixel.
11. Procédé selon l'une quelconque des revendications 1 à 10, comportant en outre, préalablement à la troisième étape, une étape (S110 ; S210), au cours de laquelle le niveau de luminance de chaque pixel de la première image est filtré de sorte à réduire le bruit présent dans les informations de luminance de la première image. The method according to any one of claims 1 to 10, further comprising, prior to the third step, a step (S110; S210), in which the luminance level of each pixel of the first image is filtered from to reduce the noise present in the luminance information of the first image.
12. Procédé selon l'une quelconque des revendications 1 à 11, dans lequel : The method of any one of claims 1 to 11, wherein:
• au cours de la première étape (S240), pour chaque pixel d'une image de référence (IREF) d'une surface texturée, ladite image de référence étant formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, une orientation (OG-REF (x, y)) de gradients relatifs au niveau de luminance dudit pixel est déterminée ;  During the first step (S240), for each pixel of a reference image (IREF) of a textured surface, said reference image being formed by a plurality of pixels and in which a luminance level can be determined for each pixel, an orientation (OG-REF (x, y)) of gradients relative to the luminance level of said pixel is determined;
• au cours de la deuxième étape (S250), une estimation de référence d'une distribution globale des orientations de gradients des pixels de l'image de référence est déterminée ;  During the second step (S250), a reference estimate of an overall distribution of the gradient orientations of the pixels of the reference image is determined;
· au cours de la troisième étape (S260), une erreur (E) de l'orientation principale est déterminée en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image et en fonction de l'estimation de référence de la distribution globale des orientations de gradients des pixels de la première image ; et dans lequel l'écart entre l'estimation relative à l'orientation principale (0) et la valeur de consigne est déterminée en fonction de l'erreur (E) de l'orientation principale. During the third step (S260), an error (E) of the main orientation is determined according to the estimate of the overall distribution of the gradient orientations of the pixels of the first image and according to the estimate reference of the global distribution of the gradient orientations of the pixels of the first image; and wherein the difference between the estimate of the main orientation (0) and the set value is determined according to the error (E) of the main orientation.
13. Procédé selon la revendication 3 et la revendication 12, dans lequel, au cours de la deuxième étape (S250), l'estimation de référence de la distribution globale des orientations de gradients des pixels de l'image de référence est déterminée en construisant un histogramme de référence (HREF) discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de l'image de référence, et dans lequel au cours de la troisième étape (S260), l'erreur (E) de l'orientation principale est déterminée en fonction d'un maximum de corrélation entre l'histogramme (H) et l'histogramme de référence (HREF). The method of claim 3 and claim 12, wherein, in the second step (S250), the reference estimate of the overall distribution of gradient orientations of the pixels of the reference image is determined by constructing a discrete reference histogram (HREF), having a plurality of classes relating to different ranges of possible values for the pixel gradient orientations of the reference image, and wherein in the third step (S260), Error (E) of the main orientation is determined based on a maximum correlation between the histogram (H) and the reference histogram (HREF).
14. Procédé selon la revendication 13, dans lequel, au cours de la troisième étape (S260), le maximum de corrélation entre l'histogramme (H) et l'histogramme de référence (HREF) est déterminé en calculant une mesure de la corrélation entre l'histogramme (H) et l'histogramme de référence (HREF) pour une pluralité de décalages de l'histogramme (H) par rapport à l'histogramme de référence (HREF) selon un angle de décalage compris dans un intervalle déterminé. The method of claim 13, wherein, in the third step (S260), the correlation maximum between the histogram (H) and the reference histogram (HREF) is determined by calculating a measure of the correlation. between the histogram (H) and the reference histogram (HREF) for a plurality of offsets of the histogram (H) relative to the reference histogram (HREF) at an offset angle within a specified range.
15. Procédé selon la revendication 14, dans lequel, au cours de la troisième étape, la mesure de la corrélation entre l'histogramme (H) et l'histogramme de référence (HREF) est déterminée en fonction d'une distance probabiliste de Bhattacharyya, un indice de qualité (Q.) étant déterminé en fonction de la valeur de la distance probabiliste de Bhattacharyya et de l'erreur (E), et/ou une estimation de conformité (CF) fonction de la distance probabiliste de Bhattacharyya, au cours d'une quatrième étape (S270). The method of claim 14, wherein, in the third step, measuring the correlation between the histogram (H) and the reference histogram (HREF) is determined according to a probabilistic distance of Bhattacharyya. , a quality index (Q.) being determined according to the value of the probabilistic distance of Bhattacharyya and the error (E), and / or an estimate of conformity (CF) according to the probabilistic distance of Bhattacharyya, to during a fourth stage (S270).
EP16829103.7A 2016-12-14 2016-12-14 Means for producing and/or checking a part made of composite materials Withdrawn EP3555845A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FR2016/053435 WO2018109286A1 (en) 2016-12-14 2016-12-14 Means for producing and/or checking a part made of composite materials

Publications (1)

Publication Number Publication Date
EP3555845A1 true EP3555845A1 (en) 2019-10-23

Family

ID=57861177

Family Applications (1)

Application Number Title Priority Date Filing Date
EP16829103.7A Withdrawn EP3555845A1 (en) 2016-12-14 2016-12-14 Means for producing and/or checking a part made of composite materials

Country Status (4)

Country Link
US (1) US20200027224A1 (en)
EP (1) EP3555845A1 (en)
CN (1) CN110088800A (en)
WO (1) WO2018109286A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8928316B2 (en) * 2010-11-16 2015-01-06 Jentek Sensors, Inc. Method and apparatus for non-destructive evaluation of materials
FR2989621B1 (en) * 2012-04-20 2014-07-11 Jedo Technologies METHOD AND SYSTEM FOR FOLDING PLI A PIECE OF COMPOSITE MATERIAL BY POWER SUPPLY
GB201218720D0 (en) * 2012-10-18 2012-12-05 Airbus Operations Ltd Fibre orientation optimisation
US9897440B2 (en) * 2014-01-17 2018-02-20 The Boeing Company Method and system for determining and verifying ply orientation of a composite laminate
US10198804B2 (en) * 2015-04-15 2019-02-05 Halliburton Energy Services, Inc. Method for determining fabric and upscaled properties of geological sample
FR3044767B1 (en) * 2015-12-08 2017-12-01 Techni-Modul Eng MEANS FOR PRODUCING AND / OR CONTROLLING A PIECE OF COMPOSITE MATERIALS

Also Published As

Publication number Publication date
WO2018109286A1 (en) 2018-06-21
CN110088800A (en) 2019-08-02
US20200027224A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
JP6312370B2 (en) System and method for detecting, classifying and quantifying wafer surface features with a wafer geometry metrology tool
US8712184B1 (en) Method and system for filtering noises in an image scanned by charged particles
CN103207183A (en) Visual Inspection Device And Visual Inspection Method
EP0054598A1 (en) Method for the inspection and automatic sorting of objects with configurations of fixed dimensional tolerances, and device for carrying out the method
CN112150460B (en) Detection method, detection system, device and medium
TWI751372B (en) Systems and methods for defect detection
US20210158223A1 (en) Finding Semiconductor Defects Using Convolutional Context Attributes
CN112200790B (en) Cloth defect detection method, device and medium
WO2020087004A1 (en) Algorithm selector based on image frames
KR20180123173A (en) System and method for wafer inspection by noise boundary threshold
FR3044767A1 (en) MEANS FOR PRODUCING AND / OR CONTROLLING A PIECE OF COMPOSITE MATERIALS
FR3007174A1 (en) METHOD OF PROCESSING THE DIGITAL IMAGE OF THE SURFACE OF A PNEUMATIC TIRE FOR DETECTION OF ANOMALY
WO2018109286A1 (en) Means for producing and/or checking a part made of composite materials
CN110010513B (en) Method for establishing defect scanning program of film deposition layer and scanning machine
FR3111574A1 (en) Detection and localization of powder spreading anomalies by measuring acoustic emissions
KR102536835B1 (en) Method of testing defect of silicon wafer
TW202203147A (en) Device and method for correcting directional drifts in topographic image data
EP1921442A1 (en) Method and installation for controlling the quality of parts
BE1015708A3 (en) Method for measuring the height of spheres or hemispheres.
CN112926438A (en) Detection method and device, detection equipment and storage medium
TWI777508B (en) Non-contact hardness measurement method and non-contact hardness measurement apparatus
US11330164B2 (en) Determining focus settings for specimen scans
CN112926439A (en) Detection method and device, detection equipment and storage medium
Wörnhör et al. A self-consistent hybrid model connects empirical and optical models for fast, non-destructive inline characterization of thin, porous silicon layers
FR3126487A1 (en) DIMENSIONAL CONTROL BY PROJECTION

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20190521

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20200204