WO2018109286A1 - Moyens de production et/ou de contrôle d'une pièce en matériaux composites - Google Patents

Moyens de production et/ou de contrôle d'une pièce en matériaux composites Download PDF

Info

Publication number
WO2018109286A1
WO2018109286A1 PCT/FR2016/053435 FR2016053435W WO2018109286A1 WO 2018109286 A1 WO2018109286 A1 WO 2018109286A1 FR 2016053435 W FR2016053435 W FR 2016053435W WO 2018109286 A1 WO2018109286 A1 WO 2018109286A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
determined
pixels
orientation
Prior art date
Application number
PCT/FR2016/053435
Other languages
English (en)
Inventor
Serge Luquain
Original Assignee
Techni-Modul Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Techni-Modul Engineering filed Critical Techni-Modul Engineering
Priority to US16/462,986 priority Critical patent/US20200027224A1/en
Priority to CN201680091627.XA priority patent/CN110088800A/zh
Priority to EP16829103.7A priority patent/EP3555845A1/fr
Priority to PCT/FR2016/053435 priority patent/WO2018109286A1/fr
Publication of WO2018109286A1 publication Critical patent/WO2018109286A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30124Fabrics; Textile; Paper

Definitions

  • the present invention relates to the field of production of composite material parts, as well as quality control processes of said parts. More particularly, the invention relates to the production and / or controls of preforms, adapted to be used to manufacture composite material parts.
  • composite materials are widely used in both the secondary and primary structures of civil and military aircraft, but also for the realization of many elements in motor vehicles or in railway equipment.
  • the manufacturing method comprising a draping step followed by a cooking step in an autoclave, an oven or a press is widely used.
  • Such a process often requires the use of a preform-set of compacted tissues.
  • To manufacture a preform it is known to cut, position and form layers of fabric, manually and non-automatically.
  • One operator in particular must ensure the proper main orientation of the various tissue layers, relative to each other.
  • a texture is described as directional when elementary structures identifiable in said texture are arranged substantially in a main orientation.
  • Various image analysis methods are known for determining the main orientation of a texture.
  • the document Da-Costa, JP "Statistical analysis of directional textures, application to the characterization of composite materials", Thesis of the University of Bordeaux 1, defended on December 21, 2001, describes such a process.
  • the known methods analyze the texture image in a dense manner, that is to say by using in an identical manner any pixel or any point of said image. This results in a significant sensitivity to the noise present in the image, which negatively affects the reliability and accuracy of the determination of the main orientation.
  • One of the objects of the invention is to provide means capable of enabling the automated production of composite material parts. Another object of the invention is to provide means capable of allowing the determination of the main orientation of a texture, which are not very sensitive to the noise present in the image representing the texture. Another object of the invention is to provide a method for determining an estimate of the main orientation of a particularly robust texture, of very good quality even in the presence of a significant noise in the image representing the texture. Another object of the invention is to propose a method for determining a principal orientation error of a texture with respect to a reference orientation, which is particularly robust, of very good quality even in the presence of a large noise in the field. image representing the texture.
  • the invention relates to a method for producing and / or controlling a composite material part formed from at least one fabric having a surface whose texture has a main orientation.
  • the method comprises the following steps:
  • determining the main orientation as a function of the estimate of the overall distribution of the gradient orientations of the pixels of the first image
  • the piece of composite material is for example composed of a plurality of superimposed fabrics so that the main orientation of each fabric respects a predetermined sequence.
  • the part may be in particular a preform adapted to be used to manufacture composite material parts, in particular by implementing a process comprising a draping step followed by a cooking step in an autoclave, a furnace or a hurry.
  • the method is particularly adapted to be implemented by automated devices, such as robots provided with calculation means and an image pickup device, adapted to arrange the fabrics relative to one another according to one another so that the main orientation of each tissue substantially respects a predetermined sequence.
  • the set value is for example obtained from a predefined value or calculated as a function, for example, of the orientation of at least one of the other fabrics forming the part.
  • the setpoint may be a range of acceptable values.
  • the position of the fabric can be modified to reduce the deviation to a value below a predefined threshold.
  • the previous steps may be repeated as often as necessary.
  • the control signal can be generated so as to allow the signaling, to a operator-controller or a quality control device, a potential defect of orientation of the fabric, when the difference is greater than a tolerance value greater than a predefined threshold.
  • the orientation of gradients relative to the luminance level of said pixel can be obtained by:
  • the estimation of the overall distribution of the gradient orientations of the pixels of the first image can be determined by constructing a discrete histogram, comprising a plurality of classes relating to different ranges of possible values for the gradient orientations. pixels of the first image.
  • the histogram is for example constructed by determining:
  • the main orientation can be determined by identifying, in the histogram, the class whose height is maximum.
  • the method may comprise:
  • a step during which, for each pixel of the first image, a score relating to the membership of said pixel in a luminance contour is determined
  • a step during which, for each pixel of the first image, a probability of importance is determined, using the score of said pixel;
  • the score is for example a calculated Harris score, based on the luminance levels of the pixels of the first image.
  • the presence of noise - for example "pepper and salt" - is filtered by the use of the Harris score and the probability of importance.
  • the corners of the first image used to calculate the score of each pixel of the first image may correspond to a break between luminance levels of the first image in a single direction.
  • the score is for example an estimate of the luminance gradient amplitude, based on the luminance levels of the pixels of the first image.
  • the probability of importance can be determined using a sigmoid function and the score of said pixel.
  • the method may include a step in which the luminance level of each pixel of the first image is filtered so as to reduce the noise present in the luminance information of the first image.
  • a reference estimate of an overall distribution of the gradient orientations of the pixels of the reference image is determined
  • an error of the main orientation is determined according to the estimation of the global distribution of the gradient orientations of the pixels of the first image and according to the reference estimate of the global distribution gradient orientations of the pixels of the first image.
  • the difference between the estimate for Primary orientation and the setpoint is determined by the error of the main orientation.
  • the reference value can be chosen according to the reference estimate of the overall distribution of the gradient orientations of the pixels of the reference image.
  • the reference estimate of the overall distribution of the gradient orientations of the pixels of the reference image can be determined by constructing a discrete reference histogram, comprising a plurality of classes relating to different ranges of values. possible for the pixel gradient orientations of the reference image, and in which in the third step, the error of the main orientation is determined according to a maximum correlation between the histogram and the histogram of reference.
  • the maximum correlation between the histogram and the reference histogram can be determined by calculating a measure of the correlation between the histogram and the reference histogram for a plurality of offsets of the histogram. relative to the reference histogram by an offset angle within a specified range.
  • the measurement of the correlation between the histogram and the reference histogram can be determined according to a probabilistic distance of Bhattacharyya, a quality index being determined according to the value of the probabilistic distance. of Bhattacharyya and the error, and / or an estimate of conformity according to the probabilistic distance of Bhattacharyya, during a fourth stage.
  • FIG. 1 is a block diagram of the steps of a method for determining an estimate of the main orientation of a texture according to one embodiment of the invention
  • FIG. 2 is a block diagram of the steps of a method for determining a main orientation error of a texture with respect to a main reference orientation, according to an embodiment of the invention
  • FIG. 3a is a reproduction of an image of a texture whose main orientation is substantially equal to 5 ° in the reference frame R;
  • FIG. 3b is a reproduction of a reference image of a texture whose main orientation is substantially equal to 0 ° in the reference frame R;
  • Figure 4 is a block diagram of the steps of a method for producing and / or controlling a composite material part, according to one embodiment of the invention.
  • the composite material part is produced from at least one fabric having a surface whose texture has a main orientation O.
  • the composite material part is composed of a plurality of superimposed fabrics so that the orientation principal of each fabric respects a predetermined sequence.
  • the piece may in particular be a preform adapted to be used to manufacture composite material parts, in particular by implementing a process comprising a draping step followed by a cooking step in an autoclave, a furnace or a hurry.
  • the method is particularly adapted to be implemented by automated devices, such as robots provided with calculation means and an image pickup device, adapted to arrange the fabrics relative to one another according to one another so that the main orientation of each tissue substantially respects a predetermined sequence.
  • this situation can be encountered when a robot moves a fabric from a storage location to a manufacturing area of composite material parts, and that said fabric is to be positioned in a particular main orientation.
  • this operation can be repeated as often as necessary to obtain the final piece, typically at least as often as the number of tissues forming the final piece.
  • the orientation of each of the tissues may be predetermined from a recorded sequence.
  • the orientation of each of the tissues may also be predetermined from the orientation of at least one of the other tissues forming the workpiece.
  • the method includes a step of obtaining a first image I REQ formed by a plurality of pixels and wherein a luminance level can be determined for each pixel, representing the texture of the fabric.
  • the image I RE Q of the texture comprises at least luminance information.
  • the image I RE Q may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated with at least one value l (x, y) corresponding to a luminance level.
  • the image I REQ. can be a so-called gray level image, each gray value corresponding to a luminance level.
  • the method comprises a step 20 of determining an estimate relating to the main orientation O of the texture, as a function of the luminance information included in an image of said texture.
  • the method comprises a step 30 for determining a difference D between the main orientation O and a set value.
  • the reference value is for example obtained from a predefined value or calculated according to, for example the orientation of at least one of the other tissues forming the part.
  • the setpoint may be a range of acceptable values.
  • the method comprises a step 40a for producing the part as a function of the difference D and / or a step 40b for transmitting a control signal as a function of the difference.
  • step 40a the position of the fabric can be modified so as to reduce the deviation D to a value lower than a predefined threshold.
  • steps 10 to 40 may be repeated as often as necessary.
  • control signal can be generated so as to enable the signaling to a control operator or a quality control device of a potential defect of orientation of the tissue, when the deviation E is greater than a tolerance value greater than a predefined threshold.
  • the first method is particularly adapted to allow the determination of an estimate relating to the main orientation O of the texture, as a function of the luminance information included in an image of said texture, in the production and / or control method. of a piece made of composite materials.
  • the first method is to determine a principal orientation in a texture based on the luminance information included in an image of said texture. More particularly, the first method aims at determining a principal orientation in the texture as a function of a spatial derivative of the luminance information included in the image of said texture.
  • the term "gradient" refers to the spatial derivative of the luminance information included in the image of said texture.
  • the first method is adapted in particular to estimate, in real time, the main orientation O of a texture, from an image IREQ of said texture, the main orientation O being determined, for a measurement interval M relatively to a reference frame R of the image IREQ.
  • the measurement interval M is [-5 ° .. 5 °].
  • the first method also makes it possible to calculate a quality index Q of the estimate of the main orientation O, relating to a degree of confidence or reliability of the estimate of the main orientation O.
  • the image IREQ. of the texture comprises at least luminance information.
  • the image IREQ may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated at least with a value l (x, y) corresponding to a luminance level.
  • the image IREQ can thus be a so-called gray level image, each gray value corresponding to a luminance level.
  • a filtered image I IF LT is determined, based on the luminance information I (x, y) of the image IREQ, by implementing a noise reduction method.
  • the filtered image I FI LT can be determined in particular, by reducing or eliminating the components relating to luminance information l (x, y) of the image IREQ. whose spatial frequency is greater than a cutoff frequency FC.
  • a spatial convolutional filter with a Gaussian core can be used for this purpose.
  • the filtered image I FI LT thus obtained comprises at least the filtered luminance information IFILT (x, y) of the image IREQ.
  • the first method comprises a second optional step S120 and a third optional step S130.
  • a score SH relating to the belonging of said pixel to a luminance contour is determined.
  • a Harris score is calculated from luminance information l (x, y) or filtered luminance information IFILT (x, y).
  • the algorithm known as "Harris and Stephen" for calculating SH (x, y) is described in detail in Harris, C. & Stephens, M. (1988), "A Combined Corner and Edge Detector", in 'Proceedings of the 4th Alvey Vision Conference', pp. 147-151.
  • a first pseudo-image SH is obtained, in which the value of each pixel corresponds to the Harris score associated with the pixel whose coordinates correspond in the filtered image I FI LT or in the image. IREQ image.
  • the Harris score SH (x, y) of an x, y pixel of the filtered image I F1 LT or of the image IREQ is all the more important since the proximity of said pixel x, y is large in terms of luminance with a corner of the I FI LT filtered image or the IREQ image.
  • the corners taken into account to determine the Harris score SH (x, y) of the pixel x, y can be the corners corresponding to a break between gray levels in a single direction, the Harris score SH (x, y) of the pixel x, y, then being less than zero.
  • frank breaks in a single direction can be favored.
  • an estimate EGRAD (x, y) of the amplitude the luminance gradient can be determined from the luminance information l (x, y) or the filtered luminance information IFILT (x, y).
  • a description of a method for determining ⁇ EGRAD estimate (x, y) is detailed in the document I. Sobel and G. Feldman, entitled “A 3x3 isotropic gradient operator for image processing", presented at the conference “Stanford Artificial Project ", 1968.
  • a probability of importance p is determined, using the Harris SH score. (x, y) said pixel x, y or the estimate EGRAD (x, y) of the gradient amplitude of said pixel x, y.
  • a calibration method can be implemented to obtain the probability of importance p (x, y), for each pixel x, y of the IFILT filtered image or of the image IREQ., From the score Harris SH (x, y) of said pixel or estimate EGRAD (x, y) of the gradient of said pixel x, y.
  • the calibration method may for example comprise a step in which a sigmoid function, whose parameters have been determined empirically, is applied to the first pseudo-image SH, as described for example in the document "Platt, J. ( 1999). Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods. Advances in large margin classifiers ", 10 (3), pages 61-74.
  • a second pseudo-image PI is obtained, in which the value of each pixel corresponds to the probability of importance p (x, y) associated with the pixel whose coordinates correspond in the IFILT filtered image or in the image IREQ.
  • a fourth step S140 for each pixel x, y of the IFILT filtered image or of the IREQ image, an orientation OG (x, y) of gradients relative to the luminance level is determined.
  • the orientation OG (x, y) of gradients is densely determined, i.e. using the information of all x, y pixels of said image. For example, to determine the orientation OG (x, y) of the pixel x, y, we calculate:
  • the orientation OG (x, y) of the pixel x, y is then obtained by forming a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response.
  • the argument of the vector thus formed is thus estimated for an interval [0; 2 ⁇ ].
  • a third pseudo-image OG is obtained, in which the value of each pixel corresponds to the orientation OG (x, y) of gradients associated with the pixel whose coordinates correspond in the image. filtered IFILT or in the image IREQ.
  • the estimation of the overall distribution of the gradients OG (x, y) is, for example, a discrete histogram H, comprising a plurality of classes relating to different ranges of possible values for the orientations of the gradients OG (x, y).
  • the histogram H is constructed by determining:
  • the contribution C (x, y) of each pixel x, y can be chosen constant, for example equal to 1.
  • the contribution C (x, y) of each pixel x, y may be a function of the probability of importance p (x, y) associated with said pixel.
  • the main orientation O is determined as a function of the estimation of the global distribution of the gradient orientations, the pixels x, y of the IFILT filtered image or the IREQ image.
  • the main orientation O can be determined by identifying, in the histogram H, the class whose height is maximum.
  • the second method is particularly adapted to allow the determination of an estimate relating to the main orientation O of the texture, as a function of the luminance information included in an image of said texture, in the production and / or control process. a piece of material composites.
  • the second method is adapted to determine the main orientation error E in the texture as a function of the luminance information included in an IREQ image of said texture, and according to the luminance information included in a reference image IREF.
  • the second method also makes it possible to determine a quality index Q of the estimate of the error E, relating to a degree of confidence or reliability of the estimate of the error E, and a conformity estimate CF.
  • the term "gradient" refers to the spatial derivative of the luminance information included in the image of said texture. From an image of the textured surface of said piece, and an image of a textured surface considered to be a reference to be reached in terms of principal orientation of the fibers of the part to be manufactured, it is then possible to determine an estimate of the error E and undertake the corrective steps that may then be necessary during the step 40a.
  • the image IREQ. of the texture comprises at least luminance information.
  • the image IREQ. may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated with at least one value l (x, y) corresponding to a luminance level.
  • the image IREQ can thus be a so-called gray level image, each gray value corresponding to a luminance level.
  • the reference image IREF is an image of a textured surface considered to be a reference to which the IREQ image should be compared in terms of principal orientation of the fibers.
  • the reference image IREF comprises at least luminance information.
  • the reference image IREF may be a digital image, generally referred to as a luminance image, in which at each pixel x, y is associated with at least one value l (x, y) corresponding to a luminance level.
  • the reference image IREF can thus be a so-called gray level image, each gray value corresponding to a luminance level.
  • a filtered image I IF LT is determined, based on the luminance information I (x, y) of the IREQ image, by implementing a noise reduction method.
  • the filtered image I FI LT can be determined in particular, by reducing or eliminating the luminance information components l (x, y) of the IREQ image whose spatial frequency is greater than a cutoff frequency FC.
  • a spatial convolutional filter with a Gaussian core can be used for this purpose.
  • the filtered image I FI LT thus obtained comprises at least the filtered luminance information IFILT (x, y) of the image IREQ.
  • a IFILT-REQ reference filtered image is determined, based on the luminance information I (x, y) of the reference image IREF, by implementing a noise reduction method.
  • the filtered reference image IREF can be determined in particular by reducing or eliminating the luminance information components l (x, y) of the reference image IREF whose spatial frequency is greater than a cutoff frequency FC.
  • a spatial convolutional filter with a Gaussian core can be used for this purpose.
  • the filtered IFILT-REF reference image thus obtained comprises at least the filtered luminance information IFILT-REF (x, y) of the reference image IREF.
  • the second method comprises a second optional step S220 and an optional third step S230.
  • a Harris score is calculated, based on the luminance information l (x, y) or filtered luminance information IFILT (x, y).
  • the algorithm known as "Harris and Stephen” for calculating SH (x, y) is described in detail in Harris, C. & Stephens, M. (1988), "A Combined Corner and Edge Detector", in 'Proceedings of the 4th Alvey Vision Conference', pp. 147-151.
  • a first pseudo-image SH is obtained, in which the value of each pixel corresponds to the Harris score associated with the pixel whose coordinates correspond in the IFILT filtered image or in the image
  • the Harris score SH (x, y) of an x, y pixel of the IFILT filtered image or of the IREQ image is all the more important as the proximity of said pixel x, y is large in terms of luminance with a corner of the IFILT filtered image or the IREQ image.
  • the corners taken into account to determine the Harris score SH (x, y) of the pixel x, y may to be the corners corresponding to a break between gray levels in a single direction, the Harris SH score (x, y) of the pixel x, y, then being less than zero.
  • frank breaks in a single direction can be favored.
  • an estimate EGRAD (x, y) of the amplitude of the luminance gradient can be determined from luminance information l (x, y) or filtered luminance information IFILT (x, y).
  • a Harris SH-REF (x, y) score is calculated, at from luminance information IREF (x, y) or filtered luminance information IFILT-REF (x, y).
  • a first pseudo-reference image SH-REF is obtained, in which the value of each pixel corresponds to the Harris score associated with the pixel whose coordinates correspond in the filtered reference image. IFILT-REF or in the reference image IREF.
  • the Harris SH-REF score (x, y) of an x, y pixel of the IFILT-REF reference image or of the reference image IREF is all the more important as the proximity of said pixel x, y is large in terms of luminance with a corner of the IFILT-REF reference filtered image or the IREF reference image.
  • the corners taken into account to determine the Harris SH-REF score (x, y ) of the pixel x, y may be the corners corresponding to a break between gray levels in a single direction, the Harris score SH (x, y) of the pixel x, y, then being less than zero.
  • frank breaks in a single direction can be favored.
  • an estimate EGRAD-REF ( x, y) of the luminance gradient amplitude can be determined from the luminance information IREF (x, y) or the filtered luminance information IFILT-REF (x, y).
  • a probability of importance p (x, y) is determined, using the score of Harris SH (x, y) of said pixel x, y or the estimate EGRAD (x, y) of the gradient amplitude of said pixel x, y.
  • a calibration method can be implemented to obtain the probability of importance p (x, y), for each pixel x, y of the filtered image I FI LT or of the image IREQ., From Harris score SH (x, y) of said pixel or EGRAD estimate (x, y) of the gradient amplitude of said pixel x, y.
  • the calibration method may for example comprise a step in which a sigmoid function, whose parameters have been determined empirically, is applied to the first pseudo-image SH.
  • a second pseudo-image PI is obtained, in which the value of each pixel corresponds to the probability of importance p (x, y) associated with the pixel whose coordinates correspond in the filtered image IFILT or in the image IREQ.
  • a probability of importance pREF is determined, using Harris SH-REF (x, y) score of said pixel x, y or EGRAD-REF estimate (x, y) of the gradient amplitude of said pixel x, y.
  • a calibration method can be implemented to obtain the probability of importance pREF (x, y), for each pixel x, y of the IFILT-REF reference filtered image or of the reference image IREF from the Harris SH-REF (x, y) score of said pixel or from the EGRAD-REF (x, y) estimate of the gradient amplitude of said pixel x, y.
  • the calibration method may for example comprise a step in which a sigmoid function, the parameters of which have been determined empirically, is applied to the first pseudo-image SH-REF.
  • a second pseudo-image PI-REF is obtained, in which the value of each pixel corresponds to the probability of importance pREF (x, y) associated with the pixel whose coordinates correspond in the filtered image reference IFILT-REF or in the reference image IREF.
  • a fourth step S240 for each pixel x, y of the IFILT filtered image or the IREQ image, an orientation OG (x, y) of gradients relative to the luminance level is determined.
  • the orientation OG (x, y) of gradients is densely determined, i.e. using the information of all x, y pixels of said image. For example, to determine the orientation OG (x, y) of the pixel x, y, we calculate:
  • the orientation OG (x, y) of the pixel x, y is then obtained by forming a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response.
  • the argument of the vector thus formed is thus estimated for an interval [0; 2 ⁇ ].
  • a third pseudo-image OG is obtained, in which the value of each pixel corresponds to the orientation OG (x, y) of gradients associated with the pixel whose coordinates correspond in the image. filtered IFILT or in the image IREQ ..
  • an orientation OG-REF (x, y) of gradients relative to the luminance level is determined.
  • the orientation OG-REF (x, y) of gradients is determined densely, that is to say using the information of all pixels x, y of said image. For example, to determine the orientation OG-REF (x, y) of the pixel x, y, we calculate:
  • the orientation OG-REF (x, y) of the pixel x, y is then obtained by forming a vector whose horizontal component corresponds to the first response and the vertical component corresponds to the second response.
  • the argument of the vector thus formed is thus estimated for an interval [0; 2 ⁇ ].
  • a third pseudo-image OG-REF is obtained, in which the value of each pixel corresponds to the orientation OG-REF (x, y) of gradients associated with the pixel whose coordinates correspond to in the IFILT-REF reference filtered image or in the IREF reference image.
  • the estimation of the global distribution of the gradients OG (x, y) is, for example, a discrete histogram H, comprising a plurality of classes relating to different ranges of possible values for the orientations of the gradients OG (x, y).
  • the histogram H is constructed by determining:
  • the contribution C (x, y) of each pixel x, y can be chosen constant, for example equal to 1.
  • the contribution C (x, y) of each pixel x, y may be a function of the probability of importance p (x, y) associated with said pixel.
  • a reference estimate of the global distribution of the orientations of the gradients OG-REF (x, y) of the pixels x, y of the reference filtered image IFILT-REF or of the reference image IREF is determined.
  • the reference estimate of the global gradient distribution OG-REF (x, y) is, for example, a discrete HREF reference histogram comprising a plurality of classes relating to different ranges of possible values for the OG-REF gradient orientations ( x, y).
  • the reference histogram HREF is constructed by determining:
  • the contribution CREF (x, y) of each pixel x, y can be chosen constant, for example equal to 1.
  • the contribution CREF (x, y) of each pixel x, y may be a function of the probability of importance pREF (x, y) associated with said pixel.
  • a sixth step S260 the main orientation 0 is determined according to:
  • a maximum correlation between the histogram H and the reference histogram HREF can be sought.
  • the measurement of the correlation between the histogram H and the reference histogram HREF is, for example, determined as a function of the probabilistic distance of Bhattacharyya, described in particular in the document entitled Kailath, T., (1967), "The Divergence and Bhattacharyya". Distance Measures in Signal Selection ", IEEE Transactions on Communication Technology, Vol. 15, No. 1, 1967, p. 52-60.
  • the estimate of the error E is then equal to the offset angle for which a maximum correlation is observed.
  • the quality index Q. is then a function of the value of the Bhattacharyya distance associated with the estimate of the error E.
  • a conformity estimate CF based on a statistical distance between the histogram H and the reference histogram HREF is determined.
  • the conformity estimate CF is then obtained as a function of the probabilistic distance of Bhattacharyya between the histogram H and the reference histogram HREF, typically by subtracting 1 said probabilistic distance from Bhattacharyya.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Quality & Reliability (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

L'invention concerne un procédé de production et/ou de contrôle d'une pièce en matériaux composites formée à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale, comportant les étapes suivantes: -obtenir une première image représentant la texture du tissu; -déterminer une estimation relative à l'orientation principale de la texture, en: déterminant, pour chaque pixel de la première image, une orientation de gradients relatifs au niveau de luminance dudit pixel; déterminant une estimation d'une distribution globale des orientations de gradients des pixels de la première image; déterminant l'orientation principale en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image; -déterminer un écart entre l'estimation relative à l'orientation principale et une valeur de consigne; -produire la pièce en fonction de l'écart et/ou émettre un signal de contrôle fonction de l'écart.

Description

Moyens de production et/ou de contrôle d'une pièce en matériaux composites
La présente invention se rapporte au domaine de la production de pièces en matériaux composites, ainsi qu'aux processus de contrôle qualité desdites pièces. Plus particulièrement, l'invention a trait à la production et/ou aux contrôles de préformes, adaptées à être utilisées pour fabriquer des pièces en matériaux composites.
L'utilisation de pièces réalisées en matériaux composites ne cesse d'augmenter, en particulier dans le domaine du transport, en raison notamment des gains potentiels en matière de masse, de résistance, de rigidité ou encore de durée de vie. Par exemple, les matériaux composites sont largement utilisés à la fois dans les structures secondaires et primaires des avions civils et militaires, mais encore pour la réalisation de nombreux éléments dans les véhicules automobiles ou encore dans les matériels ferroviaires.
Parmi les procédés connus de fabrication de pièces réalisées en matériaux composites, le procédé de fabrication comprenant une étape de drapage suivie d'une étape de cuisson dans un autoclave, un four ou une presse est largement répandu. Un tel processus requiert souvent l'utilisation d'une préforme—ensemble de tissus compactés. Pour fabriquer une préforme, il est connu de découper, positionner et former des couches de tissu, en procédant manuellement et de manière non automatisée. Un opérateur en particulier doit s'assurer de la bonne orientation principale des diverses couches de tissus, les unes relativement aux autres.
Aussi, une telle approche présente le défaut d'une faible répétabilité lors de la production d'une série de préformes complexes, chaque intervention manuelle étant sujette à divers erreurs ou défauts. En outre, la productivité d'un tel procédé est limitée par les contrôles nécessaires et par la difficulté de mise en œuvre desdites étapes. Il est donc généralement souhaitable d'automatiser l'étape de production de préformes complexes. Il est entendu que le choix d'automatisation est conditionné par d'autres critères également notamment par le nombre de pièces à produire (rentabilité du procédé), par la forme de la pièce, etc.
Or, pour permettre l'automatisation d'un tel processus, par exemple en déployant des robots pour fabriquer des préformes, il est nécessaire de pouvoir déterminer et/ou contrôler l'orientation principale des couches de tissus utilisés, chaque couche présentant une texture directionnelle. Une texture est qualifiée de directionnelle lorsque des structures élémentaires identifiables dans ladite texture sont arrangées sensiblement selon une orientation principale. Divers procédés d'analyse d'images sont connus pour déterminer l'orientation principale d'une texture. Le document Da-Costa, J.P. «Analyse statistique de textures directionnelles, application à la caractérisation de matériaux composites», Thèse de l'Université de Bordeaux 1, soutenue le 21 décembre 2001, décrit un tel procédé. Cependant, pour déterminer l'orientation principale d'une texture, les procédés connus analysent l'image de la texture de manière dense, c'est-à-dire en utilisant de manière identique tout pixel ou tout point de ladite image. Il en découle une importante sensibilité au bruit présent dans l'image, ce qui affecte négativement la fiabilité et la précision de la détermination de l'orientation principale.
II existe donc encore un besoin pour des moyens aptes à permettre la production automatisée de pièces en matériaux composites, notamment des préformes, économiquement efficace, et garantissant une qualité, une répétabilité et une précision améliorée par rapport aux procédés manuels.
Un des objets de l'invention est de fournir des moyens aptes à permettre la production automatisée de pièces en matériaux composites. Un autre objet de l'invention est de fournir des moyens aptes à permettre la détermination de l'orientation principale d'une texture, peu sensibles au bruit présent dans l'image représentant la texture. Un autre objet de l'invention est de proposer un procédé pour déterminer une estimation de l'orientation principale d'une texture particulièrement robuste, de très bonne qualité même en présence d'un bruit important dans l'image représentant la texture. Un autre objet de l'invention est de proposer un procédé pour déterminer une erreur d'orientation principale d'une texture par rapport à une orientation principale de référence, particulièrement robuste, de très bonne qualité même en présence d'un bruit important dans l'image représentant la texture.
Un ou plusieurs de ces objets sont remplis par le procédé pour déterminer une estimation relative à une orientation principale d'une texture. Les revendications dépendantes fournissent en outre des solutions à ces objets et/ou d'autres avantages.
Plus particulièrement, selon un premier aspect, l'invention se rapporte à un procédé de production et/ou de contrôle d'une pièce en matériaux composites formée à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale. Le procédé comporte les étapes suivantes :
- obtenir une première image formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, représentant la texture du tissu ; - déterminer une estimation relative à l'orientation principale de la texture,:
lors d'une première étape, en déterminant, pour chaque pixel de la première image, une orientation de gradients relatifs au niveau de luminance dudit pixel ;
lors d'une deuxième étape, en déterminant une estimation d'une distribution globale des orientations de gradients des pixels de la première image ;
lors d'une troisième étape, en déterminant l'orientation principale en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image ;
- déterminer un écart entre l'estimation relative à l'orientation principale et une valeur de consigne ;
- produire la pièce en fonction de l'écart et/ou émettre un signal de contrôle fonction de l'écart.
Typiquement, la pièce en matériaux composites est par exemple composée d'une pluralité de tissus superposés de telle sorte que l'orientation principale de chaque tissu respecte une séquence prédéterminée. La pièce peut être en particulier une préforme adaptée à être utilisée pour fabriquer des pièces en matériaux composites, notamment par la mise en œuvre d'un processus comprenant une étape de drapage suivi d'une étape de cuisson dans un autoclave, un four ou une presse. Le procédé est notamment adapté à être mis en œuvre par des dispositifs automatisés, comme des robots pourvus de moyens de calculs et d'un dispositif de prises d'image, adapté à disposer les tissus relativement les uns par rapport aux autres selon de sorte que l'orientation principale de chaque tissu respecte sensiblement une séquence prédéterminée.
La valeur de consigne est par exemple obtenue à partir d'une valeur prédéfinie ou calculée en fonction par exemple de l'orientation d'au moins un des autres tissus formant la pièce. Alternativement, la valeur de consigne peut être une plage de valeurs acceptables.
Au cours de l'étape de production de la pièce, la position du tissu peut être modifiée de sorte à réduire l'écart à une valeur inférieure à un seuil prédéfini. À cette fin, les étapes précédentes peuvent être également répétées aussi souvent que nécessaire.
Au cours de l'étape d'émission du signal de contrôle en fonction de l'écart 40b, le signal de contrôle peut être généré de sorte à permettre le signalement, à un opérateur-contrôleur ou à un dispositif de contrôle de qualité, d'un défaut potentiel d'orientation du tissu, lorsque l'écart est supérieur à une valeur de tolérance supérieure à un seuil prédéfini.
Au cours de la première étape, pour chaque pixel de la première image, l'orientation de gradients relatifs au niveau de luminance dudit pixel peut être obtenue en :
• déterminant une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ;
• une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction ;
• calculant l'argument d'un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse.
Au cours de la deuxième étape, l'estimation de la distribution globale des orientations de gradients des pixels de la première image peut être déterminée en construisant un histogramme discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de la première image. L'histogramme est par exemple construit en déterminant :
· pour chaque pixel de la première image, une contribution ; et,
• pour chaque classe, une hauteur égale à la somme des contributions de tous les pixels de la première image dont l'orientation est comprise dans ladite classe.
Au cours de la troisième étape, l'orientation principale peut être déterminée en identifiant, dans l'histogramme, la classe dont la hauteur est maximale. Préalablement à la première étape, le procédé peut comporter :
• une étape, au cours de laquelle, pour chaque pixel de la première image, un score relatif à l'appartenance dudit pixel à un contour de luminance est déterminé;
• une étape, au cours de laquelle, pour chaque pixel de la première image, une probabilité d'importance est déterminée, à l'aide du score dudit pixel ;
et dans lequel, au cours de la deuxième étape, la contribution de chaque pixel est déterminée en fonction de la probabilité d'importance associée audit pixel. Pour chaque pixel de la première image, le score est par exemple un score de Harris calculé, à partir des niveaux de luminance des pixels de la première image. Ainsi, la présence de bruit - par exemple « poivre et sel » - est filtrée par l'utilisation du score de Harris et de la probabilité d'importance. Avantageusement, les coins de la première image utilisés pour calculer le score de chaque pixel de la première image peuvent correspondre à une rupture entre des niveaux de luminance de la première image dans une unique direction. Pour chaque pixel de la première image, le score est par exemple une estimation de l'amplitude du gradient de luminance, à partir des niveaux de luminance des pixels de la première image. Pour chaque pixel de la première image, la probabilité d'importance peut être déterminée à l'aide d'une fonction sigmoïde et du score dudit pixel.
Préalablement à la troisième étape, le procédé peut comporter une étape au cours de laquelle le niveau de luminance de chaque pixel de la première image est filtré de sorte à réduire le bruit présent dans les informations de luminance de la première image.
Dans un mode de réalisation,
• au cours de la première étape, pour chaque pixel d'une image de référence d'une surface texturée, ladite image de référence étant formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, une orientation de gradients relatifs au niveau de luminance dudit pixel est déterminée ;
• au cours de la deuxième étape, une estimation de référence d'une distribution globale des orientations de gradients des pixels de l'image de référence est déterminée ;
• au cours de la troisième étape, une erreur de l'orientation principale est déterminée en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image et en fonction de l'estimation de référence de la distribution globale des orientations de gradients des pixels de la première image. L'écart entre l'estimation relative à N'orientation principale et la valeur de consigne est déterminé en fonction de l'erreur de l'orientation principale. En particulier, la valeur de consigne peut être choisie en fonction de l'estimation de référence de la distribution globale des orientations de gradients des pixels de l'image de référence.
Au cours de la deuxième étape, l'estimation de référence de la distribution globale des orientations de gradients des pixels de l'image de référence peut être déterminée en construisant un histogramme de référence discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de l'image de référence, et dans lequel au cours de la troisième étape, l'erreur de l'orientation principale est déterminée en fonction d'un maximum de corrélation entre l'histogramme et l'histogramme de référence. Au cours de la troisième étape, le maximum de corrélation entre l'histogramme et l'histogramme de référence peut être déterminé en calculant une mesure de la corrélation entre l'histogramme et l'histogramme de référence pour une pluralité de décalages de l'histogramme par rapport à l'histogramme de référence selon un angle de décalage compris dans un intervalle déterminé. Au cours de la troisième étape, la mesure de la corrélation entre l'histogramme et l'histogramme de référence peut être déterminée en fonction d'une distance probabiliste de Bhattacharyya, un indice de qualité étant déterminé en fonction de la valeur de la distance probabiliste de Bhattacharyya et de l'erreur, et/ou une estimation de conformité fonction de la distance probabiliste de Bhattacharyya, au cours d'une quatrième étape.
D'autres particularités et avantages de la présente invention apparaîtront, dans la description ci-après de modes de réalisation, en référence aux dessins annexés, dans lesquels :
- la figure 1 est un synoptique des étapes d'un procédé pour déterminer une estimation de l'orientation principale d'une texture selon un mode de réalisation de l'invention ;
la figure 2 est un synoptique des étapes d'un procédé pour déterminer une erreur d'orientation principale d'une texture par rapport à une orientation principale de référence, selon un mode de réalisation de l'invention ;
la figure 3a est une reproduction d'une image d'une texture dont l'orientation principale est sensiblement égale à 5° dans le référentiel R ;
- la figure 3b est une reproduction d'une image de référence d'une texture dont l'orientation principale est sensiblement égale à 0° dans le référentiel R ;
la figure 4 est un synoptique des étapes d'un procédé de production et/ou de contrôle d'une pièce en matériaux composites, selon un mode de réalisation de l'invention.
En référence à la figure 4, un procédé de production et/ou de contrôle d'une pièce en matériaux composites va maintenant être décrit. La pièce en matériaux composites est produite à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale O. Typiquement, la pièce en matériaux composites est composée d'une pluralité de tissus superposés de telle sorte que l'orientation principale de chaque tissu respecte une séquence prédéterminée. La pièce peut être en particulier une préforme ada ptée à être utilisée pour fabriquer des pièces en matériaux composites, notamment par la mise en œuvre d'un processus comprenant une étape de drapage suivi d'une étape de cuisson dans un autoclave, un four ou une presse. Le procédé est notamment adapté à être mis en œuvre par des dispositifs automatisés, comme des robots pourvus de moyens de calculs et d'un dispositif de prises d'image, adapté à disposer les tissus relativement les uns par rapport aux autres selon de sorte que l'orientation principale de chaque tissu respecte sensiblement une séquence prédéterminée.
Dans la suite de la description, à des fins d'illustration, il est considéré le cas où l'on souhaite obtenir l'information d'orientation principale d'un tissu dans un référentiel donné de sorte à contrôler ou modifier le positionnement dudit tissu dans ce référentiel. Par exemple, cette situation peut être rencontrée lorsqu'un robot déplace un tissu d'un lieu de stockage vers une zone de fabrication de pièces en matériaux composites, et que ledit tissu doit être positionné selon une orientation principale déterminée. Cependant, au cours de la fabrication d'une pièce en matériaux composites, cette opération peut être répétée aussi souvent que nécessaire pour obtenir la pièce finale, typiquement au moins aussi souvent que le nombre de tissus formant la pièce finale. L'orientation de chacun des tissus peut être prédéterminée à partir d'une séquence enregistrée. L'orientation de chacun des tissus peut également être prédéterminée à partir de l'orientation d'au moins un des a utres tissus formant la pièce.
Le procédé comporte une étape 10 d'obtention d'une première image I REQ formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, représentant la texture du tissu. L'image I REQ de la texture comporte au moins des informations de luminance. Ainsi, l'image I REQ peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image I REQ. peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance.
Le procédé comporte une étape 20 de détermination d'une estimation relative à l'orientation principale O de la texture, en fonction des informations de luminance comprise dans une image de ladite texture.
Le procédé comporte une étape 30 de détermination d'un écart D entre l'orientation principale O et une valeur de consigne. La valeur de consigne est par exemple obtenue à partir d'une valeur prédéfinie ou calculée en fonction par exemple de l'orientation d'au moins un des autres tissus formant la pièce. Alternativement, la valeur de consigne peut être une plage de valeurs acceptables.
Le procédé comporte une étape 40a de production de la pièce en fonction de l'écart D et/ou une étape 40b d'émission d'un signal de contrôle en fonction de l'écart.
Au cours de l'étape 40a, la position du tissu peut être modifiée de sorte à réduire l'écart D à une valeur inférieure à un seuil prédéfini. À cette fin, les étapes 10 à 40 peuvent être également répétées aussi souvent que nécessaire.
Au cours de l'étape 40b, le signal de contrôle peut être généré de sorte à permettre le signalement, à un opérateur-contrôleur ou à un dispositif de contrôle de qualité, d'un défaut potentiel d'orientation du tissu, lorsque l'écart E est supérieur à une valeur de tolérance supérieure à un seuil prédéfini.
En référence à la figure 1 et à la figure 3a, un premier procédé pour déterminer une estimation de l'orientation principale d'une texture selon un mode de réalisation de l'invention, va maintenant être décrit. Le premier procédé est notamment adapté à permettre la détermination 20 d'une estimation relative à l'orientation principale O de la texture, en fonction des informations de luminance comprise dans une image de ladite texture, dans le procédé de production et/ou de contrôle d'une pièce en matériaux composites.
Le premier procédé vise à déterminer une orientation principale dans une texture en fonction des informations de luminance comprise dans une image de ladite texture. Plus particulièrement, le premier procédé vise à déterminer une orientation principale dans la texture en fonction d'une dérivée spatiale des informations de luminance comprise dans l'image de ladite texture. Dans la suite de la description, le terme « gradient » se réfère à la dérivée spatiale des informations de luminance comprise dans l'image de ladite texture.
Le premier procédé est adapté en particulier pour estimer, en temps réel, l'orientation principale O d'une texture, à partir d'une image IREQ de ladite texture, l'orientation principale O étant déterminée, pour un intervalle de mesures M relativement à un référentiel R de l'image IREQ.. Typiquement, l'intervalle de mesures M est [-5°.. 5°]. Le premier procédé permet en outre de calculer un indice de qualité Q de l'estimation de l'orientation principale O, relatif à un degré de confiance ou de fiabilité de l'estimation de l'orientation principale O.
L'image IREQ. de la texture comporte au moins des informations de luminance. Ainsi, l'image IREQ peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image IREQ peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance.
Dans une première étape optionnelle S110, une image filtrée I FI LT est déterminée, à partir des informations de luminance l(x,y) de l'image IREQ, en mettant en œuvre un procédé de réduction du bruit. L'image filtrée I FI LT peut être déterminée notamment, en réduisant ou supprimant les composantes relatives aux informations luminance l(x,y) de l'image IREQ. dont la fréquence spatiale est supérieure à une fréquence de coupure FC. Un filtre à convolution spatial dont le noyau est de type Gaussien, peut être utilisé à cette fin. À l'issue de la première étape optionnelle S110, l'image filtrée I FI LT ainsi obtenue comporte au moins les informations de luminance filtrées IFILT(x,y) de l'image IREQ.
Avantageusement, le premier procédé comporte une deuxième étape optionnelle S120 et une troisième étape optionnelle S130.
Au cours de la deuxième étape optionnelle S120, pour chaque pixel x,y de l'image filtrée I FI LT ou de l'image IREQ, un score SH relatif à l'appartenance dudit pixel à un contour de luminance est déterminé. En particulier, un score de Harris est calculé, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y). L'algorithme dit de « Harris et Stephen » permettant de calculer SH(x,y) est notamment décrit de manière détaillée dans le document Harris, C. & Stephens, M. (1988), « A Combined Corner and Edge Detector », in 'Proceedings of the 4th Alvey Vision Conférence' , pp. 147—151. À l'issue de la deuxième étape optionnelle S120, une première pseudo-image SH est obtenue, dans laquelle la valeur de chaque pixel correspond au score de Harris associé au pixel dont les coordonnées correspondent dans l'image filtrée I FI LT ou dans l'image IREQ. Le score de Harris SH(x,y) d'un pixel x,y de l'image filtrée I FI LT ou de l'image IREQ est d'autant plus important que la proximité dudit pixel x,y est grande en termes de luminance avec un coin de l'image filtrée I FI LT ou de l'image IREQ. Le terme "coin", aussi couramment désigné par le terme anglais "corner", se réfère à une zone d'une image où une discontinuité dans les informations de luminance est présente, typiquement lorsqu'un changement brusque du niveau de luminance est observé entre pixels adjacents.
Avantageusement, dans l'image filtrée I FI LT ou l'image IREQ, où chaque valeur de gris correspond à un niveau de luminance, les coins pris en compte pour déterminer le score de Harris SH(x,y) du pixel x,y, peuvent être les coins correspondant à une rupture entre des niveaux de gris dans une unique direction, le score de Harris SH(x,y) du pixel x,y, étant alors inférieur à zéro. Ainsi, les ruptures franches dans une unique direction peuvent être privilégiées.
Alternativement aux calculs d'un score de Harris, au cours de la deuxième étape optionnelle S120, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une estimation EGRAD(x,y) de l'amplitude du gradient de luminance peut être déterminée, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y). Une description d'une méthode pour déterminer Γ estimation EGRAD(x,y) est notamment détaillée dans le document I. Sobel and G. Feldman, intitulé « A 3x3 isotropic gradient operator for image processing », présenté lors de la conférence « Stanford Artificial Project », 1968.
Dans la troisième étape optionnelle S130, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ., une probabilité d'importance p(x,y) est déterminée, à l'aide du score de Harris SH(x,y) dudit pixel x,y ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y. Pour cela, un procédé de calibration peut être mis en œuvre pour obtenir la probabilité d'importance p(x,y), pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ., à partir du score de Harris SH(x,y) dudit pixel ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y.
Le procédé de calibration peut par exemple comporter une étape dans laquelle une fonction sigmoïde, dont les paramètres ont été déterminés de manière empirique, est appliquée à la première pseudo-image SH, tel que décrit par exemple dans le document « Platt, J. (1999). Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods. Advances in large margin classifiers », 10(3), pages 61-74. En sortie du procédé de calibration, une deuxième pseudo-image PI est obtenue, dans laquelle la valeur de chaque pixel correspond à la probabilité d'importance p(x,y) associé au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.
Dans une quatrième étape S140, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une orientation OG(x,y) de gradients relatifs au niveau de luminance est déterminée. L'orientation OG(x,y) de gradients est déterminée de manière dense, c'est-à-dire en utilisant les informations de tous les pixels x,y de ladite image. Par exemple, pour déterminer l'orientation OG(x,y) du pixel x,y, on calcule :
• une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ; • une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction.
L'orientation OG(x,y) du pixel x,y est alors obtenue en formant un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. L'argument du vecteur ainsi formé est estimé ainsi pour un intervalle [0 ; 2π]. À l'issue de la quatrième étape S140, une troisième pseudo-image OG est obtenue, dans laquelle la valeur de chaque pixel correspond à l'orientation OG(x,y) de gradients associés au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.
Dans une cinquième étape S150, une estimation de la distribution globale des orientations de gradients OG(x,y) des pixels x,y de l'image filtrée IFILT ou de l'image IREQ., est déterminée. L'estimation de la distribution globale des orientations des gradients OG(x,y) est par exemple un histogramme H discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients OG(x,y). L'histogramme H est construit en déterminant :
• pour chaque pixel x,y une contribution C(x,y) ; et,
• pour chaque classe, une hauteur égale à la somme des contributions C(x,y) de tous les pixels dont l'orientation OG(x,y) est comprise dans ladite classe.
La contribution C(x,y) de chaque pixel x,y peut être choisie constante, par exemple égal à 1.
Avantageusement, dans le cas où la deuxième pseudo-image PI est disponible, la contribution C(x,y) de chaque pixel x,y peut être fonction de la probabilité d'importance p(x,y) associé audit pixel.
Dans une sixième étape S160, l'orientation principale O est déterminée en fonction de l'estimation de la distribution globale des orientations de gradients, des pixels x,y de l'image filtrée IFILT ou de l'image IREQ.. En particulier, l'orientation principale O peut être déterminée en identifiant, dans l'histogramme H, la classe dont la hauteur est maximale.
En référence aux figures 2, 3a et 3b , un deuxième procédé pour déterminer une erreur E d'orientation principale d'une texture par rapport à une orientation principale de référence, selon un mode de réalisation de l'invention, va maintenant être décrit. Le deuxième procédé est notamment adapté à permettre la détermination 20 d'une estimation relative à l'orientation principale O de la texture, en fonction des informations de luminance comprise dans une image de ladite texture, dans le procédé de production et/ou de contrôle d'une pièce en matériaux composites. Le deuxième procédé est adapté pour déterminer l'erreur E d'orientation principale dans la texture en fonction des informations de luminance comprises dans une image IREQ de ladite texture, et en fonction des informations de luminance comprises dans une image de référence IREF. Le deuxième procédé permet également de déterminer un indice de qualité Q de l'estimation de l'erreur E, relatif à un degré de confiance ou de fiabilité de l'estimation de l'erreur E, ainsi qu'une estimation de conformité CF. Dans la suite de la description, le terme « gradient » se réfère à la dérivée spatiale des informations de luminance comprise dans l'image de ladite texture. A partir d'une image de la surface texturée de ladite pièce, et d'une image d'une surface texturée considérée comme étant une référence à atteindre en terme d'orientation principale des fibres de la pièce à fabriquer, il est alors possible de déterminer une estimation de l'erreur E et d'entreprendre les étapes correctives qui peuvent alors s'avérer nécessaires au cours de l'étape 40a.
L'image IREQ. de la texture comporte au moins des informations de luminance. Ainsi, l'image IREQ. peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image IREQ peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance.
L'image de référence IREF est une image d'une surface texturée considérée comme étant une référence à laquelle doit être comparée l'image IREQ en termes d'orientation principale des fibres. L'image de référence IREF comporte au moins des informations de luminance. Ainsi, l'image de référence IREF peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image de référence IREF peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance.
Dans une première étape optionnelle S210, une image filtrée I FI LT est déterminée, à partir des informations de luminance l(x,y) de l'image IREQ, en mettant en œuvre un procédé de réduction du bruit. L'image filtrée I FI LT peut être déterminée notamment, en réduisant ou supprimant les composantes relatives aux informations luminance l(x,y) de l'image IREQ dont la fréquence spatiale est supérieure à une fréquence de coupure FC. Un filtre à convolution spatial dont le noyau est de type Gaussien, peut être utilisé à cette fin. À l'issue de la première étape optionnelle S210, l'image filtrée I FI LT ainsi obtenue comporte au moins les informations de luminance filtrées IFILT(x,y) de l'image IREQ. Au cours de la première étape optionnelle S210, une image filtrée de référence IFILT-REQ est déterminée, à partir des informations de luminance l(x,y) de l'image de référence IREF, en mettant en œuvre un procédé de réduction du bruit. L'image filtrée de référence IREF peut être déterminée notamment, en réduisant ou supprimant les composantes relatives aux informations luminance l(x,y) de l'image de référence IREF dont la fréquence spatiale est supérieure à une fréquence de coupure FC. Un filtre à convolution spatial dont le noyau est de type Gaussien, peut être utilisé à cette fin. À l'issue de la première étape optionnelle S210, l'image filtrée de référence IFILT-REF ainsi obtenue comporte au moins les informations de luminance filtrées IFILT-REF(x,y) de l'image de référence IREF.
Avantageusement, le deuxième procédé comporte une deuxième étape optionnelle S220 et une troisième étape optionnelle S230.
Au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ., un score de Harris est calculé, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y). L'algorithme dit de « Harris et Stephen » permettant de calculer SH(x,y) est notamment décrit de manière détaillée dans le document Harris, C. & Stephens, M. (1988), « A Combined Corner and Edge Detector », in 'Proceedings of the 4th Alvey Vision Conférence' , pp. 147—151. À l'issue de la deuxième étape optionnelle S220, une première pseudo-image SH est obtenue, dans laquelle la valeur de chaque pixel correspond au score de Harris associé au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.. Le score de Harris SH(x,y) d'un pixel x,y de l'image filtrée IFILT ou de l'image IREQ est d'autant plus important que la proximité dudit pixel x,y est grande en termes de luminance avec un coin de l'image filtrée IFILT ou de l'image IREQ. Le terme "coin", aussi couramment désigné par le terme anglais "corner", se réfère à une zone d'une image où une discontinuité dans les informations de luminance est présente, typiquement lorsqu'un changement brusque du niveau de luminance est observé entre pixels adjacents.
Avantageusement, dans l'image filtrée IFILT ou l'image IREQ, où chaque valeur de gris correspond à un niveau de luminance, les coins pris en compte pour déterminer le score de Harris SH(x,y) du pixel x,y, peuvent être les coins correspondant à une rupture entre des niveaux de gris dans une unique direction, le score de Harris SH(x,y) du pixel x,y, étant alors inférieur à zéro. Ainsi, les ruptures franches dans une unique direction peuvent être privilégiées.
Alternativement aux calculs d'un score de Harris, au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une estimation EGRAD(x,y) de l'amplitude du gradient de luminance peut être déterminée, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y).
Au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, un score de Harris SH-REF(x,y) est calculé, à partir des informations de luminance IREF(x,y) ou des informations de luminance filtrées IFILT-REF(x,y). À l'issue de la deuxième étape optionnelle S220, une première pseudo-image de référence SH-REF est obtenue, dans laquelle la valeur de chaque pixel correspond au score de Harris associé au pixel dont les coordonnées correspondent dans l'image filtrée de référence IFILT-REF ou dans l'image de référence IREF. Le score de Harris SH-REF(x,y) d'un pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF est d'autant plus important que la proximité dudit pixel x,y est grande en termes de luminance avec un coin de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF.
Avantageusement, dans l'image filtrée de référence IFILT-REF ou l'image de référence IREF, où chaque valeur de gris correspond à un niveau de luminance, les coins pris en compte pour déterminer le score de Harris SH-REF(x,y) du pixel x,y, peuvent être les coins correspondant à une rupture entre des niveaux de gris dans une unique direction, le score de Harris SH(x,y) du pixel x,y, étant alors inférieur à zéro. Ainsi, les ruptures franches dans une unique direction peuvent être privilégiées.
Alternativement aux calculs d'un score de Harris, au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, une estimation EGRAD-REF(x,y) de l'amplitude du gradient de luminance peut être déterminée, à partir des informations de luminance IREF(x,y) ou des informations de luminance filtrées IFILT-REF(x,y).
Dans la troisième étape optionnelle S230, pour chaque pixel x,y de l'image filtrée I FI LT ou de l'image IREQ., une probabilité d'importance p(x,y) est déterminée, à l'aide du score de Harris SH(x,y) dudit pixel x,y ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y. Pour cela, un procédé de calibration peut être mis en œuvre pour obtenir la probabilité d'importance p(x,y), pour chaque pixel x,y de l'image filtrée I FI LT ou de l'image IREQ., à partir du score de Harris SH(x,y) dudit pixel ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y.
Le procédé de calibration peut par exemple comporter une étape dans laquelle une fonction sigmoïde, dont les paramètres ont été déterminés de manière empirique, est appliquée à la première pseudo-image SH. En sortie du procédé de calibration, une deuxième pseudo-image PI est obtenue, dans laquelle la valeur de chaque pixel correspond à la probabilité d'importance p(x,y) associé au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.
Dans la troisième étape optionnelle S230, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, une probabilité d'importance pREF(x,y) est déterminée, à l'aide du score de Harris SH-REF(x,y) dudit pixel x,y ou de l'estimation EGRAD-REF(x,y) de l'amplitude du gradient dudit pixel x,y. Pour cela, un procédé de calibration peut être mis en œuvre pour obtenir la probabilité d'importance pREF(x,y), pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, à partir du score de Harris SH- REF(x,y) dudit pixel ou de l'estimation EGRAD-REF(x,y) de l'amplitude du gradient dudit pixel x,y.
Le procédé de calibration peut par exemple comporter une étape dans laquelle une fonction sigmoïde, dont les paramètres ont été déterminés de manière empirique, est appliquée à la première pseudo-image SH-REF. En sortie du procédé de calibration, une deuxième pseudo-image PI-REF est obtenue, dans laquelle la valeur de chaque pixel correspond à la probabilité d'importance pREF(x,y) associé au pixel dont les coordonnées correspondent dans l'image filtrée de référence IFILT-REF ou dans l'image de référence IREF.
Dans une quatrième étape S240, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ., une orientation OG(x,y) de gradients relatifs au niveau de luminance est déterminée. L'orientation OG(x,y) de gradients est déterminée de manière dense, c'est-à-dire en utilisant les informations de tous les pixels x,y de ladite image. Par exemple, pour déterminer l'orientation OG(x,y) du pixel x,y, on calcule :
• une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ;
• une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction.
L'orientation OG(x,y) du pixel x,y est alors obtenue en formant un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. L'argument du vecteur ainsi formé est estimé ainsi pour un intervalle [0 ; 2π]. À l'issue de la quatrième étape S240, une troisième pseudo-image OG est obtenue, dans laquelle la valeur de chaque pixel correspond à l'orientation OG(x,y) de gradients associés au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.. Au cours de la quatrième étape S240, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, une orientation OG- REF(x,y) de gradients relatifs au niveau de luminance est déterminée. L'orientation OG-REF(x,y) de gradients est déterminée de manière dense, c'est-à-dire en utilisant les informations de tous les pixels x,y de ladite image. Par exemple, pour déterminer l'orientation OG-REF(x,y) du pixel x,y, on calcule :
• une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ;
• une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction.
L'orientation OG-REF(x,y) du pixel x,y est alors obtenue en formant un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. L'argument du vecteur ainsi formé est estimé ainsi pour un intervalle [0 ; 2π]. À l'issue de la quatrième étape S240, une troisième pseudo-image OG-REF est obtenue, dans laquelle la valeur de chaque pixel correspond à l'orientation OG-REF(x,y) de gradients associés au pixel dont les coordonnées correspondent dans l'image filtrée de référence IFILT-REF ou dans l'image de référence IREF.
Dans une cinquième étape S250, une estimation de la distribution globale des orientations des gradients OG(x,y) des pixels x,y de l'image filtrée IFILT ou de l'image IREQ., est déterminée. L'estimation de la distribution globale des gradients OG(x,y) est par exemple un histogramme H discret, comportant une pluralité de classes relatives à différentes plages de valeurs possible pour les orientations des gradients OG(x,y). L'histogramme H est construit en déterminant :
• pour chaque pixel x,y une contribution C(x,y) ; et,
• pour chaque classe, une hauteur égale à la somme des contributions C(x,y) de tous les pixels dont l'orientation OG(x,y) est comprise dans ladite classe.
La contribution C(x,y) de chaque pixel x,y peut être choisie constante, par exemple égal à 1.
Avantageusement, dans le cas où la deuxième pseudo-image PI est disponible, la contribution C(x,y) de chaque pixel x,y peut être fonction de la probabilité d'importance p(x,y) associé audit pixel.
Au cours de la cinquième étape S250, une estimation de référence de la distribution globale des orientations des gradients OG-REF(x,y) des pixels x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, est déterminée. L'estimation de référence de la distribution globale des gradients OG-REF(x,y) est par exemple un histogramme de référence HREF discret, comportant une pluralité de classes relatives à différentes plages de valeurs possible pour les orientations des gradients OG-REF(x,y). L'histogramme de référence HREF est construit en déterminant:
• pour chaque pixel x,y une contribution CREF(x,y) ; et,
• pour chaque classe, une hauteur égale à la somme des contributions CREF(x,y) de tous les pixels dont l'orientation OG-REF(x,y) est comprise dans ladite classe.
La contribution CREF(x,y) de chaque pixel x,y peut être choisie constante, par exemple égal à 1.
Avantageusement, dans le cas où la deuxième pseudo-image PI-REF est disponible, la contribution CREF(x,y) de chaque pixel x,y peut être fonction de la probabilité d'importance pREF(x,y) associé audit pixel.
Dans une sixième étape S260, l'orientation principale 0 est déterminée en fonction :
• de l'estimation de la distribution globale des orientations de gradients, des pixels x,y de l'image filtrée I FI LT ou de l'image IREQ.; et,
• de estimation de référence de la distribution globale des orientations des gradients OG-REF(x,y) des pixels x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF.
En particulier, un maximum de corrélation entre l'histogramme H et l'histogramme de référence HREF peut être recherché. Ainsi, il est par exemple possible d'évaluer une mesure de la corrélation entre l'histogramme H et l'histogramme de référence HREF, en faisant varier le décalage de l'histogramme H par rapport à l'histogramme de référence HREF selon un angle de décalage évoluant par pas de 0.1° entre -10° et 10°. La mesure de la corrélation entre l'histogramme H et l'histogramme de référence HREF est par exemple déterminée en fonction de la distance probabiliste de Bhattacharyya, décrit notamment dans le document intitulé Kailath, T., (1967), « The Divergence and Bhattacharyya Distance Measures in Signal Sélection », IEEE Transactions on Communication Technology, vol. 15, no 1, 1967, p. 52-60. L'estimation de l'erreur E est alors égale à l'angle de décalage pour lequel un maximum de corrélation est observé. L'indice de qualité Q. est alors fonction de la valeur de la distance de Bhattacharyya associé à l'estimation de l'erreur E.
Dans une septième étape S270, une estimation de conformité CF fonction d'une distance statistique entre l'histogramme H et l'histogramme de référence HREF est déterminée. Ainsi, il est par exemple possible de déterminer la distance probabiliste de Bhattacharyya entre l'histogramme H et l'histogramme de référence HREF. L'estimation de conformité CF est alors obtenue en fonction de la distance probabiliste de Bhattacharyya entre l'histogramme H et l'histogramme de référence HREF, typiquement en soustrayant à 1 ladite distance probabiliste de Bhattacharyya.

Claims

REVENDICATIONS
1. Procédé de production et/ou de contrôle d'une pièce en matériaux composites formée à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale (0), caractérisé en ce qu'il comporte les étapes suivantes :
obtenir (10) une première image (IREQ.) formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, représentant la texture du tissu ;
- déterminer (20) une estimation relative à l'orientation principale (O) de la texture, :
• lors d'une première étape (S140 ; S240), en déterminant, pour chaque pixel de la première image, une orientation (OG (x, y)) de gradients relatifs au niveau de luminance dudit pixel ;
• lors d'une deuxième étape (S150 ; S250), en déterminant une estimation d'une distribution globale des orientations de gradients des pixels de la première image ;
· lors d'une troisième étape (S160 ; S260), en déterminant l'orientation principale en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image ;
déterminer (30) un écart (D) entre l'estimation relative à l'orientation principale (O) et une valeur de consigne ;
produire (40a) la pièce en fonction de l'écart et/ou émettre (40b) un signal de contrôle fonction de l'écart.
2. Procédé selon la revendication 1, dans lequel, au cours de la première étape (S140 ; S240), pour chaque pixel de la première image, l'orientation (OG (x, y)) de gradients relatifs au niveau de luminance dudit pixel est obtenu en :
• déterminant une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ;
• une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction ; • calculant l'argument d'un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse.
3. Procédé selon l'une quelconque des revendications 1 à 2, dans lequel au cours de la deuxième étape (S150 ; S250), l'estimation de la distribution globale des orientations de gradients des pixels de la première image est déterminée en construisant un histogramme (H) discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de la première image.
4. Procédé selon la revendication 3, dans lequel l'histogramme (H) est construit en déterminant :
• pour chaque pixel de la première image, une contribution ; et,
· pour chaque classe, une hauteur égale à la somme des contributions de tous les pixels de la première image dont l'orientation est comprise dans ladite classe.
5. Procédé selon la revendication 4, dans lequel, au cours de la troisième étape, l'orientation principale est déterminée en identifiant, dans l'histogramme, la classe dont la hauteur est maximale.
6. Procédé selon l'une quelconque des revendications 4 ou 5, comportant en outre, préalablement à la première étape :
• une étape (120), au cours de laquelle, pour chaque pixel de la première image, un score (SH) relatif à l'appartenance dudit pixel à un contour de luminance est déterminé ;
• une étape (S130), au cours de laquelle, pour chaque pixel de la première image, une probabilité d'importance (p (x, y)) est déterminée, à l'aide du score dudit pixel ;
et dans lequel, au cours de la deuxième étape, la contribution de chaque pixel est déterminée en fonction de la probabilité d'importance associée audit pixel.
7. Procédé selon la revendication 6, dans lequel, pour chaque pixel de la première image, le score est un score de Harris calculé, à partir des niveaux de luminance des pixels de la première image.
8. Procédé selon la revendication 7, dans lequel les coins de la première image utilisés pour calculer le score de chaque pixel de la première image correspondent à une rupture entre des niveaux de luminance de la première image dans une unique direction.
9. Procédé selon la revendication 6, dans lequel, pour chaque pixel de la première image, le score est une estimation de l'amplitude du gradient de luminance, à partir des niveaux de luminance des pixels de la première image.
10. Procédé selon l'une quelconque des revendications 6 à 9, dans lequel, pour chaque pixel de la première image, la probabilité d'importance est déterminée à l'aide d'une fonction sigmoïde et du score dudit pixel.
11. Procédé selon l'une quelconque des revendications 1 à 10, comportant en outre, préalablement à la troisième étape, une étape (S110 ; S210), au cours de laquelle le niveau de luminance de chaque pixel de la première image est filtré de sorte à réduire le bruit présent dans les informations de luminance de la première image.
12. Procédé selon l'une quelconque des revendications 1 à 11, dans lequel :
• au cours de la première étape (S240), pour chaque pixel d'une image de référence (IREF) d'une surface texturée, ladite image de référence étant formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, une orientation (OG-REF (x, y)) de gradients relatifs au niveau de luminance dudit pixel est déterminée ;
• au cours de la deuxième étape (S250), une estimation de référence d'une distribution globale des orientations de gradients des pixels de l'image de référence est déterminée ;
· au cours de la troisième étape (S260), une erreur (E) de l'orientation principale est déterminée en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image et en fonction de l'estimation de référence de la distribution globale des orientations de gradients des pixels de la première image ; et dans lequel l'écart entre l'estimation relative à l'orientation principale (0) et la valeur de consigne est déterminée en fonction de l'erreur (E) de l'orientation principale.
13. Procédé selon la revendication 3 et la revendication 12, dans lequel, au cours de la deuxième étape (S250), l'estimation de référence de la distribution globale des orientations de gradients des pixels de l'image de référence est déterminée en construisant un histogramme de référence (HREF) discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de l'image de référence, et dans lequel au cours de la troisième étape (S260), l'erreur (E) de l'orientation principale est déterminée en fonction d'un maximum de corrélation entre l'histogramme (H) et l'histogramme de référence (HREF).
14. Procédé selon la revendication 13, dans lequel, au cours de la troisième étape (S260), le maximum de corrélation entre l'histogramme (H) et l'histogramme de référence (HREF) est déterminé en calculant une mesure de la corrélation entre l'histogramme (H) et l'histogramme de référence (HREF) pour une pluralité de décalages de l'histogramme (H) par rapport à l'histogramme de référence (HREF) selon un angle de décalage compris dans un intervalle déterminé.
15. Procédé selon la revendication 14, dans lequel, au cours de la troisième étape, la mesure de la corrélation entre l'histogramme (H) et l'histogramme de référence (HREF) est déterminée en fonction d'une distance probabiliste de Bhattacharyya, un indice de qualité (Q.) étant déterminé en fonction de la valeur de la distance probabiliste de Bhattacharyya et de l'erreur (E), et/ou une estimation de conformité (CF) fonction de la distance probabiliste de Bhattacharyya, au cours d'une quatrième étape (S270).
PCT/FR2016/053435 2016-12-14 2016-12-14 Moyens de production et/ou de contrôle d'une pièce en matériaux composites WO2018109286A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/462,986 US20200027224A1 (en) 2016-12-14 2016-12-14 Means for producing and/or checking a part made of composite materials
CN201680091627.XA CN110088800A (zh) 2016-12-14 2016-12-14 生产和/或控制由复合材料制成的零件的方法
EP16829103.7A EP3555845A1 (fr) 2016-12-14 2016-12-14 Moyens de production et/ou de contrôle d'une pièce en matériaux composites
PCT/FR2016/053435 WO2018109286A1 (fr) 2016-12-14 2016-12-14 Moyens de production et/ou de contrôle d'une pièce en matériaux composites

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/FR2016/053435 WO2018109286A1 (fr) 2016-12-14 2016-12-14 Moyens de production et/ou de contrôle d'une pièce en matériaux composites

Publications (1)

Publication Number Publication Date
WO2018109286A1 true WO2018109286A1 (fr) 2018-06-21

Family

ID=57861177

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2016/053435 WO2018109286A1 (fr) 2016-12-14 2016-12-14 Moyens de production et/ou de contrôle d'une pièce en matériaux composites

Country Status (4)

Country Link
US (1) US20200027224A1 (fr)
EP (1) EP3555845A1 (fr)
CN (1) CN110088800A (fr)
WO (1) WO2018109286A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120126803A1 (en) * 2010-11-16 2012-05-24 Jentek Sensors, Inc. Method and apparatus for non-destructive evaluation of materials
WO2013156124A1 (fr) * 2012-04-20 2013-10-24 Jedo Technologies Procede et systeme d'usinage pli a pli d'une piece en materiau composite par apport d'energie
WO2014060747A1 (fr) * 2012-10-18 2014-04-24 Airbus Operations Limited Optimisation d'orientation de fibre
EP2896496A1 (fr) * 2014-01-17 2015-07-22 The Boeing Company Procédé et système permettant de déterminer et de vérifier l'orientation d'un stratifié composite

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10198804B2 (en) * 2015-04-15 2019-02-05 Halliburton Energy Services, Inc. Method for determining fabric and upscaled properties of geological sample
FR3044767B1 (fr) * 2015-12-08 2017-12-01 Techni-Modul Eng Moyens de production et/ou de controle d’une piece en materiaux composites

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120126803A1 (en) * 2010-11-16 2012-05-24 Jentek Sensors, Inc. Method and apparatus for non-destructive evaluation of materials
WO2013156124A1 (fr) * 2012-04-20 2013-10-24 Jedo Technologies Procede et systeme d'usinage pli a pli d'une piece en materiau composite par apport d'energie
WO2014060747A1 (fr) * 2012-10-18 2014-04-24 Airbus Operations Limited Optimisation d'orientation de fibre
EP2896496A1 (fr) * 2014-01-17 2015-07-22 The Boeing Company Procédé et système permettant de déterminer et de vérifier l'orientation d'un stratifié composite

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MOKHTARI MARYAM ET AL: "Texture classification using dominant gradient descriptor", 2013 8TH IRANIAN CONFERENCE ON MACHINE VISION AND IMAGE PROCESSING (MVIP), IEEE, 10 September 2013 (2013-09-10), pages 100 - 104, XP032583138, ISSN: 2166-6776, [retrieved on 20140327], DOI: 10.1109/IRANIANMVIP.2013.6779958 *

Also Published As

Publication number Publication date
EP3555845A1 (fr) 2019-10-23
CN110088800A (zh) 2019-08-02
US20200027224A1 (en) 2020-01-23

Similar Documents

Publication Publication Date Title
JP6312370B2 (ja) ウェーハジオメトリ計測ツールによるウェーハ表面フィーチャの検出、分類および定量化のためのシステムおよび方法
EP0054598B1 (fr) Procédé d'inspection et de tri automatique d'objets présentant des configurations avec des tolérances dimensionnelles fixes et équipement de mise en oeuvre
US8712184B1 (en) Method and system for filtering noises in an image scanned by charged particles
US10027928B2 (en) Multiple camera computational wafer inspection
CN112150460B (zh) 检测方法、检测系统、设备和介质
TWI751372B (zh) 用於缺陷偵測之系統及方法
US20210158223A1 (en) Finding Semiconductor Defects Using Convolutional Context Attributes
CN112200790B (zh) 布料缺陷检测方法、设备和介质
WO2020087004A1 (fr) Sélecteur d'algorithmes basé sur des trames d'image
KR20180123173A (ko) 노이즈 경계 임계값에 의한 웨이퍼 검사 시스템 및 방법
FR3044767A1 (fr) Moyens de production et/ou de controle d’une piece en materiaux composites
FR3007174A1 (fr) Methode de traitement de l'image numerique de la surface d'un pneumatique en vue de la detection d'une anomalie
WO2017154682A1 (fr) Dispositif, procédé et programme de mesure de forme de ressort en spirale
EP3555845A1 (fr) Moyens de production et/ou de contrôle d'une pièce en matériaux composites
CN110010513B (zh) 薄膜沉积层缺陷扫描程式的建立方法及扫描机台
FR3111574A1 (fr) Détection et localisation d’anomalies d’étalements de poudre par mesures d’émissions acoustiques
CN116673597A (zh) 用于双v复合型坡口的激光线图像特征提取系统及方法
TW202203147A (zh) 修正拓樸影像資料中方向性漂移的裝置與方法
EP1921442A1 (fr) Procédé et installation de contrôle de la qualité de pieces
CN112926438A (zh) 检测方法及装置、检测设备和存储介质
US11330164B2 (en) Determining focus settings for specimen scans
KR102453132B1 (ko) 품질 분석 결과를 이용한 최적 촬영 범위 제공 장치 및 방법
CN112926439A (zh) 检测方法及装置、检测设备和存储介质
FR3126487A1 (fr) Contrôle dimensionnel par projection
US20230327222A1 (en) Inspection method for lithium secondary battery

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16829103

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2016829103

Country of ref document: EP

Effective date: 20190715