FR3044767A1 - Moyens de production et/ou de controle d’une piece en materiaux composites - Google Patents

Moyens de production et/ou de controle d’une piece en materiaux composites Download PDF

Info

Publication number
FR3044767A1
FR3044767A1 FR1561999A FR1561999A FR3044767A1 FR 3044767 A1 FR3044767 A1 FR 3044767A1 FR 1561999 A FR1561999 A FR 1561999A FR 1561999 A FR1561999 A FR 1561999A FR 3044767 A1 FR3044767 A1 FR 3044767A1
Authority
FR
France
Prior art keywords
image
pixel
determined
orientation
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1561999A
Other languages
English (en)
Other versions
FR3044767B1 (fr
Inventor
Serge Luquain
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Techni-Modul Eng
Original Assignee
Techni-Modul Eng
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Techni-Modul Eng filed Critical Techni-Modul Eng
Priority to FR1561999A priority Critical patent/FR3044767B1/fr
Publication of FR3044767A1 publication Critical patent/FR3044767A1/fr
Application granted granted Critical
Publication of FR3044767B1 publication Critical patent/FR3044767B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/8472Investigation of composite materials
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Processing (AREA)

Abstract

L'invention concerne un procédé de production et/ou de contrôle d'une pièce en matériaux composites formée à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale, comportant les étapes suivantes : - obtenir une première image représentant la texture du tissu ; - déterminer une estimation relative à l'orientation principale de la texture, en : • déterminant, pour chaque pixel de la première image, une orientation de gradients relatifs au niveau de luminance dudit pixel ; • déterminant une estimation d'une distribution globale des orientations de gradients des pixels de la première image ; • déterminant l'orientation principale en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image ; - déterminer un écart entre l'estimation relative à l'orientation principale et une valeur de consigne ; - produire la pièce en fonction de l'écart et/ou émettre un signal de contrôle fonction de l'écart.

Description

La présente invention se rapporte au domaine de la production de pièces en matériaux composites, ainsi qu'aux processus de contrôle qualité desdites pièces. Plus particulièrement, l'invention a trait à la production et/ou aux contrôles de préformes, adaptées à être utilisées pour fabriquer des pièces en matériaux composites. L'utilisation de pièces réalisées en matériaux composites ne cesse d'augmenter, en particulier dans le domaine du transport, en raison notamment des gains potentiels en matière de masse, de résistance, de rigidité ou encore de durée de vie. Par exemple, les matériaux composites sont largement utilisés à la fois dans les structures secondaires et primaires des avions civils et militaires, mais encore pour la réalisation de nombreux éléments dans les véhicules automobiles ou encore dans les matériels ferroviaires.
Parmi les procédés connus de fabrication de pièces réalisées en matériaux composites, le procédé de fabrication comprenant une étape de drapage suivie d'une étape de cuisson dans un autoclave, un four ou une presse est largement répandu. Un tel processus requiert souvent l'utilisation d'une préforme —ensemble de tissus compactés. Pour fabriquer une préforme, il est connu de découper, positionner et former des couches de tissu, en procédant manuellement et de manière non automatisée. Un opérateur en particulier doit s'assurer de la bonne orientation principale des diverses couches de tissus, les unes relativement aux autres.
Aussi, une telle approche présente le défaut d'une faible répétabilité lors de la production d'une série de préformes complexes, chaque intervention manuelle étant sujette à divers erreurs ou défauts. En outre, la productivité d'un tel procédé est limitée par les contrôles nécessaires et par la difficulté de mise en oeuvre desdites étapes. Il est donc généralement souhaitable d'automatiser l'étape de production de préformes complexes. Il est entendu que le choix d'automatisation est conditionné par d'autres critères également notamment par le nombre de pièces à produire (rentabilité du procédé), par la forme de la pièce, etc.
Or, pour permettre l'automatisation d'un tel processus, par exemple en déployant des robots pour fabriquer des préformes, il est nécessaire de pouvoir déterminer et/ou contrôler l'orientation principale des couches de tissus utilisés, chaque couche présentant une texture directionnelle. Une texture est qualifiée de directionnelle lorsque des structures élémentaires identifiables dans ladite texture sont arrangées sensiblement selon une orientation principale.
Divers procédés d'analyse d'images sont connus pour déterminer l'orientation principale d'une texture. Le document Da-Costa, J.P. «Analyse statistique de textures directionnelles, application à la caractérisation de matériaux composites», Thèse de l'Université de Bordeaux 1, soutenue le 21 décembre 2001, décrit un tel procédé. Cependant, pour déterminer l'orientation principale d'une texture, les procédés connus analysent l'image de la texture de manière dense, c'est-à-dire en utilisant de manière identique tout pixel ou tout point de ladite image. Il en découle une importante sensibilité au bruit présent dans l'image, ce qui affecte négativement la fiabilité et la précision de la détermination de l'orientation principale.
Il existe donc encore un besoin pour des moyens aptes à permettre la production automatisée de pièces en matériaux composites, notamment des préformes, économiquement efficace, et garantissant une qualité, une répétabilité et une précision améliorée par rapport aux procédés manuels.
Un des objets de l'invention est de fournir des moyens aptes à permettre la production automatisée de pièces en matériaux composites. Un autre objet de l'invention est de fournir des moyens aptes à permettre la détermination de l'orientation principale d'une texture, peu sensibles au bruit présent dans l'image représentant la texture. Un autre objet de l'invention est de proposer un procédé pour déterminer une estimation de l'orientation principale d'une texture particulièrement robuste, de très bonne qualité même en présence d'un bruit important dans l'image représentant la texture. Un autre objet de l'invention est de proposer un procédé pour déterminer une erreur d'orientation principale d'une texture par rapport à une orientation principale de référence, particulièrement robuste, de très bonne qualité même en présence d'un bruit important dans l'image représentant la texture.
Un ou plusieurs de ces objets sont remplis par le procédé pour déterminer une estimation relative à une orientation principale d'une texture. Les revendications dépendantes fournissent en outre des solutions à ces objets et/ou d'autres avantages.
Plus particulièrement, selon un premier aspect, l'invention se rapporte à un procédé de production et/ou de contrôle d'une pièce en matériaux composites formée à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale. Le procédé comporte les étapes suivantes : -obtenir une première image formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, représentant la texture du tissu ; -déterminer une estimation relative à l'orientation principale de la texture,: lors d'une première étape, en déterminant, pour chaque pixel de la première image, une orientation de gradients relatifs au niveau de luminance dudit pixel ; lors d'une deuxième étape, en déterminant une estimation d'une distribution globale des orientations de gradients des pixels de la première image ; lors d'une troisième étape, en déterminant l'orientation principale en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image ; -déterminer un écart entre l'estimation relative à l'orientation principale et une valeur de consigne ; - produire la pièce en fonction de l'écart et/ou émettre un signal de contrôle fonction de l'écart.
Typiquement, la pièce en matériaux composites est par exemple composée d'une pluralité de tissus superposés de telle sorte que l'orientation principale de chaque tissu respecte une séquence prédéterminée. La pièce peut être en particulier une préforme adaptée à être utilisée pour fabriquer des pièces en matériaux composites, notamment par la mise en œuvre d'un processus comprenant une étape de drapage suivi d'une étape de cuisson dans un autoclave, un four ou une presse. Le procédé est notamment adapté à être mis en œuvre par des dispositifs automatisés, comme des robots pourvus de moyens de calculs et d'un dispositif de prises d'image, adapté à disposer les tissus relativement les uns par rapport aux autres selon de sorte que l'orientation principale de chaque tissu respecte sensiblement une séquence prédéterminée.
La valeur de consigne est par exemple obtenue à partir d'une valeur prédéfinie ou calculée en fonction par exemple de l'orientation d'au moins un des autres tissus formant la pièce. Alternativement, la valeur de consigne peut être une plage de valeurs acceptables.
Au cours de l'étape de production de la pièce, la position du tissu peut être modifiée de sorte à réduire l'écart à une valeur inférieure à un seuil prédéfini. À cette fin, les étapes précédentes peuvent être également répétées aussi souvent que nécessaire.
Au cours de l'étape d'émission du signal de contrôle en fonction de l'écart 40b, le signal de contrôle peut être généré de sorte à permettre le signalement, à un opérateur-contrôleur ou à un dispositif de contrôle de qualité, d'un défaut potentiel d'orientation du tissu, lorsque l'écart est supérieur à une valeur de tolérance supérieure à un seuil prédéfini.
Au cours de la première étape, pour chaque pixel de la première image, l'orientation de gradients relatifs au niveau de luminance dudit pixel peut être obtenue en : • déterminant une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ; • une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction ; • calculant l'argument d'un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse.
Au cours de la deuxième étape, l'estimation de la distribution globale des orientations de gradients des pixels de la première image peut être déterminée en construisant un histogramme discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de la première image. L'histogramme est par exemple construit en déterminant : • pour chaque pixel de la première image, une contribution ; et, • pour chaque classe, une hauteur égale à la somme des contributions de tous les pixels de la première image dont l'orientation est comprise dans ladite classe.
Au cours de la troisième étape, l'orientation principale peut être déterminée en identifiant, dans l'histogramme, la classe dont la hauteur est maximale. Préalablement à la première étape, le procédé peut comporter : • une étape, au cours de laquelle, pour chaque pixel de la première image, un score relatif à l'appartenance dudit pixel à un contour de luminance est déterminé; • une étape, au cours de laquelle, pour chaque pixel de la première image, une probabilité d'importance est déterminée, à l'aide du score dudit pixel ; et dans lequel, au cours de la deuxième étape, la contribution de chaque pixel est déterminée en fonction de la probabilité d'importance associée audit pixel. Pour chaque pixel de la première image, le score est par exemple un score de Harris calculé, à partir des niveaux de luminance des pixels de la première image. Ainsi, la présence de bruit - par exemple « poivre et sel » - est filtrée par l'utilisation du score de Harris et de la probabilité d'importance. Avantageusement, les coins de la première image utilisés pour calculer le score de chaque pixel de la première image peuvent correspondre à une rupture entre des niveaux de luminance de la première image dans une unique direction. Pour chaque pixel de la première image, le score est par exemple une estimation de l'amplitude du gradient de luminance, à partir des niveaux de luminance des pixels de la première image. Pour chaque pixel de la première image, la probabilité d'importance peut être déterminée à l'aide d'une fonction sigmoïde et du score dudit pixel.
Préalablement à la troisième étape, le procédé peut comporter une étape au cours de laquelle le niveau de luminance de chaque pixel de la première image est filtré de sorte à réduire le bruit présent dans les informations de luminance de la première image.
Dans un mode de réalisation, • au cours de la première étape, pour chaque pixel d'une image de référence d'une surface texturée, ladite image de référence étant formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, une orientation de gradients relatifs au niveau de luminance dudit pixel est déterminée ; • au cours de la deuxième étape, une estimation de référence d'une distribution globale des orientations de gradients des pixels de l'image de référence est déterminée ; • au cours de la troisième étape, une erreur de l'orientation principale est déterminée en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image et en fonction de l'estimation de référence de la distribution globale des orientations de gradients des pixels de la première image. L'écart entre l'estimation relative à l'I'orientation principale et la valeur de consigne est déterminé en fonction de l'erreur de l'orientation principale. En particulier, la valeur de consigne peut être choisie en fonction de l'estimation de référence de la distribution globale des orientations de gradients des pixels de l'image de référence.
Au cours de la deuxième étape, l'estimation de référence de la distribution globale des orientations de gradients des pixels de l'image de référence peut être déterminée en construisant un histogramme de référence discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de l'image de référence, et dans lequel au cours de la troisième étape, l'erreur de l'orientation principale est déterminée en fonction d'un maximum de corrélation entre l'histogramme et l'histogramme de référence. Au cours de la troisième étape, le maximum de corrélation entre l'histogramme et l'histogramme de référence peut être déterminé en calculant une mesure de la corrélation entre l'histogramme et l'histogramme de référence pour une pluralité de décalages de l'histogramme par rapport à l'histogramme de référence selon un angle de décalage compris dans un intervalle déterminé. Au cours de la troisième étape, la mesure de la corrélation entre l'histogramme et l'histogramme de référence peut être déterminée en fonction d'une distance probabiliste de Bhattacharyya, un indice de qualité étant déterminé en fonction de la valeur de la distance probabiliste de Bhattacharyya et de l'erreur, et/ou une estimation de conformité fonction de la distance probabiliste de Bhattacharyya, au cours d'une quatrième étape. D'autres particularités et avantages de la présente invention apparaîtront, dans la description ci-après de modes de réalisation, en référence aux dessins annexés, dans lesquels : la figure 1 est un synoptique des étapes d'un procédé pour déterminer une estimation de l'orientation principale d'une texture selon un mode de réalisation de l'invention ; la figure 2 est un synoptique des étapes d'un procédé pour déterminer une erreur d'orientation principale d'une texture par rapport à une orientation principale de référence, selon un mode de réalisation de l'invention ; la figure 3a est une reproduction d'une image d'une texture dont l'orientation principale est sensiblement égale à 5° dans le référentiel R; la figure 3b est une reproduction d'une image de référence d'une texture dont l'orientation principale est sensiblement égale à 0° dans le référentiel R ; la figure 4 est un synoptique des étapes d'un procédé de production et/ou de contrôle d'une pièce en matériaux composites, selon un mode de réalisation de l'invention.
En référence à la figure 4, un procédé de production et/ou de contrôle d'une pièce en matériaux composites va maintenant être décrit. La pièce en matériaux composites est produite à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale O. Typiquement, la pièce en matériaux composites est composée d'une pluralité de tissus superposés de telle sorte que l'orientation principale de chaque tissu respecte une séquence prédéterminée. La pièce peut être en particulier une préforme adaptée à être utilisée pour fabriquer des pièces en matériaux composites, notamment par la mise en œuvre d'un processus comprenant une étape de drapage suivi d'une étape de cuisson dans un autoclave, un four ou une presse. Le procédé est notamment adapté à être mis en œuvre par des dispositifs automatisés, comme des robots pourvus de moyens de calculs et d'un dispositif de prises d'image, adapté à disposer les tissus relativement les uns par rapport aux autres selon de sorte que l'orientation principale de chaque tissu respecte sensiblement une séquence prédéterminée.
Dans la suite de la description, à des fins d'illustration, il est considéré le cas où l'on souhaite obtenir l'information d'orientation principale d'un tissu dans un référentiel donné de sorte à contrôler ou modifier le positionnement dudit tissu dans ce référentiel. Par exemple, cette situation peut être rencontrée lorsqu'un robot déplace un tissu d'un lieu de stockage vers une zone de fabrication de pièces en matériaux composites, et que ledit tissu doit être positionné selon une orientation principale déterminée. Cependant, au cours de la fabrication d'une pièce en matériaux composites, cette opération peut être répétée aussi souvent que nécessaire pour obtenir la pièce finale, typiquement au moins aussi souvent que le nombre de tissus formant la pièce finale. L'orientation de chacun des tissus peut être prédéterminée à partir d'une séquence enregistrée. L'orientation de chacun des tissus peut également être prédéterminée à partir de l'orientation d'au moins un des autres tissus formant la pièce.
Le procédé comporte une étape 10 d'obtention d'une première image Ireq formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, représentant la texture du tissu. L'image IREq de la texture comporte au moins des informations de luminance. Ainsi, l'image IREq peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image IREQ peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance.
Le procédé comporte une étape 20 de détermination d'une estimation relative à l'orientation principale O de la texture, en fonction des informations de luminance comprise dans une image de ladite texture.
Le procédé comporte une étape 30 de détermination d'un écart D entre l'orientation principale O et une valeur de consigne. La valeur de consigne est par exemple obtenue à partir d'une valeur prédéfinie ou calculée en fonction par exemple de l'orientation d'au moins un des autres tissus formant la pièce. Alternativement, la valeur de consigne peut être une plage de valeurs acceptables.
Le procédé comporte une étape 40a de production de la pièce en fonction de l'écart D et/ou une étape 40b d'émission d'un signal de contrôle en fonction de l'écart.
Au cours de l'étape 40a, la position du tissu peut être modifiée de sorte à réduire l'écart D à une valeur inférieure à un seuil prédéfini. À cette fin, les étapes 10 à 40 peuvent être également répétées aussi souvent que nécessaire.
Au cours de l'étape 40b, le signal de contrôle peut être généré de sorte à permettre le signalement, à un opérateur-contrôleur ou à un dispositif de contrôle de qualité, d'un défaut potentiel d'orientation du tissu, lorsque l'écart E est supérieur à une valeur de tolérance supérieure à un seuil prédéfini.
En référence à la figure 1 et à la figure 3a, un premier procédé pour déterminer une estimation de l'orientation principale d'une texture selon un mode de réalisation de l'invention, va maintenant être décrit. Le premier procédé est notamment adapté à permettre la détermination 20 d'une estimation relative à l'orientation principale O de la texture, en fonction des informations de luminance comprise dans une image de ladite texture, dans le procédé de production et/ou de contrôle d'une pièce en matériaux composites.
Le premier procédé vise à déterminer une orientation principale dans une texture en fonction des informations de luminance comprise dans une image de ladite texture. Plus particulièrement, le premier procédé vise à déterminer une orientation principale dans la texture en fonction d'une dérivée spatiale des informations de luminance comprise dans l'image de ladite texture. Dans la suite de la description, le terme « gradient » se réfère à la dérivée spatiale des informations de luminance comprise dans l'image de ladite texture.
Le premier procédé est adapté en particulier pour estimer, en temps réel, l'orientation principale O d'une texture, à partir d'une image IREQ de ladite texture, l'orientation principale O étant déterminée, pour un intervalle de mesures M relativement à un référentiel R de l'image IREQ. Typiquement, l'intervalle de mesures M est [-5°.. 5°]. Le premier procédé permet en outre de calculer un indice de qualité Q de l'estimation de l'orientation principale O, relatif à un degré de confiance ou de fiabilité de l'estimation de l'orientation principale O. L'image IREQ de la texture comporte au moins des informations de luminance. Ainsi, l'image IREQ peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image IREQ peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance.
Dans une première étape optionnelle S110, une image filtrée IFILT est déterminée, à partir des informations de luminance l(x,y) de l'image IREQ, en mettant en œuvre un procédé de réduction du bruit. L'image filtrée IFILT peut être déterminée notamment, en réduisant ou supprimant les composantes relatives aux informations luminance l(x,y) de l'image IREQ dont la fréquence spatiale est supérieure à une fréquence de coupure FC. Un filtre à convolution spatial dont le noyau est de type Gaussien, peut être utilisé à cette fin. À l'issue de la première étape optionnelle S110, l'image filtrée IFILT ainsi obtenue comporte au moins les informations de luminance filtrées IFILT(x,y) de l'image IREQ.
Avantageusement, le premier procédé comporte une deuxième étape optionnelle S120 et une troisième étape optionnelle S130.
Au cours de la deuxième étape optionnelle S120, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, un score SH relatif à l'appartenance dudit pixel à un contour de luminance est déterminé. En particulier, un score de Harris est calculé, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y). L'algorithme dit de « Harris et Stephen » permettant de calculer SH(x,y) est notamment décrit de manière détaillée dans le document Harris, C. & Stephens, M. (1988), « A Combined Corner and Edge Detector », in ’Proceedings of the 4th Alvey Vision Conférence' , pp. 147—151. À l'issue de la deuxième étape optionnelle S120, une première pseudo-image SH est obtenue, dans laquelle la valeur de chaque pixel correspond au score de Harris associé au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ. Le score de Harris SH(x,y) d'un pixel x,y de l'image filtrée IFILT ou de l'image IREQ est d'autant plus important que la proximité dudit pixel x,y est grande en termes de luminance avec un coin de l'image filtrée IFILT ou de l'image IREQ. Le terme "coin", aussi couramment désigné par le terme anglais "corner", se réfère à une zone d'une image où une discontinuité dans les informations de luminance est présente, typiquement lorsqu'un changement brusque du niveau de luminance est observé entre pixels adjacents.
Avantageusement, dans l'image filtrée IFILT ou l'image IREQ, où chaque valeur de gris correspond à un niveau de luminance, les coins pris en compte pour déterminer le score de Harris SH(x,y) du pixel x,y, peuvent être les coins correspondant à une rupture entre des niveaux de gris dans une unique direction, le score de Harris SH(x,y) du pixel x,y, étant alors inférieur à zéro. Ainsi, les ruptures franches dans une unique direction peuvent être privilégiées.
Alternativement aux calculs d'un score de Harris, au cours de la deuxième étape optionnelle S120, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une estimation EGRAD(x,y) de l'amplitude du gradient de luminance peut être déterminée, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées lFILT(x,y). Une description d'une méthode pour déterminer 1' estimation EGRAD(x,y) est notamment détaillée dans le document I. Sobel and G. Feldman, intitulé « A 3x3 isotropie gradient operator for image Processing », présenté lors de la conférence « Stanford Artificial Project », 1968.
Dans la troisième étape optionnelle S130, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une probabilité d'importance p(x,y) est déterminée, à l'aide du score de Harris SH(x,y) dudit pixel x,y ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y. Pour cela, un procédé de calibration peut être mis en oeuvre pour obtenir la probabilité d'importance p(x,y), pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, à partir du score de Harris SH(x,y) dudit pixel ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y.
Le procédé de calibration peut par exemple comporter une étape dans laquelle une fonction sigmoïde, dont les paramètres ont été déterminés de manière empirique, est appliquée à la première pseudo-image SH, tel que décrit par exemple dans le document « Platt, J. (1999). Probabilistic outputs for support vector machines and comparisons to regularized likelihood methods. Advances in large margin classifiers », 10(3), pages 61-74. En sortie du procédé de calibration, une deuxième pseudo-image PI est obtenue, dans laquelle la valeur de chaque pixel correspond à la probabilité d'importance p(x,y) associé au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.
Dans une quatrième étape S140, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une orientation OG(x,y) de gradients relatifs au niveau de luminance est déterminée. L'orientation OG(x,y) de gradients est déterminée de manière dense, c'est-à-dire en utilisant les informations de tous les pixels x,y de ladite image. Par exemple, pour déterminer l'orientation OG(x,y) du pixel x,y, on calcule : • une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ; • une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction. L'orientation OG(x,y) du pixel x,y est alors obtenue en formant un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. L'argument du vecteur ainsi formé est estimé ainsi pour un intervalle [0 ; 2π], À l'issue de la quatrième étape S140, une troisième pseudo-image OG est obtenue, dans laquelle la valeur de chaque pixel correspond à l'orientation OG(x,y) de gradients associés au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.
Dans une cinquième étape S150, une estimation de la distribution globale des orientations de gradients OG(x,y) des pixels x,y de l'image filtrée IFILT ou de l'image IREQ, est déterminée. L'estimation de la distribution globale des orientations des gradients OG(x,y) est par exemple un histogramme H discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients OG(x,y). L'histogramme H est construit en déterminant : • pour chaque pixel x,y une contribution C(x,y) ; et, • pour chaque classe, une hauteur égale à la somme des contributions C(x,y) de tous les pixels dont l'orientation OG(x,y) est comprise dans ladite classe.
La contribution C(x,y) de chaque pixel x,y peut être choisie constante, par exemple égal à 1.
Avantageusement, dans le cas où la deuxième pseudo-image PI est disponible, la contribution C(x,y) de chaque pixel x,y peut être fonction de la probabilité d'importance p(x,y) associé audit pixel.
Dans une sixième étape S160, l'orientation principale O est déterminée en fonction de l'estimation de la distribution globale des orientations de gradients, des pixels x,y de l'image filtrée IFILT ou de l'image IREQ. En particulier, l'orientation principale O peut être déterminée en identifiant, dans l'histogramme H, la classe dont la hauteur est maximale.
En référence aux figures 2, 3a et 3b , un deuxième procédé pour déterminer une erreur E d'orientation principale d'une texture par rapport à une orientation principale de référence, selon un mode de réalisation de l'invention, va maintenant être décrit. Le deuxième procédé est notamment adapté à permettre la détermination 20 d'une estimation relative à l'orientation principale O de la texture, en fonction des informations de luminance comprise dans une image de ladite texture, dans le procédé de production et/ou de contrôle d'une pièce en matériaux composites. Le deuxième procédé est adapté pour déterminer l'erreur E d'orientation principale dans la texture en fonction des informations de luminance comprises dans une image IREQ de ladite texture, et en fonction des informations de luminance comprises dans une image de référence IREF. Le deuxième procédé permet également de déterminer un indice de qualité Q de l'estimation de l'erreur E, relatif à un degré de confiance ou de fiabilité de l'estimation de l'erreur E, ainsi qu'une estimation de conformité CF. Dans la suite de la description, le terme « gradient » se réfère à la dérivée spatiale des informations de luminance comprise dans l'image de ladite texture. A partir d'une image de la surface texturée de ladite pièce, et d'une image d'une surface texturée considérée comme étant une référence à atteindre en terme d'orientation principale des fibres de la pièce à fabriquer, il est alors possible de déterminer une estimation de l'erreur E et d'entreprendre les étapes correctives qui peuvent alors s'avérer nécessaires au cours de l'étape 40a. L'image IREQ de la texture comporte au moins des informations de luminance. Ainsi, l'image IREQ peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image IREQ peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance. L'image de référence IREF est une image d'une surface texturée considérée comme étant une référence à laquelle doit être comparée l'image IREQ en termes d'orientation principale des fibres. L'image de référence IREF comporte au moins des informations de luminance. Ainsi, l'image de référence IREF peut être une image numérique, généralement désignée image de luminance, dans laquelle à chaque pixel x,y est associée au moins une valeur l(x,y) correspondant à un niveau de luminance. L'image de référence IREF peut ainsi être une image dite en niveau de gris, chaque valeur de gris correspondant à un niveau de luminance.
Dans une première étape optionnelle S210, une image filtrée IFILT est déterminée, à partir des informations de luminance l(x,y) de l'image IREQ, en mettant en œuvre un procédé de réduction du bruit. L'image filtrée IFILT peut être déterminée notamment, en réduisant ou supprimant les composantes relatives aux informations luminance l(x,y) de l'image IREQ dont la fréquence spatiale est supérieure à une fréquence de coupure FC. Un filtre à convolution spatial dont le noyau est de type Gaussien, peut être utilisé à cette fin. À l'issue de la première étape optionnelle S210, l'image filtrée IFILT ainsi obtenue comporte au moins les informations de luminance filtrées IFILT(x,y) de l'image IREQ. Au cours de la première étape optionnelle S210, une image filtrée de référence IFILT-REQ est déterminée, à partir des informations de luminance l(x,y) de l'image de référence IREF, en mettant en œuvre un procédé de réduction du bruit. L'image filtrée de référence IREF peut être déterminée notamment, en réduisant ou supprimant les composantes relatives aux informations luminance l(x,y) de l'image de référence IREF dont la fréquence spatiale est supérieure à une fréquence de coupure FC. Un filtre à convolution spatial dont le noyau est de type Gaussien, peut être utilisé à cette fin. À l'issue de la première étape optionnelle S210, l'image filtrée de référence IFILT-REF ainsi obtenue comporte au moins les informations de luminance filtrées IFILT-REF(x,y) de l'image de référence IREF.
Avantageusement, le deuxième procédé comporte une deuxième étape optionnelle S220 et une troisième étape optionnelle S230.
Au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, un score de Harris est calculé, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y). L'algorithme dit de « Harris et Stephen » permettant de calculer SH(x,y) est notamment décrit de manière détaillée dans le document Harris, C. & Stephens, M. (1988), « A Combined Corner and Edge Detector », in ’Proceedings of the 4th Alvey Vision Conférence' , pp. 147—151. À l'issue de la deuxième étape optionnelle S220, une première pseudo-image SH est obtenue, dans laquelle la valeur de chaque pixel correspond au score de Harris associé au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ. Le score de Harris SH(x,y) d'un pixel x,y de l'image filtrée IFILT ou de l'image IREQ est d'autant plus important que la proximité dudit pixel x,y est grande en termes de luminance avec un coin de l'image filtrée IFILT ou de l'image IREQ. Le terme "coin", aussi couramment désigné par le terme anglais "corner", se réfère à une zone d'une image où une discontinuité dans les informations de luminance est présente, typiquement lorsqu'un changement brusque du niveau de luminance est observé entre pixels adjacents.
Avantageusement, dans l'image filtrée IFILT ou l'image IREQ, où chaque valeur de gris correspond à un niveau de luminance, les coins pris en compte pour déterminer le score de Harris SH(x,y) du pixel x,y, peuvent être les coins correspondant à une rupture entre des niveaux de gris dans une unique direction, le score de Harris SH(x,y) du pixel x,y, étant alors inférieur à zéro. Ainsi, les ruptures franches dans une unique direction peuvent être privilégiées.
Alternativement aux calculs d'un score de Harris, au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une estimation EGRAD(x,y) de l'amplitude du gradient de luminance peut être déterminée, à partir des informations de luminance l(x,y) ou des informations de luminance filtrées IFILT(x,y).
Au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, un score de Harris SH-REF(x,y) est calculé, à partir des informations de luminance IREF(x,y) ou des informations de luminance filtrées IFILT-REF(x,y). À l'issue de la deuxième étape optionnelle S220, une première pseudo-image de référence SH-REF est obtenue, dans laquelle la valeur de chaque pixel correspond au score de Harris associé au pixel dont les coordonnées correspondent dans l'image filtrée de référence IFILT-REF ou dans l'image de référence IREF. Le score de Harris SH-REF(x,y) d'un pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF est d'autant plus important que la proximité dudit pixel x,y est grande en termes de luminance avec un coin de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF.
Avantageusement, dans l'image filtrée de référence IFILT-REF ou l'image de référence IREF, où chaque valeur de gris correspond à un niveau de luminance, les coins pris en compte pour déterminer le score de Harris SH-REF(x,y) du pixel x,y, peuvent être les coins correspondant à une rupture entre des niveaux de gris dans une unique direction, le score de Harris SH(x,y) du pixel x,y, étant alors inférieur à zéro. Ainsi, les ruptures franches dans une unique direction peuvent être privilégiées.
Alternativement aux calculs d'un score de Harris, au cours de la deuxième étape optionnelle S220, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, une estimation EGRAD-REF(x,y) de l'amplitude du gradient de luminance peut être déterminée, à partir des informations de luminance IREF(x,y) ou des informations de luminance filtrées IFILT-REF(x,y).
Dans la troisième étape optionnelle S230, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une probabilité d'importance p(x,y) est déterminée, à l'aide du score de Harris SH(x,y) dudit pixel x,y ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y. Pour cela, un procédé de calibration peut être mis en oeuvre pour obtenir la probabilité d'importance p(x,y), pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, à partir du score de Harris SH(x,y) dudit pixel ou de l'estimation EGRAD(x,y) de l'amplitude du gradient dudit pixel x,y.
Le procédé de calibration peut par exemple comporter une étape dans laquelle une fonction sigmoïde, dont les paramètres ont été déterminés de manière empirique, est appliquée à la première pseudo-image SH. En sortie du procédé de calibration, une deuxième pseudo-image PI est obtenue, dans laquelle la valeur de chaque pixel correspond à la probabilité d'importance p(x,y) associé au pixel dont les coordonnées correspondent dans l'image filtrée I Fl LT ou dans l'image IREQ.
Dans la troisième étape optionnelle S230, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, une probabilité d'importance pREF(x,y) est déterminée, à l'aide du score de Harris SH-REF(x,y) dudit pixel x,y ou de l'estimation EGRAD-REF(x,y) de l'amplitude du gradient dudit pixel x,y. Pour cela, un procédé de calibration peut être mis en œuvre pour obtenir la probabilité d'importance pREF(x,y), pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, à partir du score de Harris SH-REF(x,y) dudit pixel ou de l'estimation EGRAD-REF(x,y) de l'amplitude du gradient dudit pixel x,y.
Le procédé de calibration peut par exemple comporter une étape dans laquelle une fonction sigmoïde, dont les paramètres ont été déterminés de manière empirique, est appliquée à la première pseudo-image SH-REF. En sortie du procédé de calibration, une deuxième pseudo-image PI-REF est obtenue, dans laquelle la valeur de chaque pixel correspond à la probabilité d'importance pREF(x,y) associé au pixel dont les coordonnées correspondent dans l'image filtrée de référence IFILT-REF ou dans l'image de référence IREF.
Dans une quatrième étape S240, pour chaque pixel x,y de l'image filtrée IFILT ou de l'image IREQ, une orientation OG(x,y) de gradients relatifs au niveau de luminance est déterminée. L'orientation OG(x,y) de gradients est déterminée de manière dense, c'est-à-dire en utilisant les informations de tous les pixels x,y de ladite image. Par exemple, pour déterminer l'orientation OG(x,y) du pixel x,y, on calcule : • une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ; • une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction. L'orientation OG(x,y) du pixel x,y est alors obtenue en formant un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. L'argument du vecteur ainsi formé est estimé ainsi pour un intervalle [0 ; 2ti]. À l'issue de la quatrième étape S240, une troisième pseudo-image OG est obtenue, dans laquelle la valeur de chaque pixel correspond à l'orientation OG(x,y) de gradients associés au pixel dont les coordonnées correspondent dans l'image filtrée IFILT ou dans l'image IREQ.
Au cours de la quatrième étape S240, pour chaque pixel x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, une orientation OG-REF(x,y) de gradients relatifs au niveau de luminance est déterminée. L'orientation OG-REF(x,y) de gradients est déterminée de manière dense, c'est-à-dire en utilisant les informations de tous les pixels x,y de ladite image. Par exemple, pour déterminer l'orientation OG-REF(x,y) du pixel x,y, on calcule : • une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ; • une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction. L'orientation OG-REF(x,y) du pixel x,y est alors obtenue en formant un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse. L'argument du vecteur ainsi formé est estimé ainsi pour un intervalle [0 ; 2ti]. À l'issue de la quatrième étape S240, une troisième pseudo-image OG-REF est obtenue, dans laquelle la valeur de chaque pixel correspond à l'orientation OG-REF(x,y) de gradients associés au pixel dont les coordonnées correspondent dans l'image filtrée de référence IFILT-REF ou dans l'image de référence IREF.
Dans une cinquième étape S250, une estimation de la distribution globale des orientations des gradients OG(x,y) des pixels x,y de l'image filtrée IFILT ou de l'image IREQ, est déterminée. L'estimation de la distribution globale des gradients OG(x,y) est par exemple un histogramme H discret, comportant une pluralité de classes relatives à différentes plages de valeurs possible pour les orientations des gradients OG(x,y). L'histogramme H est construit en déterminant : • pour chaque pixel x,y une contribution C(x,y) ; et, • pour chaque classe, une hauteur égale à la somme des contributions C(x,y) de tous les pixels dont l'orientation OG(x,y) est comprise dans ladite classe.
La contribution C(x,y) de chaque pixel x,y peut être choisie constante, par exemple égal à 1.
Avantageusement, dans le cas où la deuxième pseudo-image PI est disponible, la contribution C(x,y) de chaque pixel x,y peut être fonction de la probabilité d'importance p(x,y) associé audit pixel.
Au cours de la cinquième étape S250, une estimation de référence de la distribution globale des orientations des gradients OG-REF(x,y) des pixels x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF, est déterminée. L'estimation de référence de la distribution globale des gradients OG-REF(x,y) est par exemple un histogramme de référence HREF discret, comportant une pluralité de classes relatives à différentes plages de valeurs possible pour les orientations des gradients OG-REF(x,y). L'histogramme de référence HREF est construit en déterminant: • pour chaque pixel x,y une contribution CREF(x,y) ; et, • pour chaque classe, une hauteur égale à la somme des contributions CREF(x,y) de tous les pixels dont l'orientation OG-REF(x,y) est comprise dans ladite classe.
La contribution CREF(x,y) de chaque pixel x,y peut être choisie constante, par exemple égal à 1.
Avantageusement, dans le cas où la deuxième pseudo-image PI-REF est disponible, la contribution CREF(x,y) de chaque pixel x,y peut être fonction de la probabilité d'importance pREF(x,y) associé audit pixel.
Dans une sixième étape S260, l'orientation principale O est déterminée en fonction : • de l'estimation de la distribution globale des orientations de gradients, des pixels x,y de l'image filtrée IFILT ou de l'image IREQ; et, • de estimation de référence de la distribution globale des orientations des gradients OG-REF(x,y) des pixels x,y de l'image filtrée de référence IFILT-REF ou de l'image de référence IREF.
En particulier, un maximum de corrélation entre l'histogramme H et l'histogramme de référence HREF peut être recherché. Ainsi, il est par exemple possible d'évaluer une mesure de la corrélation entre l'histogramme H et l'histogramme de référence HREF, en faisant varier le décalage de l'histogramme H par rapport à l'histogramme de référence HREF selon un angle de décalage évoluant par pas de 0.1° entre -10° et 10°. La mesure de la corrélation entre l'histogramme H et l'histogramme de référence HREF est par exemple déterminée en fonction de la distance probabiliste de Bhattacharyya, décrit notamment dans le document intitulé Kailath, T., (1967), « The Divergence and Bhattacharyya Distance Measures in Signal Sélection », IEEE Transactions on Communication Technology, vol. 15, no 1, 1967, p. 52-60. L'estimation de l'erreur E est alors égale à l'angle de décalage pour lequel un maximum de corrélation est observé. L'indice de qualité Q est alors fonction de la valeur de la distance de Bhattacharyya associé à l'estimation de l'erreur E.
Dans une septième étape S270, une estimation de conformité CF fonction d'une distance statistique entre l'histogramme H et l'histogramme de référence HREF est déterminée. Ainsi, il est par exemple possible de déterminer la distance probabiliste de Bhattacharyya entre l'histogramme H et l'histogramme de référence HREF. L'estimation de conformité CF est alors obtenue en fonction de la distance probabiliste de Bhattacharyya entre l'histogramme H et l'histogramme de référence HREF, typiquement en soustrayant à 1 ladite distance probabiliste de Bhattacharyya.

Claims (15)

  1. REVENDICATIONS
    1. Procédé de production et/ou de contrôle d'une pièce en matériaux composites formée à partir d'au moins un tissu ayant une surface dont la texture présente une orientation principale (O), caractérisé en ce qu'il comporte les étapes suivantes : obtenir (10) une première image (IREQ) formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, représentant la texture du tissu ; - déterminer (20) une estimation relative à l'orientation principale (O) de la texture, : • lors d'une première étape (S140 ; S240), en déterminant, pour chaque pixel de la première image, une orientation (OG (x, y)) de gradients relatifs au niveau de luminance dudit pixel ; • lors d'une deuxième étape (S150 ; S250), en déterminant une estimation d'une distribution globale des orientations de gradients des pixels de la première image ; • lors d'une troisième étape (S160 ; S260), en déterminant l'orientation principale en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image ; déterminer (30) un écart (D) entre l'estimation relative à l'orientation principale (O) et une valeur de consigne ; produire (40a) la pièce en fonction de l'écart et/ou émettre (40b) un signal de contrôle fonction de l'écart.
  2. 2. Procédé selon la revendication 1, dans lequel, au cours de la première étape (S140 ; S240), pour chaque pixel de la première image, l'orientation (OG (x, y)) de gradients relatifs au niveau de luminance dudit pixel est obtenu en : • déterminant une première réponse d'un premier filtre à convolution de type noyau de Sobel appliqué au niveau de luminance selon une première direction ; • une deuxième réponse d'un deuxième filtre à convolution de type noyau de Sobel appliqué au niveau de luminance, selon une deuxième direction orthogonale à la première direction ; • calculant l'argument d'un vecteur dont la composante horizontale correspond à la première réponse et la composante verticale correspond à la deuxième réponse.
  3. 3. Procédé selon l'une quelconque des revendications 1 à 2, dans lequel au cours de la deuxième étape (S150 ; S250), l'estimation de la distribution globale des orientations de gradients des pixels de la première image est déterminée en construisant un histogramme (H) discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de la première image.
  4. 4. Procédé selon la revendication 3, dans lequel l'histogramme (H) est construit en déterminant : • pour chaque pixel de la première image, une contribution ; et, • pour chaque classe, une hauteur égale à la somme des contributions de tous les pixels de la première image dont l'orientation est comprise dans ladite classe.
  5. 5. Procédé selon la revendication 4, dans lequel, au cours de la troisième étape, l'orientation principale est déterminée en identifiant, dans l'histogramme, la classe dont la hauteur est maximale.
  6. 6. Procédé selon l'une quelconque des revendications 4 ou 5, comportant en outre, préalablement à la première étape : • une étape (120), au cours de laquelle, pour chaque pixel de la première image, un score (SH) relatif à l'appartenance dudit pixel à un contour de luminance est déterminé ; • une étape (S130), au cours de laquelle, pour chaque pixel de la première image, une probabilité d'importance (p (x, y)) est déterminée, à l'aide du score dudit pixel ; et dans lequel, au cours de la deuxième étape, la contribution de chaque pixel est déterminée en fonction de la probabilité d'importance associée audit pixel.
  7. 7. Procédé selon la revendication 6, dans lequel, pour chaque pixel de la première image, le score est un score de Harris calculé, à partir des niveaux de luminance des pixels de la première image.
  8. 8. Procédé selon la revendication 7, dans lequel les coins de la première image utilisés pour calculer le score de chaque pixel de la première image correspondent à une rupture entre des niveaux de luminance de la première image dans une unique direction.
  9. 9. Procédé selon la revendication 6, dans lequel, pour chaque pixel de la première image, le score est une estimation de l'amplitude du gradient de luminance, à partir des niveaux de luminance des pixels de la première image.
  10. 10. Procédé selon l'une quelconque des revendications 6 à 9, dans lequel, pour chaque pixel de la première image, la probabilité d'importance est déterminée à l'aide d'une fonction sigmoïde et du score dudit pixel.
  11. 11. Procédé selon l'une quelconque des revendications 1 à 10, comportant en outre, préalablement à la troisième étape, une étape (S110 ; S210), au cours de laquelle le niveau de luminance de chaque pixel de la première image est filtré de sorte à réduire le bruit présent dans les informations de luminance de la première image.
  12. 12. Procédé selon l'une quelconque des revendications 1 à 11, dans lequel : • au cours de la première étape (S240), pour chaque pixel d'une image de référence (IREF) d'une surface texturée, ladite image de référence étant formée par une pluralité de pixels et dans laquelle un niveau de luminance peut être déterminé pour chaque pixel, une orientation (OG-REF (x, y)) de gradients relatifs au niveau de luminance dudit pixel est déterminée ; • au cours de la deuxième étape (S250), une estimation de référence d'une distribution globale des orientations de gradients des pixels de l'image de référence est déterminée ; • au cours de la troisième étape (S260), une erreur (E) de l'orientation principale est déterminée en fonction de l'estimation de la distribution globale des orientations de gradients des pixels de la première image et en fonction de l'estimation de référence de la distribution globale des orientations de gradients des pixels de la première image ; et dans lequel l'écart entre l'estimation relative à l'orientation principale (O) et la valeur de consigne est déterminée en fonction de l'erreur (E) de l'orientation principale.
  13. 13. Procédé selon la revendication 3 et la revendication 12, dans lequel, au cours de la deuxième étape (S250), l'estimation de référence de la distribution globale des orientations de gradients des pixels de l'image de référence est déterminée en construisant un histogramme de référence (HREF) discret, comportant une pluralité de classes relatives à différentes plages de valeurs possibles pour les orientations des gradients des pixels de l'image de référence, et dans lequel au cours de la troisième étape (S260), l'erreur (E) de l'orientation principale est déterminée en fonction d'un maximum de corrélation entre l'histogramme (H) et l'histogramme de référence (HREF).
  14. 14. Procédé selon la revendication 13, dans lequel, au cours de la troisième étape (S260), le maximum de corrélation entre l'histogramme (H) et l'histogramme de référence (HREF) est déterminé en calculant une mesure de la corrélation entre l'histogramme (H) et l'histogramme de référence (HREF) pour une pluralité de décalages de l'histogramme (H) par rapport à l'histogramme de référence (HREF) selon un angle de décalage compris dans un intervalle déterminé.
  15. 15. Procédé selon la revendication 14, dans lequel, au cours de la troisième étape, la mesure de la corrélation entre l'histogramme (H) et l'histogramme de référence (HREF) est déterminée en fonction d'une distance probabiliste de Bhattacharyya, un indice de qualité (Q) étant déterminé en fonction de la valeur de la distance probabiliste de Bhattacharyya et de l'erreur (E), et/ou une estimation de conformité (CF) fonction de la distance probabiliste de Bhattacharyya, au cours d'une quatrième étape (S270).
FR1561999A 2015-12-08 2015-12-08 Moyens de production et/ou de controle d’une piece en materiaux composites Active FR3044767B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1561999A FR3044767B1 (fr) 2015-12-08 2015-12-08 Moyens de production et/ou de controle d’une piece en materiaux composites

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1561999A FR3044767B1 (fr) 2015-12-08 2015-12-08 Moyens de production et/ou de controle d’une piece en materiaux composites

Publications (2)

Publication Number Publication Date
FR3044767A1 true FR3044767A1 (fr) 2017-06-09
FR3044767B1 FR3044767B1 (fr) 2017-12-01

Family

ID=55411570

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1561999A Active FR3044767B1 (fr) 2015-12-08 2015-12-08 Moyens de production et/ou de controle d’une piece en materiaux composites

Country Status (1)

Country Link
FR (1) FR3044767B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200027224A1 (en) * 2016-12-14 2020-01-23 Techni-Modul Engineering Means for producing and/or checking a part made of composite materials

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6175644B1 (en) * 1998-05-01 2001-01-16 Cognex Corporation Machine vision system for object feature analysis and validation based on multiple object images
US20080013818A1 (en) * 2005-08-22 2008-01-17 Shakespeare Method and apparatus for measuring the crepe of a moving sheet
US20110299784A1 (en) * 2010-06-02 2011-12-08 Indian Institute Of Technology Kanpur Image Based Structural Characterization of Fibrous Materials
US20120206593A1 (en) * 2011-02-14 2012-08-16 Keyence Corporation Defect Detection Apparatus, Defect Detection Method, And Computer Program
US20130083999A1 (en) * 2011-09-30 2013-04-04 Anurag Bhardwaj Extraction of image feature data from images
EP2896496A1 (fr) * 2014-01-17 2015-07-22 The Boeing Company Procédé et système permettant de déterminer et de vérifier l'orientation d'un stratifié composite

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6175644B1 (en) * 1998-05-01 2001-01-16 Cognex Corporation Machine vision system for object feature analysis and validation based on multiple object images
US20080013818A1 (en) * 2005-08-22 2008-01-17 Shakespeare Method and apparatus for measuring the crepe of a moving sheet
US20110299784A1 (en) * 2010-06-02 2011-12-08 Indian Institute Of Technology Kanpur Image Based Structural Characterization of Fibrous Materials
US20120206593A1 (en) * 2011-02-14 2012-08-16 Keyence Corporation Defect Detection Apparatus, Defect Detection Method, And Computer Program
US20130083999A1 (en) * 2011-09-30 2013-04-04 Anurag Bhardwaj Extraction of image feature data from images
EP2896496A1 (fr) * 2014-01-17 2015-07-22 The Boeing Company Procédé et système permettant de déterminer et de vérifier l'orientation d'un stratifié composite

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200027224A1 (en) * 2016-12-14 2020-01-23 Techni-Modul Engineering Means for producing and/or checking a part made of composite materials

Also Published As

Publication number Publication date
FR3044767B1 (fr) 2017-12-01

Similar Documents

Publication Publication Date Title
JP6312370B2 (ja) ウェーハジオメトリ計測ツールによるウェーハ表面フィーチャの検出、分類および定量化のためのシステムおよび方法
EP0054598B1 (fr) Procédé d'inspection et de tri automatique d'objets présentant des configurations avec des tolérances dimensionnelles fixes et équipement de mise en oeuvre
CN112150460B (zh) 检测方法、检测系统、设备和介质
TWI751372B (zh) 用於缺陷偵測之系統及方法
CN112200790B (zh) 布料缺陷检测方法、设备和介质
US10533953B2 (en) System and method for wafer inspection with a noise boundary threshold
WO2020087004A1 (fr) Sélecteur d'algorithmes basé sur des trames d'image
US20220405905A1 (en) Sample observation device and method
FR3044767A1 (fr) Moyens de production et/ou de controle d’une piece en materiaux composites
FR3007174A1 (fr) Methode de traitement de l'image numerique de la surface d'un pneumatique en vue de la detection d'une anomalie
WO2018109286A1 (fr) Moyens de production et/ou de contrôle d'une pièce en matériaux composites
CN116673597B (zh) 用于双v复合型坡口的激光线图像特征提取系统及方法
FR3111574A1 (fr) Détection et localisation d’anomalies d’étalements de poudre par mesures d’émissions acoustiques
JP2005038976A (ja) 最適エッチングパラメタ自動設定システムおよびエッチング出来ばえ評価システム
JP7404399B2 (ja) 欠陥検査システムおよび欠陥検査方法
TW202203147A (zh) 修正拓樸影像資料中方向性漂移的裝置與方法
Zhao et al. Steel plate surface defect recognition method based on depth information
US11330164B2 (en) Determining focus settings for specimen scans
CN112926438A (zh) 检测方法及装置、检测设备和存储介质
CN112926439A (zh) 检测方法及装置、检测设备和存储介质
Iwahori et al. Shape recovery using improved fast marching method for SEM image
FR3126487A1 (fr) Contrôle dimensionnel par projection
Peña et al. Conoscopic Holography feasibility for form error in-situ monitoring in Additive Manufacturing
Hendriks et al. Detecting defects during powder deposition in additive manufacturing
WO2023199266A1 (fr) Systèmes et procédés d'inspection post-réparation d'une surface de travail

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20170609

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9