FR3113325A1 - Système et Procédé de Reconnaissance Automatique des Interfaces dans des Profils de Produits des Pneumatiques - Google Patents

Système et Procédé de Reconnaissance Automatique des Interfaces dans des Profils de Produits des Pneumatiques Download PDF

Info

Publication number
FR3113325A1
FR3113325A1 FR2008268A FR2008268A FR3113325A1 FR 3113325 A1 FR3113325 A1 FR 3113325A1 FR 2008268 A FR2008268 A FR 2008268A FR 2008268 A FR2008268 A FR 2008268A FR 3113325 A1 FR3113325 A1 FR 3113325A1
Authority
FR
France
Prior art keywords
interfaces
images
neural network
tire
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2008268A
Other languages
English (en)
Other versions
FR3113325B1 (fr
Inventor
Mohamed-Abbas KONATE
Priyanka PHUTANE
Thierry Chateau
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Compagnie Generale des Etablissements Michelin SCA
Original Assignee
Compagnie Generale des Etablissements Michelin SCA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Compagnie Generale des Etablissements Michelin SCA filed Critical Compagnie Generale des Etablissements Michelin SCA
Priority to FR2008268A priority Critical patent/FR3113325B1/fr
Priority to CN202180057718.2A priority patent/CN116157830A/zh
Priority to KR1020237006119A priority patent/KR20230044453A/ko
Priority to EP21745674.8A priority patent/EP4193331A1/fr
Priority to US18/019,151 priority patent/US20230281976A1/en
Priority to PCT/EP2021/070853 priority patent/WO2022028937A1/fr
Publication of FR3113325A1 publication Critical patent/FR3113325A1/fr
Application granted granted Critical
Publication of FR3113325B1 publication Critical patent/FR3113325B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

L’invention concerne un procédé mis en œuvre par un ordinateur pour former un modèle de reconnaissance automatique des positions dans des profils des produits de pneumatiques, de sorte qu’un terme d’erreur est calculé par rapport à un label attribué dans une référence des interfaces cherchées dans des images capturées des profils de produits des pneumatiques qui serviront d'entrées au réseau neuronal d’être entrainé. L’invention concerne aussi un système (100) pour reconnaitre automatiquement des variations interfaces capturées dans les images des échantillons selon le procédé divulgué. Figure pour l’abrégé : Fig 3

Description

Système et Procédé de Reconnaissance Automatique des Interfaces dans des Profils de Produits des Pneumatiques
L’invention concerne un procédé pour former un modèle de reconnaissance automatique des variations de matière dans des profils de produits de pneumatiques (y compris la production de produits destinés à être incorporés dans des pneumatiques).
Contexte
Dans le domaine des pneumatiques, on exige que le pneumatique ait diverses performances (par exemple, une résistance au roulement réduite, une meilleure résistance à l’usure, une adhérence comparable dans des conditions humides et sèches, un kilométrage suffisant, etc.). Un pneumatique est un objet ayant une géométrie connue comprenant généralement plusieurs couches de gomme superposées (ou « couches »), ainsi qu’une structure métallique ou en fibres textiles constituant une carcasse de renfort de la structure de pneumatique. La nature de la gomme et la nature du renfort sont choisies en fonction des caractéristiques finales recherchées.
Le pneumatique comprend également une bande de roulement, rajoutée sur la surface extérieure de pneumatique. En se référant à la figure 1, un pneumatique 10 représentatif comprend une bande de roulement 12 destinée à entrer en contact avec un sol par l’intermédiaire d’une surface de roulement 12a. Le pneumatique 10 comprend en outre une armature de sommet comprenant une armature de travail 14 et une armature de frettage 16, l’armature de travail 14 ayant deux couches de travail 14a et 14b. Le pneumatique 10 comprend aussi deux flancs (un flanc 18 étant représenté dans la figure 1) et deux bourrages 20 renforcés avec une tringle 22. Une couche carcasse radiale 24 s'étend d'un bourrelet à l'autre en entourant le tringle de manière connue. La bande de roulement 12 comporte des renforcements constitués, par exemple, des couches superposées comportant des fils de renforcement connus. Dans des modes de réalisation du pneumatique 10, le pneumatique peut inclure une gomme 26 qui évacue l’électricité statique produite lors du roulage.
Lors de la fabrication des pneumatiques, les échantillons des pneumatiques sont étudiés pour développer différentes performances des pneumatiques. Ces échantillons comprennent des coupes de pneumatiques qui révèlent le profil général de la section transversale du produit de pneumatique (ou "profil du produit") ainsi que le profil de la section transversale de chaque couche utilisée pour construire le produit final du pneumatiques ("profil de la couche"). Ces coupes révèlent également les limites entre des couches adjacentes superposées ("limite » ou « limites » de couche ou des couches) et si ces limites sont correctement alignées les unes par rapport aux autres afin de garantir l'intégrité du pneumatique final.
Il existe déjà plusieurs solutions pour mesurer des paramètres qui gouvernent l’incorporation correcte des couches dans un profil de produit. Par exemple, le brevet US5865059 divulgue un appareil utilisant un capteur hydraulique à rétrodiffusion pour mesurer l’épaisseur de matériaux non-métalliques sous forme de films et leurs équivalents. Le brevet US7909078 divulgue un système incorporant un laser qui balaye une surface d’un profil de produit et un ou des moyens pour générer des données de mesure incrémentales en temps réel (étant un système pour mesurer l’extérieur des profils de produit sans capacité à mesurer l’intérieur des profils complexes). Le brevet EP2404136 divulgue un appareil de mesure d’une bande de roulement d’un pneumatique comprenant une pluralité de moyens photoémetteurs, des moyens de réflexion et des moyens d’imagerie pour mesurer une profondeur de la bande de roulement.
Dans le domaine de l’intelligence artificielle, les réseaux de neurones (appelés également des « réseaux neuronaux ») sont connus. Leur fondement est d’être « entraîné » sur un grand nombre de situations. Grâce à l'ajustement des coefficients de pondération dans une phase d'apprentissage, les performances des réseaux de neurones peuvent décrire une situation nouvelle qui leur serait présentée. Pour ce qui est, par exemple, de la reconnaissance d’objets et leur classification, des réseaux de neurones comme GoogleNet, Inception ou Resnet sont connus. Dans un exemple spécialisé, l’algorithme « Profound AI » (ou « Deep AI ») est spécialisé dans la recherche de tumeur cancéreuses (voir la publication « Artificial Intelligence for Digital Breast Tomosynthesis – Reader Study Results », https://www.icadmed.com/assets/dmm253-reader-studies-results-rev-a.pdf).
En se référant à la figure 2, une architecture représentative d’un réseau neuronal artificiel (ou « réseau neuronal » NN (aussi appelé « neural network » ou « artificial neural network » ou « ANN » en anglais) est donnée à titre d’exemple. Le réseau neuronal NN de la figure 2 comprend une couche d’entrée E ayant une ou plusieurs neurones NE, une ou plusieurs couches cachées (aussi appelées « couches « intermédiaires ») IX(où X variant de 1 à N en fonction du nombre de couche cachées dans le réseau employé), et une couche de sortie S ayant une ou plusieurs neurones NS. Par le biais d’un algorithme conçu pour modifier le poids des connexions dans le réseau, le réseau neuronal NN permet d’apprendre à partir de nouvelles données (par exemple, pour effectuer une tâche spécifique en analysant des exemples pour s’entrainer).
Il est entendu que le réseau de neurones NN est donné à titre d’exemple, et que plusieurs types de réseaux de neurones sont connus et qui peuvent utiliser des méthodes d’apprentissage distinctes, y compris l’apprentissage supervisé (dans lequel le réseau NN , s’entraîne sur un ensemble de données étiquetées, se modifie jusqu’à être capable d’ obtenir le résultat souhaité), l’apprentissage non-supervisé (dans lequel les données ne sont pas étiquetées pour que le réseau puisse s’adapter pour augmenter la précision de l’algorithme), .l’apprentissage renforcé (dans lequel,le réseau de neurones est renforcé pour les résultats positifs et sanctionné pour les résultats négatifs) , l’apprentissage actif ( le réseau demande au fur et à mesure des exemples et labels pour raffiner sa prédiction )(voirhttps://www.lebigdata.fr/reseau-de-neurones-artificiels-definition). Des exemples des réseaux neuronaux sont présentés dans l’art antérieur (voir, exemple « The Neural Network Zoo », Fjodor Van Veen,https://www.asimovinstitute.org/neural-network-zoo/)(14 septembre 2016).
En plus, l'introduction d'algorithmes d'apprentissage profond a amélioré les performances de détection, de localisation, d'identification et de classification des objets. Dans plusieurs domaines, une grande partie de la performance d’un système d’imagerie vient déjà de sa capacité à gérer plusieurs images et d’en « superposer » les interprétations. Par exemple, la publication WO2018/009405 divulgue un système de segmentation d’instances couplé à un système d’acquisition pour faire la détection automatique et la localisation d'un objet anatomique (un objet interne) dans une image générée par un système d'imagerie. Le système associe un matériel bien spécifique à de l’intelligence artificielle dans le but d’en faire de la segmentation. Il s’agit ici de segmentation d’instances, le but n’étant pas de mesurer quoique ce soit mais de détecter et identifier de manière univoque un élément dans l’image. De plus, le système est composé de plusieurs réseaux de neurones pour la localisation et classification, et pour la segmentation.
La publication US20190287237 divulgue un système pour analyser une carrosserie automobile (des surfaces externes) sur laquelle passe un système photographique d’acquisition. Celui-ci est couplé à un algorithme basé sur de l’intelligence artificielle pour analyser les reflets de la carrosserie et en déduire si des défauts (par exemple, des bosses) sont présents, en utilisant de la normalisation d’histogramme dans ce système.
Dans le domaine des pneumatiques, il est donc possible à rajouter des possibilités d’éclairages et de prises de vues pour faire regarder sous divers angles les profils du produit, pour en identifier les contours internes avec plus de précision. La détection et la segmentation des produits en cours de fabrication permettent de rechercher, de trouver et d'identifier les profils de produits et les limites entre eux. Il est donc important de détecter la non-conformité avec les paramètres du profil du produit et de signaler la nécessité d'une intervention avant l'exécution des processus de production en aval.
Ainsi, l’invention divulguée nous permet donc de répondre à un besoin de mesure qualité de nos couches / couches pour garantir la performance de nos produits pneumatiques. Pour éviter des solutions matérielles chères et pas adaptable à chaque usine, nous proposons donc l’invention qui utilise un entrainement à base de réseaux de neurones et d’images. Cet entrainement peut s’adapter à chaque usine et automatise la mesure qualité des profils externes et internes.
L’invention concerne un procédé mis en œuvre par un ordinateur pour former un modèle de reconnaissance automatique des positions dans des profils des produits de pneumatiques, caractérisé en ce que le procédé comprend les étapes suivantes :
- une étape de fourniture d’un système pour reconnaitre automatiquement des interfaces capturées dans des images des profils de produits des pneumatiques ;
- une étape de création d’une référence des interfaces cherchées dans les images capturées des profils de produits des pneumatiques , la référence des interfaces comprenant des couches superposées dans des profils de produit et les interfaces entre eux qui sont révélées par les images capturées ;
pour chacun d’un ensemble d'échantillons de pneumatiques obtenus à partir d’un ou des produits de pneumatique :
- une étape de capture des images des profils de produits des pneumatiques qui est réalisée par le système ;
- une étape d’analyse des images capturées ;
- une étape d’entrainement d’un réseau neuronal pendant laquelle les images capturées sont découpées en imagettes et labelisées, pendant laquelle le réseau neuronal prend en entrée les imagettes de même dimension, et pendant laquelle le réseau neuronal ressort d’une image correspondante de même dimension qui représente sa prédiction de la position des interfaces des profils de produit; et
- une étape de comparaison pendant laquelle des prédictions des positions des interfaces des profils de produit sont utilisées pour construire au moins un modèle représentant les interfaces vraies dans les images capturées par rapport aux interfaces prévues dans la référence des interfaces ;
de sorte que l’image ressortie du réseau neuronal est comparée en calculant un terme d’erreur par rapport au label attribuée dans la référence des interfaces, avec un décalage entre les interfaces vraies et les interfaces prévues étant dénoté par une erreur résiduelle entre la prédiction de la position des interfaces des profils de produit et du modèle construit pendant l’étape d’entrainement, une telle erreur indiquant une variation dans l’échantillon .
Dans certains modes de réalisation du procédé, le procédé comprend en outre une étape de découpage pour obtenir au moins un échantillon à partir d’un ou des produits de pneumatique.
Dans certains modes de réalisation du procédé, l’étape de capture des images des profils de produits des pneumatiques comprend une étape de capture des images sous divers éclairages encodés.
Dans certains modes de réalisation du procédé, l’étape de comparaison comprend une étape de mesure de la précision du réseau neuronal pendant laquelle une valeur métrique est attribuée au réseau neuronal qui représente une mesure de sa précision.
Dans certains modes de réalisation du procédé, l’étape de mesure de la précision du réseau neuronal est réalisée d’une manière itérative jusqu’à l’attente d’une valeur métrique constante supérieure à 0.5.
Dans certains modes de réalisation du procédé, le procédé comprend en outre une étape de défilement de l’échantillon découpé vers le système.
Dans certains modes de réalisation du procédé, l’étape de création de la référence des interfaces comprend une étape d’entrainement du réseau neuronal pendant laquelle le réseau neuronal prend en entrée les vraies positions des interfaces.
L’invention concerne aussi un système pour reconnaitre automatiquement des variations interfaces capturées dans les images des échantillons selon le procédé divulgué, caractérisé en ce que le système comprend une installation d’imagerie qui réalise les étapes de capture des images, d’entrainement et de comparaison, dans lequel l’installation d’imagerie comprend un projecteur de profil numérique qui est configuré à reconnaitre d’un échantillon un profil de produit choisi en correspondance avec une sélection automatique du programme de contrôle correspondant du projecteur, le projecteur incorporant au moins un processeur.
Dans certains modes de réalisation du système, le projecteur comprend un dispositif de capture d'images qui capture des images des échantillons de pneumatiques obtenus.
Dans certains modes de réalisation du système, le dispositif de capture d'images comprend :
- un plateau sensiblement planaire avec une zone de capture prédéfinie ;
- une caméra capable de capturer des images de l’échantillon posé dans la zone de capture prédéfinie ; et
- une source d’éclairage comprenant un ou des éclairages pour servir à une source de lumière sur l’échantillon pendant la capture des images de l’échantillon.
Dans certains modes de réalisation du système, le système comprend en outre une installation de coupe ayant un système de coupe pour couper les produits caoutchouteux et duquel au moins un échantillon est obtenu à partir d’un ou des produits de pneumatique.
D’autres aspects de l’invention vont devenir évidents grâce à la description détaillée suivante.
La nature et les divers avantages de l’invention vont devenir plus évidents à la lecture de la description détaillée qui suit, conjointement avec les dessins annexés, sur lesquels les mêmes numéros de référence désignent partout des parties identiques, et dans lesquels :
La figure 1 représente une vue schématique en section transversale d’un mode de réalisation d’un pneumatique connu.
La figure 2 représente un mode de réalisation d’un réseau neuronal artificiel connu.
La figure 3 représente une vue schématique d’un mode de réalisation d’un procédé de reconnaissance automatique de l’invention.
La figure 4 représente une vue schématique d’un mode de réalisation d’une installation d’imagerie d’un système de reconnaissance automatique de l’invention.
Les figures 5 et 6 représentent des images représentatives qui sont obtenues par l’installation d’imagerie de la figure 4.
La figure 7 représente une vue en coupe latérale d’un échantillon d’une bande de roulement traité pendant un procédé pour former un modèle de reconnaissance automatique de l’invention.
Description détaillée
En se référant maintenant aux figures 3 et 4, sur lesquelles les mêmes numéros identifient des éléments identiques, la figure 3 représente un système de reconnaissance automatique des interfaces (ou « système ») 100 de l’invention. Le système 100 réalise un procédé pour reconnaitre automatiquement des variations parmi des interfaces capturées dans les images des profils de produits des pneumatiques. Dans le procédé réalisé, les images sont obtenues des coupes de produits de pneumatiques (ou « échantillons »), tels que les couches superposées dans la construction des pneumatiques, en utilisant des algorithmes d'apprentissage profond qui sont mis en œuvre via les systèmes d'imagerie disponibles dans le commerce.
Les échantillons traités par le système 100 comprennent des coupes de produits de pneumatiques du type représenté dans la figure 1. Le pneumatique se constitue élément profilé complexe en caoutchouc, étant un élément profilé composé de différents éléments profilés fabriqués à partir de différents composés élastomères et assemblés les uns aux autres. En considérant qu’on exige que le pneumatique ait diverses performances (par exemple, une résistance au roulement réduite, une meilleure résistance à l’usure, une adhérence comparable dans des conditions humides et sèches, un kilométrage suffisant, etc.), le pneumatique peut comprendre des couches de caoutchouc superposées, y compris des couches de caoutchouc renforcé, comprenant des mélanges de caoutchouc différents choisis en fonction des caractéristiques finales recherchées.
La constitution du pneumatique est typiquement décrite par une représentation de ses constituants dans un plan méridien, c'est-à-dire un plan contenant l'axe de rotation du pneumatique. Les directions radiale, axiale et circonférentielle désignent respectivement les directions perpendiculaire à l'axe de rotation du pneumatique, parallèle à l'axe de rotation du pneumatique, et perpendiculaire à tout plan méridien. Les expressions « radialement », « axialement » et « circonférentiellement » signifient respectivement « selon une direction radiale », « selon la direction axiale » et « selon une direction circonférentielle » du pneumatique. Les expressions « radialement intérieur » et « respectivement radialement extérieur » signifient « plus proche, respectivement plus éloigné, de l'axe de rotation du pneumatique, selon une direction radiale.
En se référant encore à la figure 3, le système 100 comprend une installation de coupe 200 où les échantillons sont obtenus à partir d’un ou des produits de pneumatique. L’installation de coupe 200 comprend un système de coupe avec un ou des moyens de coupe qui sont connus pour couper les produits caoutchouteux, y compris, sans limitations, une ou des scies, une ou des lames, un ou des couteaux et/ou leurs équivalents. Au moins un moyen de défilement (par exemple, un ou plusieurs axes de transport) transporte le produit de pneumatique vers le moyen de coupe selon un trajet de défilement prédéfini. Le moyen de défilement peut comprendre un dispositif de maintien latéral qui assure le positionnement sensiblement linéaire et aligné du produit de pneumatique par rapport au moyen de coupe. Le moyen de défilement transporte les échantillons obtenus du moyen de coupe vers une installation en aval de l’installation de coupe 200 où un processus de reconnaissance automatique est réalisé. Dans un mode de réalisation de l’installation de coupe 200, chaque moyen de coupe peut être couplé avec un actionneur linéaire qui ajuste la position de l’échantillon coupé (par exemple, pour assurer un alignement relatif entre le produit de pneumatique et le moyen de coupe qui obtient une coupe optimisée). Chaque actionneur linéaire fonctionne comme connu (par exemple, pneumatiquement ou hydrauliquement). A titre d’exemple, le système de coupe peut comprendre un dispositif de découpe du profil d’une bande de roulement du type divulgué par le brevet FR3052388 de la Demanderesse.
En se référant encore à la figure 3, et en outre à la figure 4, le système 100 comprend en outre une installation d’imagerie 300 où les images des interfaces d'échantillons sont obtenues. L’installation d’imagerie 300 est intégrable dans des lignes de production des pneumatiques déjà installées.
La figure 4 représente un mode de réalisation d’un projecteur de profil numérique (ou « projecteur ») 302 installé à l’installation d’imagerie 300 et incorporant au moins un processeur (non représenté) qui est configuré à détecter, localiser et segmenter un ou plusieurs images d’échantillon capturées par le projecteur. Le terme "processeur" désigne un dispositif capable de traiter et d'analyser des données et comprenant un logiciel pour leur traitement (par exemple, un ou plusieurs circuits intégrés connus par l’homme de métier comme étant inclus dans un ordinateur, un ou plusieurs contrôleurs, un ou plusieurs microcontrôleurs, un ou plusieurs micro-ordinateurs, un ou plusieurs automates programmables (ou « PLC »), un ou plusieurs circuits intégrés spécifiques à une application, un ou plusieurs réseaux de portes programmables sur site (ou « FPGA »), et/ou un ou plusieurs autres circuits programmables équivalents connus). Le processeur comprend un logiciel pour le traitement des images capturées par l’installation d’imagerie (et les données correspondantes obtenues) ainsi qu'un logiciel pour l'identification et la classification des profils de produits et les interfaces entre des couches superposées dedans.
Le projecteur 302 peut être choisi parmi des systèmes de la vision optique qui sont disponibles dans le commerce. Dans le mode de réalisation représenté dans la figure 4, le projecteur 302 est un système de mesure bidimensionnel (ou « 2D ») incorporant une reconnaissance d’un échantillon un profil de produit, ce système étant choisi en correspondance avec une sélection automatique du programme de contrôle correspondant. Il est entendu que le projecteur 302 peut être choisi parmi des projecteurs disponibles dans le commerce pour mesurer des objets (y compris les échantillons obtenus à l’installation de coupe 200) et pour enregistrer les mesures obtenues (par exemple, le projecteur 302 peut être du type offert par la société Ayonis, mais il est entendu que d’autres projecteurs équivalents peuvent être utilisés).
Le projecteur 302 comprend un dispositif de capture d'images (ou « dispositif ») 304 qui capture des images de l’échantillon obtenues à l’installation de coupe 200. Le projecteur 302 comprend en outre un plateau porte-échantillons (ou « plateau ») 306 sensiblement planaire. Le plateau 306 inclut une zone de capture (ou « zone ») prédéfinie dans laquelle l’échantillon est posé pendant la capture d'images de l’échantillon. L'image (ou les images) capturée par le dispositif 304 est transmise à un dispositif de traitement d'image (par exemple, le processeur) qui peut traiter, identifier et classer les profils de produit incorporés dans les échantillons. Il est entendu que la position du plateau 306 peut être modifiée d’une manière rotative par rapport au dispositif 304 pour capturer des images d’échantillon à plusieurs angles différents.
Le dispositif de capture d'images 304 comprend une caméra 304a telle qu'une caméra vidéo et/ou photographique, une caméra infrarouge, une caméra ultraviolette, un ensemble de capteurs électromagnétiques capables de capturer une image, et leurs équivalents. Le dispositif de capture d'images 304 comprend aussi une source d’éclairage 304b ayant un ou des éclairages (par exemple, des LED programmables connus) pour servir à une source de lumière sur l’échantillon. Les éclairages peuvent être encodés dans le dispositif 304, ou ils peuvent être pré-codés pendant un processus d’entrainement d’un réseau neuronal (par exemple, en utilisant un ou des programmes informatiques incorporant des données représentatives des éclairages et des images des interfaces connues des profils de produits des pneumatiques). Les changements de la source d’éclairage 304b, qui sont capturés dans des images d’échantillon obtenu par la caméra 304a, sont représentés par des pixels d'intensité de couleur différente. Par exemple, les images d’échantillon obtenus peuvent contenir des indications de réflexion en raison d’un changement d’éclairage. Ainsi, l’image capturée par le dispositif de capture d'image 304 révèle les couches superposées dans le profil de produit ainsi que les interfaces entre eux. La caméra 304a et la source d’éclairage 304b peuvent bouger d’une façon alternative ou aléatoire pour ajuster, respectivement, l’objective et l’éclairage en fonction des paramètres de l’échantillon posé dans la zone de capture du plateau 306 (par exemple, en fonction de sa longueur) (voir les flèches A et B de la figure 4).
En se référant encore aux figures 3 et 4, et en outre aux figures 5 et 6, les figures 5 et 6 représentent des images représentatives qui sont obtenues par le projecteur 302.
Chacune entre les figures 5 et 6 représente une coupe méridienne d’un échantillon un profil de produit de pneumatique en forme d’une bande de roulement. Il est entendu que l’échantillon duquel le ou les images sont générées par l’installation d’imagerie 300peut prendre une autre forme de profil de produit.
La figure 5 représente une image d’un profil de produit de pneumatique en forme d’une bande de roulement 400. La bande de roulement 400 est destinée à entrer en contact avec un sol par l'intermédiaire d'une surface de roulement 400a. Dans l’architecture du pneumatique échantillonné, plusieurs rainures circonférentielles (ou « rainures ») 402 sont disposées dans la bande de roulement 400, chacune avec une largeur 402a et une profondeur 402b prédéfinies (il est entendu que la largeur et la profondeur des rainures 402 peuvent être différentes d’une rainure à l’autre). La profondeur 402b d'une rainure 402 représente la distance radiale maximale entre la surface de roulement 400a et une face de fond 402c de la rainure.
Dans la figure 5, où la surface de roulement 400 est sensiblement continue avec la surface axiale extérieure du pneumatique, on trace, sur une coupe méridienne du pneumatique, la tangente à la surface de roulement en tout point de ladite surface de roulement dans la zone de transition vers le flanc. Le premier bord axial 404 est le point où un angle β est défini entre ladite tangente et une direction axiale Y-Y' (c.-à-d., le point radialement le plus à l'extérieur). On procèdera de la même manière pour déterminer le second bord axial 406 de la bande de roulement 400. L’image du profil de la bande de roulement 400 qui est capturée par le projecteur 302 est représentée par le contour externe E.
La figure 6 représente une image d’un deuxième profil de produit de pneumatique en forme d’une bande de roulement 500 avec une surface de roulement 500a, la figure 6 représentant également la largeur axiale de la surface de roulement LSR et la largeur axiale de la surface de roulement hors épaule LSR’. Dans l’architecture du pneumatique échantillonné, représenté dans la figure 6, plusieurs rainures 502 sont disposées dans la bande de roulement 500, chacune avec une largeur 502a et une profondeur 502b prédéfinies (il est entendu que la largeur et la profondeur des rainures 502 peuvent être différentes d’une rainure à l’autre). Dans la figure 6, le bord axial 504 est déterminé par le projecteur 302. Une distance radiale est définie entre une surface radialement extérieure d’une couche superposée et ondulée (par exemple, comme désignée par le point F de la figure 6) et le point le plus radialement extérieur d’une nervure 505, cette distance étant à l'aplomb du centre d’une face de fond 502c de la rainure 502. Une distance radiale est définie entre la surface radialement extérieure de la couche superposée la plus radialement extérieure et le point le plus radialement extérieur de la nervure 505 à un niveau d’une ondulation de la couche superposée (par exemple, comme désignée par le point F de la figure 6). Dans des modes du pneumatique incorporant un témoin d’usure, une distance radiale peut être définie entre la surface de roulement 500a et le point le plus radialement extérieur du témoin d'usure. L’image du profil de la bande de roulement 500 qui est capturée par le projecteur 302 est représentée par le contour externe E’ et par les contours internes I.
Le projecteur 302 utilise des outils connus (par exemple, des outils optiques, mathématiques, géométriques et/ou statistiques) et des éclairages programmables ensemble avec un logiciel qui permet le contrôle des échantillons, l’exploitation des résultats de mesure et le suivi et de l’utilisation du moyen de contrôle. Le projecteur 302 inclut un ou des modes de programmation, y compris par apprentissage, pour alimenter, modifier et entraîner un réseau neuronal. On fait le choix de la segmentation sémantique au lieu de la segmentation d’instance pour que l’invention puisse généraliser à n’importe quel profil de produit. Comme utilisé ici, la « segmentation sémantique » comprend un processus dans lequel une étiquette est attribuée à chaque pixel d’une image pour traiter plusieurs objets de la même classe comme une seule entité. Une architecture générale de segmentation sémantique peut être considérée comme un réseau d'encodeurs (par exemple, un réseau de classification préformé comme GoogleNet, Inception, Resnet ou un ou des équivalents des tels réseaux) suivi d'un réseau de décodeurs. Le processeur peut utiliser les données de vérité terrain (ou « ground truth » en anglais) pour entraîner et/ou développer le réseau neuronal afin de détecter automatiquement l'espace où l'objet (par exemple, le profil de produit) est censé se trouver et/ou l'espace caoutchouteux environnant. Les données de vérité terrain sont représentées dans une référence des interfaces créée pendant un procédé de reconnaissance automatique de l’invention (décrit ci-dessous).
Une projection lumineuse en provenance de la source d’éclairage 304b se reflète sur l'échantillon et la capture de l'image résultante obtenue par le projecteur 302. L'image est composée d'une matrice de pixels, chaque pixel ayant une couleur différente et une luminosité qui indique la position du profil de couche de l’échantillon. Le logiciel utilisé pour l'identification des variations le long du profil de couche peut transformer l'image capturée en un ensemble d'images 2D, chaque image étant identique à une variation d’éclairage près, de la limite du profil de produit (ou une variation du profil de couche). Les variations d’images obtenues, révélant une ou des positions de la limite du profil de produit, entraînent le réseau neuronal pour identifier toutes les positions de la limite du profil de produit. Ces variations d’images servent d'entrée donc au réseau neuronal dont les sorties sont la classification des positions en tant que limite du profil ou non. L’algorithme a pour le but de repérer et d’indiquer automatiquement le profil externe de l’échantillon ainsi que les interfaces internes entre les profils des couches, et puis d’en donner les mesures exactes des profils externes et/ou internes. Il est entendu que le réseau neuronal peut être mis en œuvre, y compris, mais sans s'y limiter, les réseaux neuronaux convolutifs et leurs équivalents.
Les segments classés comme incorporant une variation (et donc une anomalie potentielle) sont superposés à l'image originale. Dans les concrétisations de l'invention où cette étape comprend la capture de plusieurs images, chaque image inclut la variation déplacée par rapport à l'image précédente, de sorte que tous les points de la variation sont montrés par rapport au reste de l'échantillon. Des variations différentes peuvent avoir des paramètres et/ou des « poids » différents, et elles seront donc traitées différemment lors de l'alimentation de l'algorithme de classification.
Dans certains modes de réalisation du système 100, plusieurs ensembles d'échelles dimensionnelles peuvent être analysés indépendamment de manière à créer un classificateur multi-échelle. Dans ces modes de réalisation, le classificateur multi-échelles peut recouvrir les informations de tous les classificateurs, et il peut montrer tous les segments de variations.
Le processeur du projecteur 302 forme en permanence le réseau neuronal à partir des données nouvellement saisies des images des échantillons obtenus par le projecteur. Afin de détecter automatiquement les limites entre les couches du produit et/ou le caoutchouc environnant, le projecteur 302 prend des images (qui peuvent inclure des vidéos) et recueille un ensemble de données d'images du profil du produit et/ou du caoutchouc environnant à partir de plusieurs échantillons de produits. Avant d'être enregistré, l'ensemble de données des images peut être annoté sur la base des données saisies par l'utilisateur pour créer les données de vérité de terrain. Par exemple, dans certaines modes de réalisation, pour aider le réseau neuronal à détecter et identifier les limites du profil et/ou le caoutchouc environnant l'ensemble des données des images est annoté, et les variations connues sont identifiés manuellement, sur la base des connaissances de professionnels des pneumatiques. En tant que telles, les données de vérité de terrain telles que décrites ici se réfèrent généralement à des informations fournies par l'observation directe des professionnels sur le terrain par opposition aux informations fournies par inférence. Elles peuvent disposer de données provenant de plusieurs sources, y compris de plusieurs professionnels situés dans des endroits éloignés, pour développer le réseau neuronal. Une boucle de rétroaction des images annotées peut être mise à jour avec des données de vérité de terrain supplémentaires au fil du temps afin d'améliorer la précision du système 100.
Le jeu de données des images peut être divisé en plusieurs groupes (par exemple, les données de vérité de terrain peuvent être divisées en groupes comprenant au moins un jeu de données de formation et un jeu de données de validation). Dans certaines versions, le processeur peut être configuré pour mettre en œuvre un apprentissage supervisé afin de minimiser l'erreur entre la sortie du réseau neuronal et les données de vérité de terrain (appelé "apprentissage supervisé"). Il est entendu que d'autres techniques d'apprentissage approfondi peuvent être utilisées, y compris, mais sans s'y limiter, l'apprentissage par renforcement, l'apprentissage non supervisé, etc. Dans certains modes de réalisation, le développement des données de formation peut reposer sur une fonction de récompense/punition, de sorte qu'il n'est pas nécessaire de spécifier des données étiquetées.
Le réseau neuronal peut être utilisé en quasi temps réel pour fournir des prédictions sur les données de validation ainsi que sur les données nouvellement saisies. Le réseau neuronal peut être formé pour localiser et segmenter les données de profil du produit (définies comme les données de limites de profil du produit). Le réseau neuronal peut être aussi formé pour localiser et segmenter les données de profil de couche (définies comme les données de limites de profil de couche qui peuvent inclure les données de caoutchouc environnantes). Les différences entre l'entraînement du réseau neuronal à localiser l'objet du profil de produit et l'entraînement du réseau neuronal à segmenter l'objet du profil incluent la façon dont les données sont étiquetées et les détails architecturaux.
Il est entendu que le réseau neuronal peut être formé avec des données des images acquises par le projecteur 302 à partir d'échantillons multiples. Il est également entendu que le réseau neuronal peut être formé par plusieurs installations d'imagerie (y compris ceux du type représenté par l’installation d’imagerie 300) qui ont acquis des données de profil à partir de nombreux échantillons au fil du temps. Pour toutes les incarnations, il peut y avoir des variations dans la taille, l'intensité, le contraste et/ou la texture de l'image.
Le système 100 utilise donc une méthode innovante pour construire de grands ensembles de formation étiquetés, et ainsi former un réseau suffisamment grand pour utiliser efficacement toutes les données acquises.
En se référant encore aux figures 3 à 6, une description détaillée est donnée à titre d’exemple d’un procédé de reconnaissance automatique (ou « procédé ») de l’invention réalisé par le système 100.
En lançant un procédé de reconnaissance automatique de l’invention, le procédé de reconnaissance automatique comprend une étape de création d’une référence des interfaces cherchées dans des images d’être capturées par le projecteur 302. La référence des interfaces qui est créée pendant cette étape comprend des images attendues correspondant aux couches superposées dans des profils de produit et les interfaces entre eux qui sont révélées par les images capturées par le projecteur (y compris les contours externes et les contours internes des profils de produits). Cette étape peut être réalisée en avance d’autres étapes du procédé pour alimenter le réseau neuronal les vraies positions des interfaces attendues en analysant les images capturées. Cette étape comprend la création des négatifs des images capturées, avec chaque négatif étant une « étiquette » ou un « label » ou étant « labélisé ». Dans des modes de réalisation du procédé, au moins une partie de la référence des interfaces est créée par un ou des hommes du métier.
Le procédé de reconnaissance automatique comprend en outre une étape de découpage pour obtenir un ou des échantillons de profil de produit de pneumatique. Cette étape, étant réalisée par l’installation de coupe 200 du système 100, peut être réalisée d’une manière itérative en fonction de nombre d’échantillons prévu pour alimenter le réseau neuronal. Dans des modes de réalisation du procédé, cette étape comprend l’étape de découpage d’un pneumatique dans une coupe méridienne qui sert à déterminer les différentes distances radiales, le centre des faces de fond des rainures et des sillons. S’il faut changer le moyen de coupe (soit pendant l’étape de découpage soit entre les cycles du procédé), le système 100 permet un réentrainement rapide de recaler le réseau neuronal.
Le procédé de reconnaissance automatique comprend en outre une étape de capture des images de l’échantillon découpé, cette étape étant réalisée par le projecteur 302, et plus particulièrement, par le dispositif de capture d'images 304. Cette étape comprend l’étape de pose de l’échantillon découpé dans la zone de capture du plateau 306 du dispositif 304. Cette étape comprend en outre la capture des images sous divers éclairages réalisés par la source d’éclairage 304b du dispositif 304. Les éclairages peuvent être réalisés en fonction du nombre d’images d’être capturé avec une mise au point automatique. Dans un mode de réalisation du système 100, le système peut faire défiler l’échantillon découpé vers le plateau 306. Dans ce mode de réalisation, l’étape de capture des images comprend en outre une étape de défilement de l’échantillon découpé vers le plateau 306, cette étape comprenant l’étape de pose de l’échantillon dans la zone de capture du plateau.
Il est entendu que chaque image capturée peut inclure des traces réfléchies sur une zone plus sombre du matériau caoutchouteux où il n’y a pas d’incidence directe de la lumière. Dans ce cas, l’image est composée d’une matrice de pixels ayant des couleurs et des luminosités différentes.
Dans un mode de réalisation, pendant l’étape de capture des images, le projecteur 302 peut produire automatiquement plusieurs images hautes résolutions en faisant varier la configuration des incidences d’éclairages et leur intensité. L’intensité est volontairement variable pour augmenter la robustesse du réseau neuronal. Au lieu d’un entrainement du réseau neuronal sur la base de la même intensité, où il serait trop sensible aux éventuelles variations dues, par exemple, à une perte de luminosité (en raison de vieillissement des diodes, encrassement de l’écran ou modification environnementale), l’acuité du réseau neuronal est assurée.
Le procédé de reconnaissance automatique de l’invention comprend en outre une étape d’analyse des images capturées par le projecteur 302. A titre d’exemple, chacune des courbes représente une frange (une courbe étant représentée par le profil interne I de l’image capturée dans la figure 6). Chaque frange est divisée en segments. Le critère de division de la frange en segments peut être simplement de diviser chaque frange en segments de la même taille de pixel. De la géométrie et des courbures, on extrait les caractéristiques qui alimentent un algorithme de classification d’anomalies. Les caractéristiques mentionnées ici peuvent inclure, sans limitation, les caractéristiques géométriques du segment et/ou les statistiques des courbures calculées pour chaque point du segment (y compris, sans limitation, la somme des courbures, la moyenne, la variance, l'aplatissement ou des combinaisons de ces statistiques). En outre, une valeur de tolérance peut être déduite des courbures, en dessous de laquelle les courbures ne seraient pas prises en compte dans le calcul des positions du profil limite.
Le procédé de reconnaissance automatique de l’invention comprend en outre une étape d’entrainement pendant laquelle les images capturées sont découpées et labelisées en imagettes encore plus petites. Particulièrement, un nombre d’imagettes souhaitée est défini, ces imagettes étant traitées comme un ensemble singulaire. Ainsi, on considère qu’un ensemble d’une ou plusieurs imagettes prédéterminées couplées avec leur label (et étant donc « labelisées ») constitue un exemple d’entrainement. Chaque exemple d’entrainement se constitue l’ensemble d’imagettes avec leur étiquette ou label. Les imagettes permet de multiplier sensiblement le nombre d’exemples disponibles qui fournissent non seulement les classes (c.-à-d., les labels) mais aussi des informations supplémentaires concernant la localisation spatiale de ces classes par rapport à la région caoutchouteuse.
Pendant l’étape d’entrainement, le réseau neuronal prend en entrée les imagettes de même dimension, et il ressort d’une image correspondante de même dimension qui est sa prédiction de la position des interfaces des profils de produit (« image ressortie » du réseau neuronal). Les prédictions des interfaces des profils de produit sont utilisées pour construire un ou des modèles représentant les interfaces vraies dans les images capturées par rapport aux interfaces prévues dans la référence des interfaces. Un décalage entre les interfaces vraies et les interfaces prévues est dénoté par une erreur calculée, une telle erreur indiquant une variation (et peut être une anomalie potentielle) dans l’échantillon. Les erreurs calculées peuvent être entrées dans la référence des interfaces pour élargir la référence (voir la figure 3).
Le procédé de reconnaissance automatique de l’invention comprend en outre une étape de comparaison pendant laquelle l’image ressortie du réseau neuronal est comparée en calculant un terme d’erreur par rapport au label attribuée dans la référence des interfaces. Une erreur résiduelle entre la prédiction de la position des interfaces des profils de produit et du modèle (construit pendant l’étape d’entrainement) est ensuite utilisée dans un processus d’optimisation qui fait partie de cette étape de comparaison. En effectuant une descente de gradient stochastique (plus ou moins raffinée en fonction de l’ampleur de l’erreur), les paramètres du réseau neuronal sont modifiés pour diminuer cette erreur résiduelle.
L’étape de comparaison comprend une étape de mesure de la précision du réseau neuronal. Pendant cette étape, une valeur appelée « métrique » est attribuée au réseau neuronal (par exemple, une valeur qui part de 0 à 1) qui représente une mesure de sa précision. Plus la métrique est haute, plus le modèle est précis (au sens de la métrique). Cette étape peut être réalisée d’une manière itérative jusqu’à l’attente d’une métrique constante supérieure a minima à 0.5.
A l’issue de l’étape de comparaison, le modèle résultant après toutes les itérations est appelé un « modèle entrainé » qui est sauvegardé. Le modèle entrainé permet d’une inférence fine en faisant des prédictions denses en déduisant des étiquettes pour chaque pixel, de sorte que chaque pixel est étiqueté avec la classe de l'objet correspondant (la variation) et la région qui l'entoure (le caoutchouc). Désormais, lorsque l’on veut prédire la location d’une ou des interfaces dans les images capturées des échantillons, on découpe juste le nombre d’images défini pendant l’étape d’entrainement sans besoin de les labéliser. Le système 100 est donc très souple dans la mesure où il n’a besoin que d’images capturées pour réaliser le procédé de l’invention.
Le système 100 de l’invention est donc basé sur un réseau de neurones dont le fondement est d’être entrainé sur un grand nombre de situations (par exemple, des images des échantillons) pour ensuite pouvoir décrire une situation nouvelle qui lui serait présentée. D’une part, il faut expliquer au réseau neuronal ce qu’il doit reconnaitre, et puis les lui faire apprendre (« annotation »). D’autre part, il faut jauger la performance du réseau neuronal et proposer des échantillons pertinents pour éviter de tomber dans certains biais comme le surentrainement qui vont diminuer la performance du réseau, voire annuler l’utilité du réseau.
Le procédé de reconnaissance automatique de l’invention est réalisé par le système 100 dans un temps réduit par rapport aux dispositifs de mesure de qualité connus (par exemple, par des systèmes de profilomètre). Par exemple, le procédé divulgué prend désormais quelques secondes pour plus de 10,000 pixels au lieu de quelque minutes pour 10 à 15 points manuellement (points dont le nombre sera croissant avec l’augmentation de la complexité des interfaces des profils de produits des pneumatiques).
Avec le système 100, on peut aussi obtenir immédiatement les interfaces internes et externes, leurs images étant rendues accessibles par le même système utilisant le même logiciel. Le procédé de l’invention est donc facilement adapté par les équipes internes pour toutes les architectures des pneumatiques. A titre d’exemple, la figure 7 représente une vue en coupe latérale d’un échantillon d’une bande de roulement 600 qui peut être traité pendant le procédé de l’invention. La bande de roulement 600 représentée incorpore une couche 602 d’usure et d’adhérence à la route, une gomme intérieure profilée (ou « sous-couche ») 604 et une couche 606 d’une gomme qui évacue l’électricité statique produite lors du roulage. Un profil d’une couvre joint 608 est aussi incorporé qui sert d’une protection contre les chocs latéraux. Dans les images capturées, le profil extérieur 600E est bien révélé avec les profils internes (voir le profil 602I, le profil 604I, le profil 606I et le profil 606I de la figure 7) pour réaliser l’automatisation de la mesure des points. Il est entendu que les échantillons ayant d’autres profils de produit auront leurs images capturées alimentées au réseau neuronal pour construire le modèle.
Pour atteindre une productivité industrielle, l’usage d’une solution incorporant l’intelligence artificielle permet de remplacer une description « algorithmique » des cas que l’on cherche à détecter, par un apprentissage et un travail par l’exemple nettement plus simple à mettre en œuvre mais plus difficile à interpréter une fois le résultat donné par le système. L’invention divulguée, elle fait leur localisation, leur détection, supprimant donc la nécessité d’un prétraitement d’images. Cette solution est non seulement très performante, mais aussi souple et adaptable au cas par cas si besoin ou si les conditions opératoires devaient évoluer.
Le système 100 est adaptée pour des pneumatiques composés d’une variété de mélanges de caoutchouc, sans diminution d’une productivité industrielle. De ce fait, l’invention prend en compte la qualité des paramètres mesurés et analysés pour assurer la qualité des pneumatiques.
Le procédé de reconnaissance automatique de l’invention peut être fait par la commande du PLC et peut inclure des pré-programmations des informations de gestion. Par exemple, un réglage de procédé peut être associé avec les paramètres de pneumatique, les propriétés de matériaux caoutchouteux et les paramètres de fonctionnement de la ou les couches ayant des interfaces entre eux.
Dans des modes de réalisation de l’invention, le système 100 (et/ou une installation incorporant le système 100) peut recevoir des commandes vocales ou d'autres données audio représentant, pour exemple, une démarche ou un arrêt de capture des images d’un échantillon posé sur le tableau 306. La demande peut inclure une demande pour l'état actuel d'un cycle de procédé de reconnaissance automatique. Une réponse générée peut être représentée de manière audible, visuelle, tactile (par exemple, en utilisant une interface haptique) et/ou virtuelle et/ou augmentée.
Pour toutes les réalisations de l’installation 100, un système de surveillance pourrait être mis en place. Au moins une partie du système de surveillance peut être fournie dans un dispositif portable tel qu'un dispositif de réseau mobile (par exemple, un téléphone mobile, un ordinateur portable, un ou des dispositifs portables connectés au réseau (y compris des dispositifs « réalité augmentée » et/ou « réalité virtuelle », des vêtements portables connectés au réseau et/ou toutes combinaisons et/ou tous équivalents). Il est envisageable que des étapes de détection et de comparaison puissent être réalisées de manière itérative.
Les termes « au moins un(e) » et « un(e) ou plusieurs » sont utilisés de manière interchangeable. Les gammes qui sont présentées comme se situant « entre a et b » englobent les valeurs « a » et « b ».
Bien que des modes de réalisation particuliers de l’appareil révélé aient été illustrés et décrits, on comprendra que divers changements, additions et modifications peuvent être pratiqués sans s’écarter de l’esprit ni de la portée du présent exposé. Par conséquent, aucune limitation ne devrait être imposée sur la portée de l’invention décrite à l’exception de celles exposées dans les revendications annexées.

Claims (11)

  1. Un procédé mis en œuvre par un ordinateur pour former un modèle de reconnaissance automatique des positions dans des profils des produits de pneumatiques, caractérisé en ce que le procédé comprend les étapes suivantes :
    - une étape de fourniture d’un système (100) pour reconnaitre automatiquement des interfaces capturées dans des images des profils de produits des pneumatiques ;
    - une étape de création d’une référence des interfaces cherchées dans les images capturées des profils de produits des pneumatiques, la référence des interfaces comprenant des couches superposées dans des profils de produit et les interfaces entre eux qui sont révélées par les images capturées ;
    pour chacun d’un ensemble d'échantillons de pneumatiques obtenus à partir d’un ou des produits de pneumatique :
    - une étape de capture des images des profils de produits des pneumatiques qui est réalisée par le système (100) ;
    - une étape d’analyse des images capturées ;
    - une étape d’entrainement d’un réseau neuronal pendant laquelle les images capturées sont découpées en imagettes et labelisées, pendant laquelle le réseau neuronal prend en entrée les imagettes de même dimension, et pendant laquelle le réseau neuronal ressort d’une image correspondante de même dimension qui représente sa prédiction de la position des interfaces des profils de produit; et
    - une étape de comparaison pendant laquelle des prédictions des positions des interfaces des profils de produit sont utilisées pour construire au moins un modèle représentant les interfaces vraies dans les images capturées par rapport aux interfaces prévues dans la référence des interfaces ;
    de sorte que l’image ressortie du réseau neuronal est comparée en calculant un terme d’erreur par rapport au label attribuée dans la référence des interfaces, avec un décalage entre les interfaces vraies et les interfaces prévues étant dénoté par une erreur résiduelle entre la prédiction de la position des interfaces des profils de produit et du modèle construit pendant l’étape d’entrainement, une telle erreur indiquant une variation dans l’échantillon .
  2. Le procédé de la revendication 1, comprenant en outre une étape de découpage pour obtenir au moins un échantillon à partir d’un ou des produits de pneumatique.
  3. Le procédé de la revendication 1 ou de la revendication 2, dans lequel l’étape de capture des images des profils de produits des pneumatiques comprend une étape de capture des images sous divers éclairages encodés.
  4. Le procédé de l’une quelconque des revendications précédentes, dans lequel l’étape de comparaison comprend une étape de mesure de la précision du réseau neuronal pendant laquelle une valeur métrique est attribuée au réseau neuronal qui représente une mesure de sa précision.
  5. Le procédé de la revendication 4, dans lequel l’étape de mesure de la précision du réseau neuronal est réalisée d’une manière itérative jusqu’à l’attente d’une valeur métrique constante supérieure à 0.5.
  6. Le procédé de l’une quelconque des revendications précédentes, comprenant en outre une étape de défilement de l’échantillon découpé vers le système.
  7. Le procédé de l’une quelconque des revendications précédentes, dans lequel l’étape de création de la référence des interfaces comprend une étape d’entrainement du réseau neuronal pendant laquelle le réseau neuronal prend en entrée les vraies positions des interfaces.
  8. Un système (100) pour reconnaitre automatiquement des variations interfaces capturées dans les images des échantillons selon le procédé de l’un quelconque des revendications 1 à 7, caractérisé en ce que le système comprend une installation d’imagerie (300) qui réalise les étapes de capture des images, d’entrainement et de comparaison, dans lequel l’installation d’imagerie comprend un projecteur (302) de profil numérique qui est configuré à reconnaitre d’un échantillon un profil de produit choisi en correspondance avec une sélection automatique du programme de contrôle correspondant du projecteur, le projecteur incorporant au moins un processeur.
  9. Le système (100) de la revendication 8, dans lequel le projecteur (302) comprend un dispositif de capture d'images (304) qui capture des images des échantillons de pneumatiques obtenus.
  10. Le système (100) de la revendication 9, dans lequel le dispositif de capture d'images (304) comprend :
    - un plateau (306) sensiblement planaire avec une zone de capture prédéfinie ;
    - une caméra (304a) capable de capturer des images de l’échantillon posé dans la zone de capture prédéfinie ; et
    - une source d’éclairage (304b) comprenant un ou des éclairages pour servir à une source de lumière sur l’échantillon pendant la capture des images de l’échantillon.
  11. Le système (100) de l’une quelconque des revendications 8 à 10, comprenant en outre une installation de coupe (200) ayant un système de coupe pour couper les produits caoutchouteux et duquel au moins un échantillon est obtenu à partir d’un ou des produits de pneumatique.
FR2008268A 2020-08-04 2020-08-04 Système et Procédé de Reconnaissance Automatique des Interfaces dans des Profils de Produits des Pneumatiques Active FR3113325B1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
FR2008268A FR3113325B1 (fr) 2020-08-04 2020-08-04 Système et Procédé de Reconnaissance Automatique des Interfaces dans des Profils de Produits des Pneumatiques
CN202180057718.2A CN116157830A (zh) 2020-08-04 2021-07-26 用于轮胎产品剖面的自动分界面识别的系统及方法
KR1020237006119A KR20230044453A (ko) 2020-08-04 2021-07-26 타이어 제품 프로파일들에서의 자동 인터페이스 인식을 위한 시스템 및 프로세스
EP21745674.8A EP4193331A1 (fr) 2020-08-04 2021-07-26 Système et procédé de reconnaissance automatique d'interface dans des profils de produits de pneu
US18/019,151 US20230281976A1 (en) 2020-08-04 2021-07-26 System and process for automatic interface recognition in tire product profiles
PCT/EP2021/070853 WO2022028937A1 (fr) 2020-08-04 2021-07-26 Système et procédé de reconnaissance automatique d'interface dans des profils de produits de pneu

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2008268A FR3113325B1 (fr) 2020-08-04 2020-08-04 Système et Procédé de Reconnaissance Automatique des Interfaces dans des Profils de Produits des Pneumatiques
FR2008268 2020-08-04

Publications (2)

Publication Number Publication Date
FR3113325A1 true FR3113325A1 (fr) 2022-02-11
FR3113325B1 FR3113325B1 (fr) 2022-07-08

Family

ID=73138966

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2008268A Active FR3113325B1 (fr) 2020-08-04 2020-08-04 Système et Procédé de Reconnaissance Automatique des Interfaces dans des Profils de Produits des Pneumatiques

Country Status (6)

Country Link
US (1) US20230281976A1 (fr)
EP (1) EP4193331A1 (fr)
KR (1) KR20230044453A (fr)
CN (1) CN116157830A (fr)
FR (1) FR3113325B1 (fr)
WO (1) WO2022028937A1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3133695B1 (fr) * 2022-03-16 2024-03-29 Continental Reifen Deutschland Gmbh Procédé d’identification d’orientation de bande, dispositif d’identification d’orientation de bande, et dispositif d‘extrusion comprenant un tel dispositif d’identification.

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5865059A (en) 1996-06-07 1999-02-02 Electronic Systems S.P.A. Non-contact thickness gauge for non-metallic materials in the form of film, foil, tape and the like
US7909078B2 (en) 2005-12-15 2011-03-22 The Goodyear Tire & Rubber Company Method for measuring green tire components
EP2404136A2 (fr) 2009-03-03 2012-01-11 Sigmavision Limited Mesure d'un pneu d'un véhicule
FR3052388A1 (fr) 2016-06-14 2017-12-15 Michelin & Cie Dispositif de decoupe d'une bande de roulement et procede de decoupe utilisant un tel dispositif
WO2018009405A1 (fr) 2016-07-08 2018-01-11 Avent, Inc. Système et procédé de détection automatique, de localisation et de segmentation sémantique d'objets anatomiques
US20190287237A1 (en) 2016-12-01 2019-09-19 Autaza Tecnologia LTDA-EPP Method and system for automatic quality inspection of materials and virtual material surfaces

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5865059A (en) 1996-06-07 1999-02-02 Electronic Systems S.P.A. Non-contact thickness gauge for non-metallic materials in the form of film, foil, tape and the like
US7909078B2 (en) 2005-12-15 2011-03-22 The Goodyear Tire & Rubber Company Method for measuring green tire components
EP2404136A2 (fr) 2009-03-03 2012-01-11 Sigmavision Limited Mesure d'un pneu d'un véhicule
FR3052388A1 (fr) 2016-06-14 2017-12-15 Michelin & Cie Dispositif de decoupe d'une bande de roulement et procede de decoupe utilisant un tel dispositif
WO2018009405A1 (fr) 2016-07-08 2018-01-11 Avent, Inc. Système et procédé de détection automatique, de localisation et de segmentation sémantique d'objets anatomiques
US20190287237A1 (en) 2016-12-01 2019-09-19 Autaza Tecnologia LTDA-EPP Method and system for automatic quality inspection of materials and virtual material surfaces

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
FJODOR VAN VEEN, THE NEURAL NETWORK ZOO, 14 September 2016 (2016-09-14), Retrieved from the Internet <URL:https://www.asimovinstitute.org/neural-network-zoo/>
HARSHAL BHAMARE ET AL: "Quality Inspection of Tire using Deep Learning based Computer Vision 1", INTERNATIONAL JOURNAL OF ENGINEERING RESEARCH & TECHNOLOGY IJERT 8(11), 1 November 2019 (2019-11-01), pages 701 - 704, XP055682519, Retrieved from the Internet <URL:https://www.ijert.org/research/quality-inspection-of-tire-using-deep-learning-based-computer-vision-IJERTV8IS110337.pdf> [retrieved on 20200402] *
WANG REN ET AL: "Tire Defect Detection Using Fully Convolutional Network", IEEE ACCESS, vol. 7, 1 April 2019 (2019-04-01), pages 43502 - 43510, XP011719397, DOI: 10.1109/ACCESS.2019.2908483 *
ZHU QIDAN ET AL: "The Defect Detection Algorithm for Tire X-Ray Images Based on Deep Learning", 2018 IEEE 3RD INTERNATIONAL CONFERENCE ON IMAGE, VISION AND COMPUTING (ICIVC), IEEE, 27 June 2018 (2018-06-27), pages 138 - 142, XP033422243, DOI: 10.1109/ICIVC.2018.8492908 *

Also Published As

Publication number Publication date
US20230281976A1 (en) 2023-09-07
EP4193331A1 (fr) 2023-06-14
FR3113325B1 (fr) 2022-07-08
KR20230044453A (ko) 2023-04-04
WO2022028937A1 (fr) 2022-02-10
CN116157830A (zh) 2023-05-23

Similar Documents

Publication Publication Date Title
Xue-Wu et al. A vision inspection system for the surface defects of strongly reflected metal based on multi-class SVM
US20200364442A1 (en) System for detecting surface pattern of object and artificial neural network-based method for detecting surface pattern of object
Park et al. Convolutional neural network based surface inspection system for non-patterned welding defects
Sacco et al. Automated fiber placement defects: Automated inspection and characterization
WO2017017371A1 (fr) Procédé optimise d&#39;analyse de la conformité de la surface d&#39;un pneumatique
You et al. Machine vision based adaptive online condition monitoring for milling cutter under spindle rotation
FR3086428A1 (fr) Procede, programme d&#39;ordinateur et systeme de detection et localisation d&#39;objet dans une scene tridimensionnelle
Saeedi et al. Measurement and inspection of electrical discharge machined steel surfaces using deep neural networks
FR3086434A1 (fr) Procede et systeme de controle non destructif d&#39;une piece aeronautique par recalage de contour
Tang et al. Anomaly detection of core failures in die casting X-ray inspection images using a convolutional autoencoder
FR3113325A1 (fr) Système et Procédé de Reconnaissance Automatique des Interfaces dans des Profils de Produits des Pneumatiques
US20230033187A1 (en) Systems and methods for acquiring and inspecting lens images of ophthalmic lenses
WO2013045593A1 (fr) Methode amelioree de controle de l&#39;aspect de la surface d&#39;un pneumatique
Drouyer An'All Terrain'Crack Detector Obtained by Deep Learning on Available Databases
Mathias et al. Deep Neural Network Driven Automated Underwater Object Detection.
Nogueira et al. Machine learning classification of surface fracture in ultra-precision diamond turning using CSI intensity map images
WO2023098187A1 (fr) Procédé de traitement, appareil de traitement et système de traitement
Ljungqvist et al. Image analysis of pellet size for a control system in industrial feed production
KR101674915B1 (ko) Atr ft-ir 분광법 및 rbfnn 패턴 분류기를 이용하여 플라스틱을 재질에 따라 분류하는 방법
WO2023072832A1 (fr) Système et procédé de contrôle de la qualité d&#39;enduction d&#39;un pneumatique cru
KR20210098106A (ko) 딥러닝 기반 자동 결함 검사 장치 및 방법
Palmquist Detecting defects on cheese using hyperspectral image analysis
Shahid Sandpaper Defect Detection
Stahl et al. Comprehensive Quantitative Quality Assessment of Thermal Cut Sheet Edges using Convolutional Neural Networks
Boman A deep learning approach to defect detection with limited data availability

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20220211

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4