FR3107378A1 - Procédé de détection et de classification des défauts des canalisations - Google Patents

Procédé de détection et de classification des défauts des canalisations Download PDF

Info

Publication number
FR3107378A1
FR3107378A1 FR2001406A FR2001406A FR3107378A1 FR 3107378 A1 FR3107378 A1 FR 3107378A1 FR 2001406 A FR2001406 A FR 2001406A FR 2001406 A FR2001406 A FR 2001406A FR 3107378 A1 FR3107378 A1 FR 3107378A1
Authority
FR
France
Prior art keywords
image
fault
pipe
defect
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2001406A
Other languages
English (en)
Other versions
FR3107378B1 (fr
Inventor
Claire Casagranda
Guillaume Binet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suez International SAS
Original Assignee
Suez Groupe SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suez Groupe SAS filed Critical Suez Groupe SAS
Priority to FR2001406A priority Critical patent/FR3107378B1/fr
Publication of FR3107378A1 publication Critical patent/FR3107378A1/fr
Application granted granted Critical
Publication of FR3107378B1 publication Critical patent/FR3107378B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Procédé (1) de détection automatique de défauts d’une canalisation, caractérisé en ce qu’il comprend une phase de détection (11) mettant en œuvre : une étape de calcul d’un sac de mots visuels en fonction d’un ensemble d’éléments d’intérêt ; une étape de mise en œuvre d’un premier module d’apprentissage automatique (111) de classification binaire adapté pour déterminer en fonction dudit sac de mots visuels si ladite canalisation de l’image présente un défaut ; et une étape de mise en œuvre d’un deuxième module d’apprentissage automatique (112) adapté pour classifier, en fonction dudit sac de mots visuels de ladite image reçue, le type de défaut de ladite canalisation. Figure à publier avec l’abrégé : Fig. 1

Description

Procédé de détection et de classification des défauts des canalisations
L’invention concerne un procédé de détection et de classification des défauts des canalisations, en particulier de canalisations d’égouts, ou collecteurs.
De nombreuses canalisations sont difficilement accessibles voire inaccessibles aux opérateurs chargés de leur surveillance. Aussi, il est bien connu que la surveillance de ces canalisations non visitables est réalisée à partir d’images d’inspections télévisées, fréquemment abrégées en ITV.
Ainsi, à titre d’exemple, un opérateur commande à distance un robot équipé d’une caméra dans une canalisation. Le robot transmet ces images à un terminal distant à partir duquel l’opérateur les analyse afin de déterminer la présence ou non de défauts dans la canalisation et de déterminer la nature de ces défauts.
Aussi, le travail de l’opérateur est relativement fastidieux et l’interprétation des images acquises est parfois relativement complexe, compte tenu de la variabilité des canalisations, du nombre élevé de types de défauts et compte tenu du fait que de nombreux types de défauts sont sous-représentés parmi l’ensemble des défauts auquel l’opérateur est confronté.
Une problématique est alors d’automatiser la détection de défauts dans des canalisations, accessibles ou non, par reconnaissance vidéo.
On connaît notamment la publication scientifiqueCheng J.C. and Wang M. (2018). Automated detection of sewer pipe defects in closed-circuit television images using deep learning techniques , In Automation in Construction Vol . 95, Novemb e r 201 8 .
Cette solution est basée sur une technique dite de réseaux de neurones convolutifs entraînés à partir de subdivisions des images d’entrées en différentes régions, technique connue sous le nom anglophone deRegion-based convolutional neural network. Or, il est connu qu’une telle solution est très coûteuse en ressources de calcul et en occupation mémoire, impose des conditions relativement strictes d’uniformité des images d’entrée et est relativement complexe à paramétrer.
Aussi, il existe le besoin d’un procédé de détection et de classification des défauts de canalisations résolvant les problèmes de l’art antérieur précédent.
A cet effet on propose un procédé de détection automatique de défauts d’une canalisation, caractérisé en ce qu’il comprend une phase de détection mettant en œuvre :
  • -une étape de réception d’une image représentant l’intérieur d’une canalisation ;
  • une étape de détection dans ladite image d’éléments d'intérêt formant descripteurs de ladite image ;
  • une étape de calcul d’un sac de mots visuels en fonction dudit ensemble d’éléments d’intérêt ;
  • une étape de mise en œuvre d’un premier module d’apprentissage automatique de classification binaire adapté pour déterminer en fonction dudit sac de mots visuels si ladite canalisation de l’image présente un défaut ; et
  • lorsque le premier module d’apprentissage détermine qu’un défaut est présent dans l’image, une étape de mise en œuvre d’un deuxième module d’apprentissage automatique adapté pour classifier, en fonction dudit sac de mots visuels de ladite image reçue, le type de défaut de ladite canalisation.
Cette solution permet ainsi d’obtenir une détection relativement fiable des défauts d’une canalisation tout en s’assurant des temps de calculs faibles et une plus grande simplicité de paramétrage du procédé.
En outre un tel procédé est relativement performant pour détecter des défauts faiblement représentés dans les données d’entraînement.
Avantageusement et de manière non limitative, le procédé comporte en outre une phase d’entraînement desdits premier et deuxième modules d’apprentissage automatique comprenant :
  • une étape de réception d’un ensemble de données d’entraînement labellisées, chaque donnée d’entraînement labellisée comprenant au moins une image de l’intérieur d’une canalisation, une information de présence d’un défaut dans ladite canalisation et lorsqu’un défaut est présent une classe dudit défaut présent ;
  • pour chaque image, une étape de détection d’éléments d'intérêt dans ladite image ;
  • pour chaque image, une étape de calcul d’un sac de mots visuels en fonction dudit ensemble d’éléments d’intérêts ;
  • une étape d’entraînement dudit premier module d’apprentissage en fonction, pour chaque donnée d’entraînement, du sac de mots visuels associé à l’image de la donnée d’entraînement, et desdites informations de présence et de classe de défaut ; et
  • une étape d’entraînement dudit deuxième module d’apprentissage automatique à partir du sac de mots visuels de chaque image et de la classe dudit défaut associé à ladite image.
Ainsi, on peut obtenir une phase d’entraînement relativement rapide, permettant de définir des descripteurs pertinents et fiables des images pour assurer une détection robuste et rapide.
Avantageusement et de manière non limitative, ledit deuxième module d’apprentissage automatique comprend une pluralité de sous-modules d’apprentissages automatique de classification binaire, chaque sous-module étant associé à une classe de défaut particulière, chaque sous-module étant entraîné pour estimer la présence ou non de la classe de défaut qui lui est associée dans ladite image ; ledit deuxième module comprenant autant de sous-modules d’apprentissage automatique que de classes de défauts différentes dans l’ensemble de données labellisées.
Ainsi, on peut améliorer encore la complexité algorithmique du procédé en employant des classificateurs binaires pour réaliser la classification multi-classe de détection du type de défaut.
Avantageusement et de manière non limitative, au moins un sous-module dudit deuxième module d’apprentissage automatique met en œuvre une forêt d’arbres décisionnels. Les forêts d’arbres décisionnels sont performantes, rapides et relativement simples à paramétrer et à implémenter.
Avantageusement et de manière non limitative, lors de la mise en œuvre du deuxième module d’apprentissage automatique au cours de la phase de détection, chaque sous module génère une valeur de probabilité de présence de la classe de défaut qui lui est associée ; le deuxième module d’apprentissage automatique sélectionnant alors la classe de défaut présentant la plus forte probabilité comme étant la classe de défaut présente dans l’image. Ainsi on peut affiner et optimiser la sélection de la classe de défaut détectée dans l’image, en tenant compte de la probabilité de bonne détection par chaque sous-module du deuxième module.
Avantageusement et de manière non limitative, le premier module d’apprentissage automatique met en œuvre une forêt d’arbres décisionnels. Les forêts d’arbres décisionnels sont performantes, rapides et relativement simples à paramétrer et à implémenter.
Avantageusement et de manière non limitative, lors de la phase de détection chaque image est associée à une position de prise de vue dans ladite canalisation; le procédé comprenant lors de la phase de détection une étape de génération d’un rapport de détection comprenant pour chaque défaut détecté, la position du défaut dans la canalisation.
Avantageusement et de manière non limitative, lors de la phase de détection chaque classe de défaut est associée à un indice de gravité du défaut, et l’étape de génération d’un rapport de détection comprend pour chaque défaut détecté, la position du défaut dans la canalisation ainsi que la gravité dudit défaut.
L’invention concerne aussi un programme d'ordinateur comprenant des instructions qui conduisent un ordinateur à mettre en œuvre les étapes de détection et/ou d’apprentissage décrites précédemment.
L’invention concerne aussi un support lisible par ordinateur, sur lequel est enregistré le programme d'ordinateur, tel qu’un disque, CD-Rom, DVD-Rom, une mémoire flash, un disque dur, ou tout autre support numérique.
D’autres particularités et avantages de l’invention ressortiront à la lecture de la description faite ci-après d’un mode de réalisation particulier de l’invention, donné à titre indicatif mais non limitatif, en référence aux dessins annexés sur lesquels :
est un organigramme de la phase de détection du procédé selon un mode de réalisation de l’invention
est un organigramme de détail de l’étape de traitement de l’image du mode de réalisation de la figure 1
est un organigramme de la phase d’entraînement du mode de réalisation de la figure 1;
est un exemple de détection d’une conduite faisant saillie dans une canalisation par le procédé mis en œuvre selon le mode de réalisation de la figure 1;
est un exemple de détection d’un matériau faisant saillie dans une canalisation par le procédé mis en œuvre selon le mode de réalisation de la figure 1; et
est un exemple de détection d’une fissure dans une canalisation par le procédé mis en œuvre selon le mode de réalisation de la figure 1.
L’invention concerne un procédé 1 mis en œuvre par ordinateur pour détecter automatiquement des défauts dans une canalisation, par exemple dans un collecteur ou dans une canalisation d’égouts.
Ce procédé 1 est en particulier mis en œuvre dans le cadre d’une inspection télévisée de canalisation.
Lors d’une telle inspection, l’opérateur insère dans la canalisation à inspecter un robot mobile, non représenté, apte à parcourir la canalisation et à acquérir des images de l’intérieur de la canalisation.
Le robot mobile comprend une caméra d’inspection et un dispositif d’odométrie permettant de connaître sa position dans la canalisation.
En effet, si la position d’insertion du robot peut être aisément connue au point d’insertion du robot dans la canalisation, par exemple via des moyens de géolocalisation tels qu’un positionnement GPS, sa position lors du parcours de la canalisation ne peut être obtenue par des moyens similaires compte tenu du confinement produit par la canalisation.
Aussi il existe différents dispositifs d’odométrie connus permettant de connaître la progression du robot dans la canalisation. En particulier, lorsque le robot mobile est relié au poste de contrôle de l’opérateur par un câble monté sur un dévidoir, tel qu’un câble de communication, la longueur déroulée du câble permet ainsi de connaître sa distance du point d’entrée de la canalisation.
L'avancement de la caméra d'inspection à l'intérieur de la canalisation est enregistré au fur et à mesure de l'inspection de sorte qu’on est apte à associer à chaque image acquise par la caméra du robot une position dans cette canalisation, relative par rapport au point d’entrée et/ou absolue en fonction de la position d’insertion dans la canalisation.
Toutefois, la location du robot dans la canalisation diffère généralement de la position exacte des défauts détectés, en particulier compte tenu de la distance du défaut à la caméra lorsque l’image a été acquise par le robot.
La position exacte des défauts détectés pouvant au surplus varier en fonction d’autres facteurs tels que la pente de la canalisation ou encore une imprécision du dispositif d’odométrie.
Dans ce mode de réalisation de l’invention, lors de la transmission de l’image par le robot, la position est ajoutée en surimpression sur l’image de la canalisation de sorte que chaque image est associée à une position dans la canalisation.
L’image est alors transmise du robot vers un terminal distant permettant de procéder à la détection des défauts dans la canalisation.
Le procédé 1 selon un mode de réalisation de l’invention est divisé en une phase d’entraînement 10 de modules d’apprentissage automatique et en une phase de détection 11.
La phase d’entraînement 10 peut être mise en œuvre indépendamment et de manière préalable à la mise en œuvre de la phase de détection 11.
En outre, la phase d’entraînement n’est pas systématiquement mise en œuvre avant la phase de détection 11, l’homme du métier étant apte à déterminer dans quelle mesure la phase d’entraînement 10 doit être à nouveau mise en œuvre, par exemple lorsqu’un nouveau jeu de données d’entraînement est disponible.
La phase de détection 11 peut être mise en œuvre en temps-réel à mesure de la progression du robot dans la canalisation, et a mesure de la réception des images acquises par la caméra du robot, ou a posteriori, après que l’inspection a été effectué.
Lorsque la phase détection 11 est mise en œuvre après inspection, l’ensemble des images acquises du robot sont stockées au moins provisoirement dans une mémoire, telle qu’un disque dur ou une mémoire flash, afin de pouvoir être analysée par la suite par un terminal mettant en œuvre le procédé 1 selon l’invention.
La phase de détection 11 met en œuvre deux modules d’apprentissage automatique 112, 113.
Cette phase de détection 11 est précédée d’une phase d’entraînement 10 de ces deux modules d’apprentissage automatique 112, 113.
La phase de détection 11 comprend tout d’abord une étape de réception 109 d’une image acquise par un opérateur dans le cadre d’une inspection téléviséeITVd’une canalisation. Aussi cette image représente une vue de l’intérieur d’une canalisation à inspecter.
Bien que dans cette description on fasse référence à une image, il est possible que le procédé reçoive en entrée un flux vidéo, qui sera traité en tant que succession d’images, le procédé étant alors appliqué pour toute ou partie des images du flux vidéo reçu, en fonction des capacités de calcul du terminal mettant en œuvre le procédé de détection 1.
Pour chaque image reçue, le procédé 1 met alors en œuvre, au cours de la phase de détection 11, un premier module d’apprentissage automatique 111 de classification binaire adapté pour déterminer dans ladite image reçue si la canalisation présente un défaut ou non.
Afin de permettre un fonctionnement rapide et robuste du premier module 111, ainsi que du deuxième module 112, on met en œuvre préalablement des étapes de traitement 110 de l’image.
Les étapes de traitement 110 de l’image comprennentune première étape de nettoyage 1101 de l’image, que l’on appelle aussi prétraitement ou en anglaispreprocessing.
Cette étape de nettoyage 1101 vise notamment, mais non limitativement, à améliorer la visibilité du contenu de l’image, par exemple par traitement du contraste et de la luminosité, à retirer tout contenu textuel éventuellement surajouté par la caméra et d’une manière générale à améliorer la netteté de l’image, afin d’augmenter la visibilité de l’intérieur de la canalisation et d’éventuels défauts présents.
En particulier, comme on l’a exposé précédemment, les images transmises par le robot dans ce mode de réalisation, comprennent en surimpression la position du robot dans la canalisation.
Aussi, avant l’étape de nettoyage 1101, le procédé 1 met en œuvre une étape d’acquisition de la position du robot dans la canalisation. Cette étape, ici, comprend la détection dans l’image d’une information de position, par exemple selon un format préalablement connu du procédé 1.
Une fois la position acquise, le procédé 1 est alors libre de pouvoir retirer cette information lors de l’étape de nettoyage 1101.
Toutefois l’acquisition de la position du robot n’est pas limitée à la lecture d’une valeur incrustée dans l’image. En effet, si cette solution est avantageuse en ce qu’elle permet de visualiser sur chaque image sa position associée dans la canalisation, on peut prévoir toute autre solution pour associer la position à l’image, par exemple via l’encapsulation de l’ensemble image/position dans un fichier stocké selon un format prédéterminé par exemple dans un format structuré tel qu’un format XML, JSON ou tout autre format connu de l’art antérieur.
Ensuite, on met en œuvre une étape de détection 1102 d’éléments d’intérêts dans l’image, plus connus sous le terme anglais defeature detection 1102 ,pouvant aussi être appelé extraction de caractéristiques visuelles.
Un élément d’intérêt, ou une caractéristique visuelle, est dans ce mode de réalisation un point d’intérêt, autrement dit un point dans l’image remarquable en ce qu’il constitue un point caractéristique de l’image.
On peut toutefois procéder à la détection de zones d’intérêts, de courbes d’intérêts ou de tout autre élément d’intérêt pertinent connus de l’art antérieur.
L’ensemble d’éléments d’intérêts, constituant un ensemble de descripteurs de l’image, est alors transformé 1103 en un sac de mots visuels, plus connus sous son nom anglais deBag of Wordset plus précisément dans ce cas deBag of Visual Words.
La transformation 1103 de l’ensemble d’éléments d’intérêts détectés 1102 comprend généralement la génération d’un regroupement des termes sous la forme d’un dictionnaire de mots associé à la fréquence d’apparition de chaque mot visuel, connu en anglais sous le nom dec odebook, une vectorisation et une normalisation du vecteur afin d’obtenir un vecteur normé de dimension finie, formant, par simplification, une signature de l’image.
L’avantage particulier de l’emploi de points d’intérêt est d’obtenir un vecteur de faible dimension, pouvant donc permettre des calculs relativement rapides par les modules d’apprentissage automatiques.
Ces étapes de détection 1102 et de transformation 1103 en un sac de mots visuels peuvent être mises en œuvre selon plusieurs méthodes connues dans la littérature scientifique.
Dans ce mode de réalisation on met en œuvre une méthode nommée A-KAZE publiée dansAlcantarilla et al.: Fast explicit diffusion for accelerated features in nonlinear scale spaces In British Machine Vision Conference (BMVC). Bristol, UK. September 2013 ,qui combine des performances calculatoires et une robustesse relativement optimales.
Toutefois, il existe d’autres mises en œuvre possibles pour constituer un sac de mots visuels à partir d’une image analysée, et l’invention ne se limite pas à une unique implémentation connue de l’art antérieur.
En particulier, une solution alternative peut être par exemple de mettre en œuvre l’étape de détection 1102 par la méthode dite de transformation d'une caractéristique invariante à l'échelle, en anglaisScale -invariant feature transform, abrégé en SIFT, puis d’implémenter l’étape de transformation 1103 en sac de mots visuels avec la méthode de partitionnement par K-Moyennes, connu en anglais sous le nom deK- Mean s Clustering.
Le premier module 111 est ici une forêt d’arbres décisionnels, aussi connue sous le nom de forêt aléatoire, plus fréquemment connue sous son appellation anglophone derandom forest ,qui permet d’obtenir une classification binaire relativement fiable et rapide.
Toutefois l’invention n’est pas limitée à cette seule méthode d’implémentation de classificateur binaire. Le premier module 111 pouvant aussi être mis en œuvre, à titre d’exemples non limitatifs, par des méthodes d’arbres décisionnels, de réseaux bayésiens, de machines à vecteur support, ou encore par tout modèle de régression linéaire connu du domaine de l’apprentissage automatique.
Si le premier module 111 détermine, à partir du sac de mots visuels associé à l’image, que l’image ne comprend pas de défaut114 alors la phase de détection retourne à l’étape de réception 109 pour recevoir une image suivante.
Selon des mises en œuvre particulières de l’invention, on peut procéder au stockage de l’image, au sac de mots visuels associé ainsi qu’au stockage de l’information selon laquelle cette image ne comprend pas de défaut de canalisation.
Lorsque le premier module 111 détermine que la canalisation dans l’image reçue présente un défaut, alors on met en œuvre le deuxième module 112 d’apprentissage automatique.
Ce deuxième module 112 est quant à lui adapté pour classifier, à partir du sac de mots visuels associé à ladite image reçue, le type de défaut de ladite canalisation.
Autrement dit, ce deuxième module 112 est entraîné, tel qu’exposé dans la suite de la description, pour déterminer à quelle classe de défaut appartient le défaut de canalisation présent dans l’image reçue. Il s’agit donc d’un module 112 d’apprentissage automatique multi-classes.
Afin d’optimiser les performances de détection, ce deuxième module 112 comprend une pluralité de sous-modules de d’apprentissage automatiques de classification binaire.
Cette solution permet d’optimiser les besoins en ressources de calculs, mais l’invention n’est pas limitée à une subdivision du deuxième module 112 en une multitude de classificateurs binaires. On peut notamment implémenter un unique classificateur multi-classes connu de l’art antérieur.
De manière similaire au premier module 111, chaque sous-module est alors entraîné pour estimer une probabilité de présence d’une classe de défaut particulière dans l’image.
L’usage de probabilité par chaque sous-module permet ainsi de départager les sous-modules si plusieurs d’entre eux déterminent avoir détectée leur classe de défaut associée dans l’image. En effet, si la sortie des sous-modules était simplement binaire détecté/non-détecté, une problématique de départage se poserait. Aussi il est préférable de paramétrer les sous-modules afin qu’ils fournissent chacun une probabilité de détection du défaut en sortie dans l’image en sortie.
Dans ce mode de réalisation, chaque sous-module comprend une forêt d’arbres décisionnels, tels que ceux du premier module.
Toutefois l’invention ne se limite pas à ce type de classificateur binaire et peut être mis en œuvre, à titre d’exemples non limitatifs, par des méthodes d’arbres décisionnels, de réseaux bayésiens, de machines à vecteur support, ou encore par tout modèle de régression linéaire connu du domaine de l’apprentissage automatique.
On entend par classe de défaut un type de défaut présentant un aspect distinctif particulier dans la canalisation. À titre d’exemples pour ce mode de réalisation, et à titre non limitatif, on connaît:
- des déformations de section de la canalisation;
– des fissures, tel que représenté figure 4c;
– des ruptures;
– des surfaces endommagées par attaque chimique;
– une conduite faisant saillie dans la canalisation, représenté figure 4a;
– un raccord défectueux;
– un matériau faisant saillie dans la canalisation, représenté figure 4b;
– un déplacement des conduites;
– le sol hors-conduite visible;
– le vide hors-conduite visible.
Aussi, le deuxième module 112 comprend autant de sous-modules que de classes de défauts détectables, chaque sous-module étant entraîné pour détecter une classe parmi l’ensemble de classes détectables à partir du sac de mots visuels de l’image reçue.
La phase de détection 11 ne pourrait fonctionner correctement sans être précédée d’une phase d’entraînement 10 des modules d’apprentissage automatique 111 et 112, telle que représentée figure 3.
Cette phase d’entraînement 10 comprend une étape 1001 de réception d’un ensemble de données labellisées.
Chaque donnée labellisée comprenant au moins une image de l’intérieur d’une canalisation, une information de présence d’un défaut dans ladite canalisation et lorsqu’un défaut est présent une classe dudit défaut présent.
Les données labellisées peuvent notamment être reçus sous un format structuré tel qu’un format XML par exemple transmis par un logiciel métier interconnecté avec le procédé.
Ensuite pour chaque image, on met en œuvre les étapes de traitement de l’image 110 telles que décrites dans la phase de détection, et en référence à la figure 2.
On procède alors à une étape d’entraînement 1002 du premier module d’apprentissage en fonction, pour chaque donnée d’entraînement, du sac de mots visuels associé à l’image de la donnée d’entraînement, et desdites informations de présence et de classe de défaut.
Enfin on procède à une étape d’entraînement 1003 dudit deuxième module d’apprentissage automatique à partir du sac de mots visuels de chaque image et de la classe dudit défaut associéà ladite image, seulement à partir des données étant labellisées comme comprenant un défaut de canalisation.
On procède par ailleurs, de manière classique dans le domaine de l’apprentissage automatique, à une étape de test, non représentée, suivant la phase d’entraînement 10.
Cette étape de test se base sur un autre ensemble de données labellisées, appelé ensemble de test, afin de tester les performances des modules d’apprentissage.
Dans ce mode de réalisation de l’invention, l’ensemble général de données labellisées est alors séparé pour 70% formant les données d’entraînement et 30% les données de test. Toutefois cette répartition peut être adaptée selon les besoins par l’homme du métier.
Par ailleurs, il existe différentes méthodes d’entraînement connues qui peuvent être mises en œuvre. En particulier les arbres décisionnels et les forêts d’arbres décisionnels sont fréquemment entraînés par les méthodes connues deBootstrapou deBagging .
Le procédé 1 selon l’invention permet ainsi d’obtenir des taux de détection des défauts proche de 87% de précision, le procédé présentant par ailleurs une forte adaptabilité aux détections de défauts sous-représentés dans les échantillons d’entraînement.
Le procédé 1 peut notamment être interconnecté avec un logiciel métier permettant à un opérateur de prendre connaissance des résultats des détections automatiques, et de corriger ou d’améliorer les détections, notamment pour les détections ayant eu des probabilités de détection correcte inférieures à une valeur de seuil prédéterminées.
Selon un mode de réalisation particulier de l’invention, le procédé 1 tel que décrit précédemment, comprend en outre une étape de génération d’un rapport d’inspection apte à synthétiser l’ensemble des défauts détectés, la classe de chacun de ces défauts ainsi que la position de ces défauts, lorsqu’une position est associée à l’image par le procédé.
Ce rapport peut alors être intégré dans un système d’informations géographiques généralement abrégé SIG, tel qu’un outil de gestion patrimoniale.
Avantageusement, chaque classe de défaut est aussi associée à un indice de gravité, selon une échelle librement déterminée par l’homme du métier, ou selon des critères prescrits et/ou légaux.
Ainsi, lorsqu’un défaut est détecté, le procédé est apte à associer à l’image, la classe de défaut, sa position ainsi que la gravité du défaut.
En outre, de manière avantageuse, mais non limitative, le procédé peut comprendre une étape de calcul d’une note de sévérité par tronçon de la canalisation. En effet, lorsqu’une pluralité de défauts est détectée dans une zone relativement circonscrite de la canalisation, le procédé 1 est apte à ajouter au rapport généré, ou alternativement à générer un rapport indépendant, une information d’alerte relative à ladite zone de canalisation traduisant un niveau de gravité général observé et un risque associé.
En outre, lorsque le procédé 1 est apte à estimer un niveau de gravité de défaut pour une zone de la canalisation, le procédé peut en outre mettre en œuvre une étape décisionnelle, mettant en œuvre un autre module d’apprentissage automatique, ayant été préalablement entraîné à partir de données d’entraînement correspondantes, de sorte à émettre une préconisation d’intervention pour la zone concernée en fonction notamment de l’étendue de la zone, du nombre de défauts et de la classification des défauts, la préconisation pouvant être par exemple une réparation ponctuelle, une réhabilitation, tel qu’un chemisage, ou bien un renouvellement intégral de la canalisation.

Claims (10)

  1. Procédé (1) de détection automatique de défauts d’une canalisation, caractérisé en ce qu’il comprend une phase de détection (11) mettant en œuvre:
    • une étape de réception (109) d’une image représentant l’intérieur d’une canalisation;
    • une étape de détection (1102) dans ladite imaged’éléments d'intérêt formant descripteurs de ladite image ;
    • une étape de calcul (1103) d’un sac de mots visuels en fonction dudit ensemble d’éléments d’intérêt ;
    • une étape de mise en œuvre d’un premier module d’apprentissage automatique (111) de classification binaire adapté pour déterminer en fonction dudit sac de mots visuels si ladite canalisation de l’image présente un défaut; et
    • lorsque le premier module d’apprentissage détermine qu’un défaut est présent dans l’image, une étape de mise en œuvre d’un deuxième module d’apprentissage automatique (112) adapté pour classifier, en fonction dudit sac de mots visuels de ladite image reçue, le type de défaut de ladite canalisation.
  2. Procédé (1) selon la revendication 1, caractérisé en ce qu’il comporte en outre une phase d’entraînement (10) desdits premier (111) et deuxième (112) modules d’apprentissage automatique comprenant :
    • une étape de réception (1001) d’un ensemble de données d’entraînement labellisées, chaque donnée d’entraînement labellisée comprenant au moins une image de l’intérieur d’une canalisation, une information de présence d’un défaut dans ladite canalisation et, lorsqu’un défaut est présent, une classe dudit défaut présent;
    • pour chaque image, une étape de détection (1102) d’éléments d'intérêt dans ladite image ;
    • pour chaque image, une étape de calcul (1103) d’un sac de mots visuels en fonction dudit ensemble d’éléments d’intérêts;
    • une étape d’entraînement (1002) dudit premier module d’apprentissage en fonction, pour chaque donnée d’entraînement, du sac de mots visuels associé à l’image de la donnée d’entraînement, et desdites informations de présence et de classe de défaut ; et
    • une étape d’entraînement (1003) dudit deuxième module d’apprentissage automatique à partir du sac de mots visuels de chaque image et de la classe dudit défaut associéà ladite image.
  3. Procédé (1) selon la revendication 1 ou 2, caractérisé en ce que ledit deuxième module d’apprentissage automatique (112) comprend une pluralité de sous-modules d’apprentissages automatique de classification binaire, chaque sous-module étant associé à une classe de défaut particulière, chaque sous-module étant entraîné pour estimer la présence ou non de la classe de défaut qui lui est associée dans ladite image;
    ledit deuxième module (112) comprenant autant de sous-modules d’apprentissage automatique que de classes de défauts différentes dans l’ensemble de données labellisées.
  4. Procédé (1) selon la revendication 3, caractérisé en ce qu’au moins un sous-module dudit deuxième module d’apprentissage automatique (112) met en œuvre une forêt d’arbres décisionnels.
  5. Procédé (1) selon l’une quelconque des revendications 3 ou 4, caractérisé en ce que lors de la mise en œuvre du deuxième module d’apprentissage automatique (112) au cours de la phase de détection (11), chaque sous module génère une valeur de probabilité de présence de la classe de défaut qui lui est associée; le deuxième module d’apprentissage automatique (112) sélectionnant alors la classe de défaut présentant la plus forte probabilité comme étant la classe de défaut présente dans l’image.
  6. Procédé (1) selon l’une quelconque des revendications 1 à 5, caractérisé en ce que le premier module d’apprentissage automatique (111) met en œuvre une forêt d’arbres décisionnels.
  7. Procédé (1) selon l’une quelconque des revendications 1 à 6, caractérisé en ce que lors de la phase de détection (11) chaque image est associée à une position de prise de vue dans ladite canalisation; le procédé comprenant lors de la phase de détection (11) une étape de génération d’un rapport de détection comprenant pour chaque défaut détecté, la position du défaut dans la canalisation.
  8. Procédé (1) selon la revendication 7, caractérisé en ce que lors de la phase de détection (11) chaque classe de défaut est associée à un indice de gravité du défaut, et l’étape de génération d’un rapport de détection comprend pour chaque défaut détecté, la position du défaut dans la canalisation ainsi que la gravité dudit défaut.
  9. Programme d'ordinateur comprenant des instructions de code de programme pour l’exécution des étapes de détection (11) selon l’une quelconque des revendications 1 à 8, et/ou d’apprentissage (10) selon la revendication 2 ou l’une quelconque des revendications 3 à 8 lorsqu’elles dépendent de la 2, lorsque ledit programme est exécuté sur un ordinateur.
  10. Support lisible par ordinateur, sur lequel est enregistré le programme d'ordinateur selon la revendication 9.
FR2001406A 2020-02-13 2020-02-13 Procédé de détection et de classification des défauts des canalisations Active FR3107378B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2001406A FR3107378B1 (fr) 2020-02-13 2020-02-13 Procédé de détection et de classification des défauts des canalisations

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2001406A FR3107378B1 (fr) 2020-02-13 2020-02-13 Procédé de détection et de classification des défauts des canalisations
FR2001406 2020-02-13

Publications (2)

Publication Number Publication Date
FR3107378A1 true FR3107378A1 (fr) 2021-08-20
FR3107378B1 FR3107378B1 (fr) 2022-07-22

Family

ID=70614111

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2001406A Active FR3107378B1 (fr) 2020-02-13 2020-02-13 Procédé de détection et de classification des défauts des canalisations

Country Status (1)

Country Link
FR (1) FR3107378B1 (fr)

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ALCANTARILLA ET AL., FAST EXPLICIT DIFFUSION FOR ACCELERATED FEATURES IN NONLINEAR SCALE SPACES IN BRITISH MACHINE VISION CONFERENCE (BMVC). BRISTOL, UK, September 2013 (2013-09-01)
CHENG J. C.WANG M.: "Automated détection of sewer pipe defects in closed-circuit télévision images using deep learning techniques", AUTOMATION IN CONSTRUCTION, vol. 95, November 2018 (2018-11-01)
JONATHAN L MAAS ET AL: "The Dual Codebook: Combining Bags of Visual Words in Image Classification", BELGIAN-DUTCH ARTIFICIAL INTELLIGENCE CONFERENCE (BNAIC), 10 November 2016 (2016-11-10), XP055740824 *
VRIESMAN DANIEL ET AL: "Texture CNN for Thermoelectric Metal Pipe Image Classification", 2019 IEEE 31ST INTERNATIONAL CONFERENCE ON TOOLS WITH ARTIFICIAL INTELLIGENCE (ICTAI), IEEE, 4 November 2019 (2019-11-04), pages 569 - 574, XP033713801, DOI: 10.1109/ICTAI.2019.00085 *

Also Published As

Publication number Publication date
FR3107378B1 (fr) 2022-07-22

Similar Documents

Publication Publication Date Title
Tedeschi et al. A real-time automatic pavement crack and pothole recognition system for mobile Android-based devices
US20040122859A1 (en) System to identify a wafer manufacturing problem and method therefor
EP3155608A1 (fr) Procede de suivi d'une partition musicale et procede de modelisation associe
FR2907239A1 (fr) Procede de recherche et de reconnaissance rapides d'une image numerique representative d'au moins un motif graphique dans une banque d'images numeriques
CN117893817A (zh) 晶圆缺陷分类方法及其装置、系统、电子设备和存储介质
FR3030042A1 (fr) Procede de detection de defaut sur une surface de pneumatique
WO2023006627A1 (fr) Procede pour la detection automatique de defauts sur des composants d'une carte electronique
WO2014198777A1 (fr) Methode de traitement de l'image numerique de la surface d'un pneumatique en vue de la detection d'une anomalie
WO2004015590A2 (fr) Detection d'une image de reference robuste a de grandes transformations photometrique
KR101622748B1 (ko) 입력 이미지로부터 객체를 검출하기 위한 방법, 장치 및 컴퓨터 판독가능 기록매체
FR3107378A1 (fr) Procédé de détection et de classification des défauts des canalisations
CN110162797B (zh) 文章质量检测方法和装置
US20030185431A1 (en) Method and system for golden template image extraction
JP2007199865A (ja) 画像処理アルゴリズム評価装置、画像処理アルゴリズムの生成装置および画像検査装置ならびに画像処理アルゴリズム評価方法、画像処理アルゴリズムの生成方法および画像検査方法
FR3051559B1 (fr) Procede d'optimisation de la detection de cibles marines et radar mettant en oeuvre un tel procede
FR3059127A1 (fr) Procede de detection et de pistage de cibles
CA3172650A1 (fr) Procede de detection d'au moins un constituant geologique d'un echantillon de roche
FR2816793A1 (fr) Dispositif de traitement d'information multimedia
EP2180436B1 (fr) Système de procédé d'apprentissage semi-supervisé pour la classification de données à partir de paramètres discriminants
WO2007051940A1 (fr) Procede et dispositif de calcul de mesure de similarite entre une representation d'un segment audio de reference et une representation d'un segment audio a tester et procede et dispositif de suivi d'un locuteur de reference
WO2012042169A1 (fr) Procédé d'imagerie d'une conduite longitudinale
CN114397306B (zh) 一种电网均压环超复杂类别缺陷多阶段模型联合检测方法
EP2082336B1 (fr) Procede de recherche et de reconnaissance rapides d'une image numerique representative d'au moins un motif graphique dans une banque d'images numeriques
FR3060794A1 (fr) Procede de determination de l'etat d'un systeme, procede de determination d'une methode de projection optimale et dispositif mettant en œuvre lesdits procedes
FR3119038A1 (fr) Contrôle visuel d’un élément se déplaçant sur une ligne de production

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210820

PLFP Fee payment

Year of fee payment: 3

TP Transmission of property

Owner name: SUEZ INTERNATIONAL, FR

Effective date: 20221129

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5