FR3025918A1 - Procede et systeme de modelisation automatisee d'une piece - Google Patents

Procede et systeme de modelisation automatisee d'une piece Download PDF

Info

Publication number
FR3025918A1
FR3025918A1 FR1458550A FR1458550A FR3025918A1 FR 3025918 A1 FR3025918 A1 FR 3025918A1 FR 1458550 A FR1458550 A FR 1458550A FR 1458550 A FR1458550 A FR 1458550A FR 3025918 A1 FR3025918 A1 FR 3025918A1
Authority
FR
France
Prior art keywords
acquisition
room
image
images
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1458550A
Other languages
English (en)
Other versions
FR3025918B1 (fr
Inventor
Jeremy Guillaume
Damien Dous
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Snapkin
Original Assignee
Snapkin
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snapkin filed Critical Snapkin
Priority to FR1458550A priority Critical patent/FR3025918B1/fr
Priority to PCT/EP2015/070886 priority patent/WO2016038208A2/fr
Publication of FR3025918A1 publication Critical patent/FR3025918A1/fr
Application granted granted Critical
Publication of FR3025918B1 publication Critical patent/FR3025918B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

La présente invention concerne un procédé (100) pour modéliser de manière automatisée une pièce, comprenant les étapes suivantes : - acquisition (104) de plusieurs images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité de positions et/ou emplacements, dites d'acquisition, dans ladite pièce ; - obtention (126) à partir de ladite acquisition d'un nuage de points relatifs à ladite pièce à partir desdites images ; - détection (130), à partir dudit nuage de points, d'au moins une surface, dite de référence, de ladite pièce ; - détermination (132-142) d'une représentation bi- ou tridimensionnelle de ladite pièce par analyse dudit nuage de points tranche par tranche suivant un axe, dit de référence, passant par ladite surface de référence.

Description

- 1 - « Procédé et système de modélisation automatisée d'une pièce » Domaine technique La présente invention concerne un procédé de modélisation automatisée d'une pièce en vue d'obtenir une représentation bi- ou tridimensionnelle d'une partie ou de la totalité de la pièce. Elle concerne également un système mettant en oeuvre un tel procédé.
Le domaine de l'invention est le domaine de la représentation d'une pièce, ou d'une partie d'une pièce, en deux ou trois dimensions, par exemple en vue de fournir un plan architectural de la pièce.
Etat de la technique La modélisation d'une structure tridimensionnelle, et en particulier d'une pièce, par exemple en vue d'obtenir une représentation bi- ou tridimensionnelle de la pièce, peut actuellement être réalisée de plusieurs manières.
Il existe tout d'abord les procédés manuels ou semi manuels qui consistent à mesurer les dimensions des différents éléments constituant la pièce et leurs positionnements relatifs, puis de réaliser un tracé purement manuel ou par l'intermédiaire d'un outil informatique en vue d'obtenir une représentation de la pièce.
Il existe également des procédés automatisés qui, à partir d'images acquises à l'intérieur de la pièce, réalisent une reconstitution des différentes surfaces de la pièce en vue d'en donner une représentation bi- ou tridimensionnelle. Les procédés manuels sont très consommateurs en temps d'une part 30 pour mesurer les dimensions et la position de différents éléments de la pièce, et d'autre part pour réaliser le tracé de la pièce à partir de ces mesures. Les procédés automatisés sont moins consommateurs en temps comparés aux procédés manuels. Cependant, les procédés de modélisation actuellement connus souffrent d'autres inconvénients. D'une part, les 35 procédés automatisés actuellement connus ne permettent pas de donner une 3025918 - 2 - représentation suffisamment précise de la pièce, et nécessitent souvent l'intervention d'un opérateur pour compléter ou corriger la représentation fournie par ces procédés. D'autre part, la représentation d'une pièce étant obtenue à partir d'une analyse d'images prises dans la pièce, les procédés 5 automatisés actuellement connus nécessitent des ressources de calcul et de traitement assez lourds et coûteux. Enfin, les procédés et système actuellement connus permettent de réaliser une modélisation d'une pièce de manière identique quelle que soit la nature de la pièce, c'est-à-dire sans tenir compte de la complexité des surfaces constituant la pièce.
10 Un but de la présente invention est de remédier aux inconvénients précités. Un but de la présente invention est de proposer un procédé et un système pour modéliser une pièce de manière automatisée fournissant une 15 représentation bi- ou tridimensionnelle de la pièce plus précise. Un autre but de la présente invention est de proposer un procédé et un système pour modéliser une pièce de manière automatisée nécessitant moins de ressources. Encore un autre but de la présente invention est de proposer un procédé 20 et un système pour modéliser une pièce de manière automatisée s'adaptant à la complexité de la pièce. Exposé de l'invention L'invention permet d'atteindre au moins un de ces objectifs par un 25 procédé pour modéliser de manière automatisée une pièce, ledit procédé comprenant les étapes suivantes : - acquisition d'une pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur, - obtention à partir desdites images d'un nuage de points relatifs à ladite pièce ; - détection, à partir dudit nuage de points, d'au moins une surface, dite de référence, de ladite pièce ; 3025918 - 3 - - détermination d'une représentation bi- ou tridimensionnelle de ladite pièce par analyse dudit nuage de points tranche par tranche suivant un axe, dit de référence, passant par ladite surface de référence, chaque tranche comprenant des points dudit nuage de 5 points sélectionnés selon ledit axe de référence. Le procédé selon l'invention permet donc de baser la modélisation d'une pièce sur une analyse par tranches d'un nuage de points 3D de la pièce. Autrement dit, selon l'invention, la modélisation d'une pièce est réalisée de manière progressive couche par couche. Une telle analyse par tranche permet 10 de réaliser une modélisation avec des ressources de calcul plus faibles comparé aux procédés et systèmes de modélisation actuellement connus dans lesquels les données relatives à une pièce sont analysées dans leur ensemble. De plus, une analyse par tranche des points représentant la pièce permet de réaliser une modélisation plus précise d'une pièce, par exemple en 15 diminuant l'épaisseur de chaque tranche. En outre, le procédé selon l'invention permet de réaliser une modélisation plus personnalisée en fonction du type de la pièce, en adaptant l'épaisseur des tranches à la complexité de la pièce modélisée. Lorsque la pièce est constituée de surfaces relativement continues ne comportant pas de 20 particularités ou d'objets, il est possible d'augmenter l'épaisseur des tranches sans perdre de précision tout en diminuant le temps de modélisation. Lorsqu'une pièce est constituée de surfaces relativement complexes comportant beaucoup de particularités ou d'objets, il est possible de diminuer l'épaisseur des tranches pour prendre en compte la complexité des surfaces et 25 ainsi de réaliser une modélisation précise de la pièce. Dans la présente invention, par « image couleur » on entend une image bidimensionnelle représentant l'information colorimétrique de la région visée. Dans la présente invention, par « image profondeur » on entend une 30 image bidimensionnelle représentant l'information profondeur de la région visée, c'est-à-dire pour chaque point représenté, la distance entre ce point et et un point d'acquisition. Dans la présente invention, par « nuage de points » on entend une représentation tridimensionnelle comprenant l'information colorimétrique de 35 l'image couleur et l'information profondeur de l'image profondeur. 3025918 -4 Avantageusement, l'étape d'acquisition d'image peut comprendre une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité de 5 positions, dites d'acquisition, autour d'un axe de rotation passant par un emplacement, dit d'acquisition, dans ladite pièce. Préférentiellement, pour au moins un emplacement d'acquisition, l'axe de rotation est un axe vertical, c'est-à-dire perpendiculaire au sol de la pièce.
10 Selon l'invention, pour chaque position d'acquisition, le procédé selon l'invention peut préférentiellement comprendre une acquisition de deux images, l'une desdites images étant une image couleur comprenant des données couleur, et l'autre desdites images étant une image de profondeur comprenant des données de profondeur.
15 Alternativement, lorsque le moyen d'acquisition le permet, pour chaque position d'acquisition, le procédé selon l'invention peut comprendre une acquisition d'une image unique comprenant à la fois des données couleur et des données de profondeur. Le procédé selon l'invention peut comprendre, une étape de 20 concaténation d'au moins deux images, préférentiellement de toutes les images, acquises pour au moins deux, préférentiellement pour toutes les, positions d'acquisition. Une concaténation des images prises pour deux positions d'acquisitions, en particulier consécutives, peut être réalisée par détermination d'une matrice 25 témoignant du déplacement, rotation(s) et/ou translation(s), opéré pour passer de l'une de ces positions à l'autre. Cette matrice de déplacement est ensuite utilisée pour réaliser la concaténation (ou la fusion) des images prises pour ces deux positions. L'étape de concaténation peut être réalisée pour concaténer/fusionner 30 les images couleur entre-elles ou les images profondeur entre-elles, ou préférentiellement pour les deux. Alternativement ou en plus, l'étape d'acquisition d'image peut comprendre une acquisition d'au moins une image comprenant au moins une 3025918 - 5 - information de couleur et au moins une information de profondeur, selon une pluralité d'emplacements d'acquisition différentes dans la pièce. Cette fonctionnalité est particulièrement avantageuse pour la modélisation de grandes pièces et permet de réaliser une modélisation précise 5 même dans le cas de grandes pièces. Le procédé selon l'invention peut ensuite comprendre une étape de concaténation ou une fusion des résultats de deux étapes d'acquisition réalisées en deux emplacements d'acquisition différents. Une telle étape de concaténation/fusion peut préférentiellement comprendre les étapes 10 suivantes : - obtention d'un nuage de points pour chaque emplacement d'acquisition, - détection d'une même surface de la pièce, ou d'un ou plusieurs points de correspondance, sur chaque nuage de points, par 15 exemple le plafond ou le sol de la pièce, - détermination d'une transformation linéaire reliant cette surface, respectivement ces points de correspondance, dans un des deux nuages de points, à cette même surface, respectivement ces points de correspondance, dans l'autre des deux nuages de points, et 20 - recalage d'un des deux nuages de points avec ladite transformation linéaire. Une telle concaténation est relative, c'est-à-dire qu'elle permet de recaler un des deux nuages de points par rapport à l'autre des deux nuages points.
25 La concaténation peut également être absolue et réaliser un recalage de chaque nuage de points par rapport à un repère ou une référence absolue préalablement fixé. Le procédé selon l'invention peut comprendre une étape d'acquisition 30 combinant les deux variantes qui viennent d'être définies, à savoir : - au moins deux emplacements d'acquisition dans la pièce, et - pour chaque emplacement d'acquisition, au moins une position d'acquisition autour d'un axe de rotation passant par ledit emplacement d'acquisition. 3025918 -6 Avantageusement, l'étape d'acquisition peut comprendre, pour au moins une position ou au moins un emplacement d'acquisition, une acquisition d'image(s) d'au moins deux régions différentes de la pièce selon au moins 5 deux directions de visée différentes de sorte que deux régions adjacentes comportent une zone commune. En particulier, les deux directions de visée ne sont pas parallèles entre- elles. Une telle acquisition peut préférentiellement être réalisée par au moins 10 deux caméras positionnées de sorte à avoir une orientation identique dans un plan horizontal dans la pièce et des orientations différentes dans un plan vertical dans la pièce. Alternativement, une telle acquisition peut également être réalisée par une seule et unique caméra repositionnable à la fois dans un plan vertical et 15 dans un plan horizontal. Dans ce cas, l'étape d'acquisition peut réaliser une acquisition d'images : - selon une première direction pour toutes les positions ou emplacements d'acquisition, puis une autre direction pour toutes les positions ou emplacements d'acquisition, etc. ; ou 20 - selon toutes les directions pour une position ou emplacement d'acquisition, puis selon toutes les directions pour la position ou l'emplacement d'acquisition suivant(e), etc. Le procédé selon l'invention peut en outre comprendre, pour au moins 25 une position ou un emplacement d'acquisition, une étape de concaténation/fusion de l'acquisition réalisée pour au moins deux régions adjacentes, ladite étape comprenant les étapes suivantes : - estimation d'une transformation linéaire entre les deux régions adjacentes à l'aide des positions du ou des outils d'acquisition 30 utilisés pour lesdites régions, - détection d'au moins un point de correspondance dans la zone commune aux deux régions adjacentes, - amélioration de l'estimation de ladite transformation linéaire en fonction dudit au moins un point de correspondance, 3025918 - 7 - - affinage de la transformation linéaire à l'aide d'une méthode de minimisation prédéterminée, et = concaténation ou fusion des nuages de points desdites régions en utilisant ladite transformation linéaire.
5 Le ou les points de correspondances peuvent être détecté(s) par analyse de l'image couleur, et/ou profondeur, de chaque zone et peut correspondre à un objet dans la pièce ou une particularité d'une surface de la pièce et visible dans les images acquises pour chacune des régions.
10 La détection d'un point de correspondance dans deux images peut être réalisée par n'importe quel algorithme connu, tel que par exemple l'algorithme SIFT (pour « Scale Invariant Feature Transform » en anglais). La mise en correspondance de deux images peut être réalisée par la technique connue sous le nom FLANN (pour « Fast Library for Approximate 15 Nearest Neighbors » en anglais). Avantageusement, le procédé selon l'invention peut comprendre, avant l'étape de concaténation ou fusion, une étape de rééquilibrage de la ou des différentes transformations linéaires détectées.
20 En effet, lorsque plusieurs transformations linéaires sont détectées pour concaténer ou fusionner plusieurs images de plusieurs régions, il existe des incertitudes sur les transformations linéaires détectées de manière individuelle, surtout lorsque le nombre de points de correspondance est faible entre deux régions adjacentes, par exemple dans le cas d'une surface sans 25 variation. Dans ce cas, le procédé selon l'invention permet, lors de cette étape de rééquilibrage, de modifier au moins une, préférentiellement chacune, des transformations linéaires de sorte à diminuer les incertitudes sur l'ensemble des transformations linéaires détectées. Une telle étape de rééquilibrage peut être réalisée par n'importe quel 30 algorithme connu, tel que par exemple la technique connue sous le nom de SLAM (pour « Simultaneous localization and mapping » en anglais). La méthode d'affinage de la transformation linéaire peut être réalisée par n'importe quel algorithme connu, tel que par exemple l'algorithme de 3025918 - 8 - minimisation connu sous le nom de ICP (pour « Iterative Closest Point » en anglais). Selon l'invention, la détection d'un plan ou d'une surface dans un nuage de points peut être réalisée en utilisant un algorithme de reconnaissance de 5 forme connu, tel que par exemple l'algorithme RANSAC (pour « RANdom SAmple Consensus » en anglais). Avantageusement, le procédé selon l'invention peut comprendre une adaptation de la luminosité des images acquises lors de l'étape d'acquisition.
10 Cela permet de rendre le procédé robuste contre les variations de luminosité entre deux positions d'acquisition, et/ou deux emplacements d'acquisitions, et/ou entre deux moments d'acquisitions dans la journée. Une telle adaptation peut, de manière non limitative, mettre en oeuvre la technique d'imagerie HDRI (pour « High-dynamic-range imaging » en 15 anglais). Selon une version particulièrement préférée de l'invention, la surface de référence peut être une surface horizontale de la pièce, et plus préférentiellement un plafond ou un sol de ladite pièce, l'étape de détection 20 comprenant une recherche dans le nuage de points d'un plan horizontal. Cette version du procédé selon l'invention est particulièrement avantageuse car le plafond d'une pièce, ou plus généralement une surface d'une pièce dont la normale est dirigée vers le sol de la pièce, est la surface qui comporte le moins de particularité ou d'objets. Sa détection et sa 25 caractérisation est donc plus simple, plus rapide et plus précise que les autres surfaces composant la pièce. La détection d'une telle surface peut être réalisée, de manière nullement limitative, par l'algorithme RANSAC appliqué au nuage de points en vue de détecter une surface horizontale.
30 La reconnaissance d'une telle surface permet d'aligner le nuage de points de telle sorte que l'axe de référence soit vertical pour obtenir les murs verticaux et le plafond et sol horizontaux. Avantageusement, l'analyse d'au moins une tranche du nuage de points 35 peut comprendre : 3025918 - 9 - - une conversion des points appartenant à ladite tranche en une image bidimensionnelle dans un plan perpendiculaire à l'axe de référence, telle que par exemple une image binaire ou en niveau de gris ; 5 - une recherche d'au moins un segment, préférentiellement de tous les segments, présent(s) sur ladite image ; et La conversion en une image bidimensionnelle des points appartenant à une tranche peut être réalisée en supprimant pour chacun de ces points la coordonnée du point selon l'axe de référence ou un axe parallèle à l'axe de 10 référence et de conserver pour ce point uniquement les coordonnées selon les deux autres axes. La recherche et l'identification du ou des segments dans l'image bidimensionnelle peut être réalisée par n'importe quel algorithme connu de l'homme du métier, tel que par exemple la technique de Hough.
15 L'étape de détermination d'une représentation bi- ou tridimensionnelle peut en outre comprendre une identification d'une surface ou d'une paroi de ladite pièce en fonction des résultats fournis par l'analyse d'une pluralité de, et préférentiellement de toutes les, tranches.
20 La largeur de la surface ou de la paroi correspond à la longueur d'un segment correspondant à la surface, sa position à la position du segment et sa hauteur à la somme de l'épaisseur des tranches sur lesquelles ce segment est présent.
25 Avantageusement, l'étape de détermination peut en outre comprendre une détection automatisée d'au moins un objet au niveau d'au moins une surface, ou d'une paroi, de ladite pièce en fonction de résultats fournis par l'analyse d'une pluralité de de tranches. En effet, lorsqu'une image bidimensionnelle obtenue pour une tranche 30 comprend une discontinuité dans un segment cela veut dire qu'il y a la présence d'un objet devant ladite surface. De plus, lorsqu'une image bidimensionnelle obtenue pour une tranche comprend deux segments alignés cela veut dire qu'il y a la présence d'un objet dans ladite surface. 3025918 - 10 - Dans la présente invention, par « objet » on entend : - une porte se trouvant dans une paroi de la pièce, - une fenêtre se trouvant dans une paroi de la pièce, - un objet accroché sur une paroi de la pièce, 5 - un objet disposé au sol contre une paroi de la pièce, ou - une forme réalisée dans une paroi de la pièce. Le procédé selon l'invention peut en outre comprendre, pour au moins un objet détecté, une étape de caractérisation dudit objet, en vue de 10 déterminer un paramètre relatif audit objet, à savoir au moins une dimension de l'objet telle que la longueur, la largeur, la profondeur de l'objet ou une forme composant l'objet. Suivant un exemple de réalisation particulier et nullement limitatif, la caractérisation d'un objet peut avantageusement comprendre les étapes 15 suivantes pour chaque objet : - détermination d'une position approximative, et éventuellement des dimensions approximatives, dudit objet par analyse d'au moins une image bidimensionnelle fournie pour au moins une tranche ; - en fonction de ladite position approximative, et éventuellement 20 desdites dimensions approximatives, sélection d'une image de couleur et/ou d'une image profondeur représentant une zone englobant ledit objet ; - détection de contours relatifs audit objet sur ladite image couleur et/ou sur ladite image profondeur.
25 Préférentiellement, la détection de contour est réalisée à la fois sur les images binaires représentant chacune des tranches et sur l'image couleur, et/ou l'image profondeur. Cela permet d'obtenir plus de données sur l'objet. Par exemple, les images binaires représentant chacune des tranches peuvent être utilisées pour déterminer la dimension de l'objet et l'image couleur et/ou 30 l'image profondeur permet de déterminer si l'objet présente des caractéristiques visuelles/texturales/ou de profondeur semblables ou différentes de la paroi dans laquelle il se trouve.
3025918 La détection de contour peut être réalisée par n'importe quel procédé connu, tel que par exemple en utilisant la technique de segmentation par watershed.
5 Avantageusement, le procédé selon l'invention peut comprendre pour au moins un objet, une étape de détermination de la nature dudit objet par un réseau de neurones à apprentissage supervisé. Le réseau de neurones peut être entrainé préalablement avec des objets connus, et prendre en compte les résultats du procédé selon l'invention 10 dans la modélisation préalable de pièces. Le réseau de neurones peut prendre en entrée au moins une des données, en particulier fournie par l'étape de caractérisation, à savoir : - au moins une dimension de l'objet, - une position de l'objet, 15 - une couleur de l'objet, - un contour bi- ou tridimensionnel de l'objet, - etc.
20 Selon un autre aspect de l'invention il est proposé un système pour modéliser de manière automatisée une pièce. Ce système peut en particulier être configuré pour mettre en oeuvre toutes les étapes du procédé selon l'invention. Le système selon l'invention peut comprendre : 25 - au moins un moyen d'acquisition pour prendre une pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur ; et - des moyens de calcul pour mettre en oeuvre les étapes du procédé selon l'invention pour obtenir à partir des images acquises 30 une représentation bi- ou tridimensionnelle de la pièce. L'au moins un moyen d'acquisition peut être configuré pour mettre en oeuvre l'étape d'acquisition telle que décrite plus haut suivant les différentes variantes décrites. 3025918 - 12 - En particulier, et de manière nullement limitative, l'au moins un moyen d'acquisition peut comprendre au moins deux caméras rotatives autour d'un axe vertical, et orientées suivant deux directions de visée non parallèles entre elles et se croisant sensiblement au niveau d'un axe vertical.
5 L'au moins un moyen d'acquisition peut être mis en rotation par n'importe quel moyen connu, tel qu'un moteur pas à pas. Description des figures et modes de réalisation 10 D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée d'exemples nullement limitatifs, et des dessins annexés sur lesquels : - la FIGURE 1 est une représentation schématique des étapes d'un exemple non limitatif d'un système selon l'invention ; 15 - les FIGURES 2a à 2h sont des représentations schématiques des résultats fournis lors de certaines étapes du procédé de la FIGURE 1 100 ; - les FIGURES 3a et 3b sont des représentations schématiques d'un exemple non limitatif d'un réseau de neurones mis en oeuvre 20 dans le procédé selon l'invention ; et - la FIGURE 4 est une représentation schématique d'un exemple non limitatif d'un système selon l'invention. Il est bien entendu que les modes de réalisation qui seront décrits dans 25 la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique 30 antérieur. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. 3025918 - 13 - En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique. Sur les figures, les éléments communs à plusieurs figures conservent la 5 même référence. La FIGURE 1 est une représentation schématique d'un exemple non limitatif d'un procédé selon l'invention.
10 Le procédé 100 représenté sur la FIGURE 1 comprend une étape 102 de calibration de la ou des caméras utilisées pour l'acquisition d'images dans la pièce. De plus, s'il y a plus d'une caméra, cette étape comprend la calibration des caméras entre elles. Cette étape de calibration peut être réalisée par n'importe quel procédé connu.
15 Puis, le procédé 100 comprend une phase 104 d'acquisition réalisant une acquisition d'une pluralité d'images dans la pièce à modéliser. La phase 104 d'acquisition comprend une étape 106 d'acquisition d'images en une position d'acquisition autour d'un axe de rotation vertical passant par un emplacement d'acquisition dans la pièce. Cette étape réalise 20 une prise d'une image couleur et d'une image profondeur de deux régions différentes de la pièce, suivant au moins deux directions de visée différentes. Les deux directions de visée sont choisies de sorte que les deux régions imagées comportent une zone commune, c'est-à-dire une zone apparaissant sur les images de chaque région. Cette étape 106 fournit donc pour une 25 position d'acquisition : - une image couleur, une image profondeur et un nuage de points d'une première région, et - une image couleur, une image profondeur et un nuage de points d'une deuxième région comprenant une zone commune avec la première 30 région. Bien entendu, cette étape 106 peut réaliser une acquisition d'image d'une unique région dans la pièce ou de plus de deux régions dans la pièce. Chaque image couleur et/ou chaque image profondeur est acquise suivant une technique numérique d'imagerie à grande gamme dynamique de 35 sorte à rendre l'image prise indépendante des différences de luminosité. 3025918 - 14 - Chaque image prise est mémorisée en association avec - un identifiant de la région, par exemple région 1, région 2, etc. - un identifiant de la position d'acquisition, par exemple position 1, position 2, etc. ; et 5 - un identifiant de l'emplacement d'acquisition, par exemple emplacement 1, emplacement 2, etc. Puis, lorsque l'étape 106 termine l'acquisition d'images à la position d'acquisition actuelle, une étape 108 détermine si la position d'acquisition actuelle est la dernière position d'acquisition pour cet emplacement 10 d'acquisition. Si à l'étape 108, la position d'acquisition actuelle n'est pas la dernière position d'acquisition pour cet emplacement d'acquisition alors une étape 110 réalise un déplacement, à savoir une rotation, vers la prochaine position d'acquisition à cet emplacement d'acquisition. Le procédé reprend à l'étape 15 106, et ainsi de suite. Si à l'étape 108, la position d'acquisition actuelle est la dernière position d'acquisition pour cet emplacement d'acquisition alors une étape 112 détermine si l'emplacement d'acquisition actuel est le dernier emplacement d'acquisition.
20 Si à l'étape 112, l'emplacement d'acquisition actuel n'est pas le dernier emplacement d'acquisition alors une étape 114 réalise un déplacement, en particulier une translation, vers le prochain emplacement d'acquisition. Le procédé reprend à l'étape 106 pour le nouvel emplacement d'acquisition. Si à l'étape 112, l'emplacement d'acquisition actuel est le dernier 25 emplacement d'acquisition alors la phase 104 d'acquisition est terminée. Le procédé 100 comprend ensuite une phase 116 d'obtention d'un nuage de points représentant la pièce en fonction des acquisitions réalisées lors de la phase d'acquisition 104.
30 Cette phase 116 comprend une étape 118 de concaténation des images d'au moins deux régions d'acquisition différentes pour une même position d'acquisition. Cette concaténation est réalisée en considérant les régions adjacentes deux à deux. Pour deux régions adjacentes comprenant une zone commune, l'étape 118 réalise les opérations suivantes : 3025918 - 15 - - estimation de la transformation linéaire entre les deux régions adjacentes à l'aide des positions et orientations de la ou des caméras pour les deux régions ; - détection, par l'algorithme SIFT, de plusieurs points d'intérêt sur 5 chacune des images dans la zone commune, et - création des points de correspondance, par la technique FLANN, à partir des points d'intérêt entre les deux images, - extraction des points tridimensionnels correspondants aux points de correspondance sur chacune des deux images, et 10 - estimation de la transformation linéaire par la méthode des moindres carrés, - affinage de la transformation linéaire à l'aide de la méthode ICP (pour « Iterative Closest Point » en anglais).
15 Cette étape 118 fournit pour une position d'acquisition des transformations linéaires qui permettent de concaténer/fusionner les nuages de points pour les régions adjacentes en un nuage de points unique comprenant toutes les régions imagées à cette position d'acquisition. Cette étape 118 est réalisée de manière indépendante pour chacune 20 des positions d'acquisition de chacun des emplacements d'acquisition. La phase d'obtention 116 comprend ensuite une étape 120 réalisant un calcul des transformations linéaires qui permettent les concaténation/fusion des nuages de points pour toutes les positions d'acquisition d'un emplacement 25 d'acquisition. Pour ce faire, les positions d'acquisitions sont considérées deux à deux et cette étape 120 comprend les opérations suivantes : - estimation de la transformation linéaire entre les deux positions adjacentes à l'aide de l'outil d'acquisition 30 - détection, par l'algorithme SIFT, de plusieurs points d'intérêt sur chacune des images dans une zone commune aux deux positions adjacentes, et - création des points de correspondance, par la technique FLANN, à partir des points d'intérêt entre les deux images, 3025918 - 16 - - extraction des points tridimensionnels correspondants aux points de correspondance sur chacune des deux images, - estimation de la transformation linéaire par la méthode des moindres carrés, 5 - affinage de la transformation linéaire à l'aide de la méthode ICP (pour « Iterative Closest Point » en anglais). Cette étape 120 fournit pour un emplacement d'acquisition des transformations linéaires qui permettent de concaténer/fusionner les nuages de points pour toutes les positions d'acquisition.
10 Cette étape 120 est réalisée pour chaque emplacement d'acquisition de manière indépendante. La phase d'obtention 116 comprend ensuite une étape 122 réalisant un calcul des transformations linéaires qui permettent les concaténation/fusion 15 des nuages de points pour tous les emplacements d'acquisition. Pour ce faire, les emplacements d'acquisitions sont considérés deux à deux et cette étape 122 comprend les opérations suivantes : - détection, par l'algorithme RANSAC, d'une même surface dans la pièce, par exemple le plafond de la pièce, sur chacune des deux images 20 profondeur, ou nuage de points, associées à chacun des deux emplacements, et - détermination d'une transformation linéaire reliant cette surface dans un des deux nuages de points, à cette même surface dans l'autre des deux nuages de points.
25 La phase d'obtention 116 comprend ensuite une étape 124 réalisant une organisation et un rééquilibrage des différentes transformations linéaires les unes par rapport aux autres de manières à concaténer/fusionner sans décalage et de manière précise les nuages de points les uns par rapport aux autres.
30 Pour ce faire, le procédé d'invention utilise la technique connue sous le nom de SLAM (pour « Simultaneous localization and mapping » en anglais). 3025918 - 17 - La phase d'obtention 116 comprend ensuite une étape 126 réalisant une concaténation/fusion des nuages de points en utilisant lesdites transformations linéaires. Lorsque l'étape 126 est terminée, le procédé dispose d'un nuage de 5 points représentant la pièce. Une représentation d'un nuage de point obtenu par la phase d'obtention 116 est visible sur la FIGURE 2a. Le procédé 100 comprend, suite à la phase 116, une phase 128 de 10 détermination d'une représentation bi- ou tridimensionnelle de la pièce, à partir du nuage de points fournis par la phase 116. La phase 128 comprend une étape 130 de détection d'une surface de référence, qui dans l'exemple présent et de manière nullement limitative, est le plafond de la pièce.
15 Pour ce faire, l'algorithme RANSAC est appliqué aux points du nuage de points représentant la pièce ayant une normale dirigée vers le bas, pour identifier une surface dont la normale est dirigée vers le bas, et plus précisément vers le sol de la pièce. Une représentation de l'étape 130 est visible sur la FIGURE 2b.
20 Lorsque la surface de référence est détectée, une étape 132 réalise une analyse tranche par tranche du nuage de points représentant la pièce suivant un axe perpendiculaire à la surface de référence, c'est-à-dire au plafond de la pièce, appelée axe de référence. Dans la suite de la description, on adoptera un repère (x,y,z) et l'axe de référence sera l'axe z.
25 Concrètement, l'étape 132 sélectionne tout d'abord tous les points du nuage de points représentant la pièce dont la cordonnée z se trouve entre z1 et z2 avec z1 la cordonnée selon l'axe z de la surface de référence. Une représentation d'une tranche du nuage de point est visible sur la FIGURE 2c. Les points sélectionnés sont projetés sur le plan (x,y) pour obtenir une 30 image à deux dimensions (x,y) de cette première tranche. Cette image bidimensionnelle est dans le présent exemple une image en noir et blanc. Une représentation d'une image bidimensionnelle de ladite tranche est visible sur la FIGURE 2d. L'image bidimensionnelle est analysée avec la technique de Hough pour 35 déterminer les segments sur cette image. 3025918 - 18 - Ensuite une deuxième tranche, correspondant à l'ensemble des points dans le nuage de points dont la coordonnée z se trouve entre z2 et z3 est sélectionnée puis analysée telle que décrite, et ainsi de suite jusqu'à atteindre une tranche ne comprenant aucun point.
5 Chaque tranche peut avoir une épaisseur, notée Oz, prédéterminée, suivant l'axe z. Cette épaisseur peut être identique pour toutes les tranches ou différente pour au moins une tranche. L'épaisseur Oz d'une ou des tranches peut être adaptée en fonction de la nature des surfaces de la pièce. Plus les surfaces présentent une 10 architecture complexe, plus l'épaisseur sera petite, et vice versa. L'étape 132 fournit pour chaque tranche analysée, les segments détectés dans cette tranche et pour chaque segment l'équation du segment, la longueur du segment et la position du segment. Une représentation de l'étape 132 est visible sur la FIGURE 2e.
15 Une étape 134 réalise une détection des surfaces de la pièce. Pour ce faire, l'étape 134 compare les équations des segments identifiés pour chacune des tranches et fusionne les segments présentant la même équation. L'étape 134 permet ainsi d'obtenir une pluralité d'équations uniques, dans le plan (x,y), correspondant chacune à une surface de la pièce. La largeur de chaque 20 surface ainsi identifiée correspond à la longueur du segment, sa position à la position du segment et sa hauteur à la somme de l'épaisseur des tranches sur lesquelles ce segment a été identifié. L'étape 134 fournit donc une pluralité de surfaces et pour chaque surface, son équation dans la plan (x,y,z).
25 Ensuite une étape 136 réalise une détection d'objet(s), chaque objet pouvant être, de manière non limitative : ^ une porte se trouvant dans une paroi de la pièce, ^ une fenêtre se trouvant dans une paroi de la pièce, 30 ^ un objet accroché sur une paroi de la pièce, ^ un objet disposé au sol contre une paroi de la pièce, ou ^ une forme réalisée dans une paroi de la pièce. Pour ce faire chaque équation unique obtenue lors de l'étape 134 est analysée pour chacune des tranches, dans le cas où : 3025918 - 19 - - une discontinuité apparait dans un segment cela veut dire qu'il y a la présence d'un objet devant ladite surface - deux segments sont alignés, cela veut dire qu'il y a la présence d'un objet dans ladite surface 5 En analysant l'ensemble des tranches, le procédé selon l'invention détecte la hauteur, la largeur et la profondeur desdits objets. En effet, en regroupant les informations, du fait que l'objet se retrouve sur plusieurs tranches, le procédé selon l'invention déduit la hauteur, la largeur et la profondeur.
10 Ainsi tous les objets sont identifiés et pour chaque objet, l'étape 136 renseigne la position approximative de l'objet. Une représentation de l'étape 136 est visible sur la FIGURE 2f sur laquelle un objet fenêtre, et deux objets armoire ont été détectés. Une étape 138 réalise une caractérisation précise de chaque objet. Pour 15 chaque objet, en connaissant la position approximative de l'objet, une détection de contour est réalisée dans l'image couleur. Cette détection de contour fournit, pour chaque objet, les contours précis, et donc la position et les dimensions, et éventuellement au moins une caractéristique de l'objet, par exemple, la couleur de l'objet.
20 Une représentation de l'étape 138 est visible sur la FIGURE 2g. Sur cette Figure 2g l'objet fenêtre a été identifié sur une des surfaces de la pièce. Le procédé 100 représenté sur la FIGURE 1 comprend une étape 140 déterminant la nature de chaque objet. Pour ce faire, l'étape 140 utilise un 25 réseau de neurones à apprentissage supervisé préalablement « entrainé ». Pour chaque objet, les caractéristiques de l'objet obtenues lors de l'étape 138 sont renseignées au réseau de neurones qui en fonction de son apprentissage préalable fournit la nature de l'objet.
30 Lorsque toutes les surfaces et tous les objets de la pièce sont identifiés et caractérisés une étape 142 fournit une présentation tridimensionnelle ou bidimensionnelle de la pièce suivant un point de vue préalablement renseigné. Une représentation de l'étape 142 est visible sur la FIGURE 2h. 3025918 - 20 - La FIGURE 3a est une représentation schématique d'un exemple non limitatif d'un neurone 300 et de ses connections pouvant être mis en oeuvre dans le procédé selon l'invention, et en particulier lors de l'étape 140 du procédé 100 de la FIGURE 1.
5 La FIGURE 3b représente un exemple de modèle 302 d'apprentissage supervisé auquel est soumis le réseau de neurones constitué de plusieurs neurones 300 L'apprentissage d'un tel réseau de neurones est réalisé en fournissant au réseau de neurones les caractéristiques d'une multitude d'objets en entrée, 10 et en lui indiquant, pour chaque objet, la nature de l'objet qu'il doit fournir en sortie. La FIGURE 4 est une représentation schématique d'un exemple non 15 limitatif d'un système selon l'invention. Le système 400 représenté sur la FIGURE 4 comprend deux caméras 402 et 404 disposées dans un support 406. Le support 406 est agencé rotatif sur un moteur pas à pas 408 à commande numérique.
20 Le système comprend en outre un module informatique 410 relié au moteur pas à pas 408 et à chacune des caméras 402 et 404. Le module informatique 410 comprend une sortie de commande du moteur pas à pas 408, une sortie de commande pour chacune des caméras 402 et 404 pour déclencher une prise d'image.
25 Le module informatique 410 comprend en outre des entrées telles que : - une entrée pour chaque caméra 402 et 404 permettant de recevoir de chaque caméra des images prises par cette dernière ; et - éventuellement, une entrée pour le moteur 408, utilisée pour que le moteur 408 indique au module informatique la rotation qu'il 30 effectue. Le module informatique 410 comprend en outre des moyens de mémorisation et des moyens de calcul pour mettre en oeuvre les étapes du procédé selon l'invention, tel que par exemple les étapes 118 à 142 du procédé 100 décrit en référence à la FIGURE 1. 3025918 - 21 - L'ensemble caméras 402 et 404, support 406, moteur 408 et module informatique est disposé sur un trépied 412, dont la hauteur est réglable. Préférentiellement, la hauteur du trépied 412 est réglée de sorte que les caméras 402 et 404 se trouvent sensiblement à mi-hauteur entre le sol et le 5 plafond de la pièce. Le moteur 408 permet de déplacer en rotation le support 406 autour d'un axe de rotation 414 sensiblement perpendiculaire au sol de la pièce. La caméra 402 est positionnée suivant une direction de prise de vue matérialisée par l'axe 416 descendante et permet de prendre des images 10 d'une première région 418 autour de l'axe 416. La caméra 404 est positionnée suivant une direction de prise de vue matérialisée par l'axe 420 ascendante et permet de prendre des images d'une deuxième région 422 autour de l'axe 420. Plus particulièrement, l'axe 416 et l'axe 420 présentent chacun un angle de valeur absolue sensiblement égale par rapport à un plan 15 parallèle au sol, ou horizontale, passant par le centre du support 406. Les régions respectivement 418 et 422, imagées par les caméras 402 et 404 comportent une zone commune 424. Le module informatique 410 est équipé d'instructions pour : - commander le moteur pas à pas 408 en vue de positionner le 20 support 406 en une pluralité de positions d'acquisition autour de l'axe vertical 414, le passage d'une position d'acquisition à la position d'acquisition suivante étant réalisée uniquement par rotation ; - déclencher une prise d'images par chaque caméra 402 et 404, 25 pour chaque position d'acquisition, chaque caméra 402 et 404 étant équipée : ^ d'un capteur d'image couleur fournissant une image couleur de la région qui lui est associée, et ^ d'un capteur infrarouge fournissant une image de 30 profondeur de la région qui lui est associée ; - mémoriser l'image couleur et l'image profondeur prises par chaque caméra pour chaque position d'acquisition. Alternativement, les étapes du procédé selon l'invention peuvent être 35 réalisées par un autre module informatique que le module informatique 410, 3025918 - 22 - tel que par exemple un serveur distant. Dans ce cas, selon un premier exemple le module informatique 410 peut être en communication avec le serveur distant par l'intermédiaire d'un réseau de communication sans fil, tel que le réseau de téléphonie mobile. Selon un deuxième exemple, les données 5 mémorisées par le module informatique 410 peuvent être transférées vers le serveur distant de manière « manuelle », c'est-à-dire par connexion filaire du module informatique 410 sur le serveur distant ou par l'intermédiaire d'un moyen de mémorisation nomade de type clef USB.
10 Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention.

Claims (15)

  1. REVENDICATIONS1. Procédé (100) pour modéliser de manière automatisée une pièce, ledit procédé (100) comprenant les étapes suivantes : - acquisition (104) d'une pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur ; - obtention (116) à partir desdites images d'un nuage de points relatifs à ladite pièce ; - détection (130), à partir dudit nuage de points, d'au moins une surface, dite de référence, de ladite pièce ; - détermination (132-142) d'une représentation bi- ou tridimensionnelle de ladite pièce par analyse dudit nuage de points tranche par tranche suivant un axe, dit de référence, passant par ladite surface de référence, chaque tranche comprenant des points dudit nuage de points sélectionnés selon ledit axe de référence.
  2. 2. Procédé (100) selon la revendication 1, caractérisé en ce que l'étape (104) d'acquisition d'image comprend une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité de positions, dites d'acquisition, autour d'un axe de rotation passant par un emplacement, dit d'acquisition, dans ladite pièce.
  3. 3. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape (104) d'acquisition d'image comprend une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité d'emplacements d'acquisition différentes dans la pièce.
  4. 4. Procédé (100) selon les revendications 2 ou 3, caractérisé en ce que l'étape d'acquisition (104) comprend, pour au moins une position d'acquisition, respectivement au moins un emplacement d'acquisition, une acquisition (106) d'image(s) d'au moins deux régions (418, 422) différentes selon au moins 3025918 - 24 - deux directions (416, 420) de visée différentes de sorte que deux régions adjacentes (418, 422) comportent une zone commune (424).
  5. 5. Procédé (100) selon la revendication précédente, caractérisé en ce qu'il 5 comprend, pour au moins une position d'acquisition, respectivement au moins un emplacement d'acquisition, une étape (118,126) de concaténation/fusion de l'acquisition réalisée pour au moins deux régions adjacentes (418, 422), ladite étape (118,126) comprenant les étapes suivantes : - estimation d'une transformation linéaire entre lesdites régions 10 adjacentes à l'aide des positions du ou des outils d'acquisition utilisés pour lesdites régions, - détection d'au moins un point de correspondance dans la zone commune aux deux régions adjacentes, - amélioration de l'estimation de ladite transformation linéaire en 15 fonction dudit au moins un point de correspondance, - affinage de la transformation linéaire à l'aide d'une méthode de minimisation prédéterminée, et = concaténation ou fusion des nuages de points desdites régions en utilisant ladite transformation linéaire. 20
  6. 6. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend une adaptation de la luminosité des images acquises lors de l'étape d'acquisition (106). 25
  7. 7. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la surface de référence correspond à une surface horizontale ayant une normale verticale, en particulier un plafond ou un sol de ladite pièce, l'étape de détection (130) comprenant une recherche dans le nuage de points d'un plan ayant une normale dirigée vers le bas, en 30 particulier vers le sol de la pièce.
  8. 8. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'analyse (132) d'au moins une tranche du nuage de points comprend : 3025918 - 25 - - une conversion des points appartenant à ladite tranche en une image bidimensionnelle dans un plan perpendiculaire à l'axe de référence ; et - une recherche d'au moins un segment, préférentiellement de 5 tous les segments, présent(s) sur ladite image.
  9. 9. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape de détermination (132-142) comprend une identification (134) d'une surface de ladite pièce en fonction des résultats 10 fournis par l'analyse d'une pluralité de de tranches.
  10. 10. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape de détermination (132-142) comprend une détection (136) d'au moins un objet au niveau d'au moins une surface de 15 ladite pièce en fonction de résultats fournis par l'analyse d'une pluralité de tranches.
  11. 11. Procédé (100) selon la revendication précédente, caractérisé en ce qu'il comprend pour au moins un objet, une étape (138) de caractérisation dudit 20 objet, ladite caractérisation comprenant les étapes suivantes pour chaque objet : - détermination d'une position approximative, et éventuellement des dimensions approximatives, dudit objet ; - en fonction de ladite position approximative, et éventuellement 25 desdites dimensions approximatives, sélection d'une image de couleur ou de profondeur représentant une zone englobant ledit objet ; - détection de contours relatifs audit objet sur ladite image couleur ou de profondeur. 30
  12. 12. Procédé (100) selon l'une quelconque des revendications 10 ou 11, caractérisé en ce qu'il comprend, pour au moins un objet, une étape (140) de détermination de la nature dudit objet par un réseau de neurones (300) à apprentissage supervisé. 3025918 - 26 -
  13. 13. Procédé (100) selon l'une quelconque des revendications 10 à 12, caractérisé en ce qu'au moins un objet correspond à : - une porte se trouvant dans une paroi de la pièce, 5 - une fenêtre se trouvant dans une paroi de la pièce, - un objet accroché sur une paroi de la pièce, - un objet disposé au sol contre une paroi de la pièce, ou - une forme réalisée dans une paroi de la pièce. 10
  14. 14. Système (400) pour modéliser de manière automatisée une pièce, en particulier configuré pour mettre en oeuvre toutes les étapes du procédé (100) selon l'une quelconque des revendications précédentes, ledit système (400) comprenant : - au moins un moyen (402, 404) d'acquisition pour prendre une 15 pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur ; et - des moyens (410) de calcul pour mettre en oeuvre les étapes du procédé (100) selon l'une quelconque des revendications 20 précédentes pour obtenir à partir des images acquises une représentation bi- ou tridimensionnelle de la pièce.
  15. 15. Système (400) selon la revendication précédente, caractérisé en ce que l'au moins un moyen d'acquisition comprend au moins deux caméras (402, 25 404) rotatives autour d'un axe vertical (414), et orientées suivant deux directions (416, 420) de visée non parallèles entre elles et se croisant sensiblement au niveau d'un axe vertical (414).
FR1458550A 2014-09-11 2014-09-11 Procede et systeme de modelisation automatisee d'une piece Expired - Fee Related FR3025918B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1458550A FR3025918B1 (fr) 2014-09-11 2014-09-11 Procede et systeme de modelisation automatisee d'une piece
PCT/EP2015/070886 WO2016038208A2 (fr) 2014-09-11 2015-09-11 Procede et systeme de modelisation automatisee d'une piece

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1458550A FR3025918B1 (fr) 2014-09-11 2014-09-11 Procede et systeme de modelisation automatisee d'une piece
FR1458550 2014-09-11

Publications (2)

Publication Number Publication Date
FR3025918A1 true FR3025918A1 (fr) 2016-03-18
FR3025918B1 FR3025918B1 (fr) 2018-04-06

Family

ID=52016771

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1458550A Expired - Fee Related FR3025918B1 (fr) 2014-09-11 2014-09-11 Procede et systeme de modelisation automatisee d'une piece

Country Status (2)

Country Link
FR (1) FR3025918B1 (fr)
WO (1) WO2016038208A2 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018007628A1 (fr) * 2016-07-07 2018-01-11 Levels3D Méthode et système de reconstruction d'une représentation tridimensionnelle

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10867085B2 (en) 2017-03-10 2020-12-15 General Electric Company Systems and methods for overlaying and integrating computer aided design (CAD) drawings with fluid models
US10803211B2 (en) 2017-03-10 2020-10-13 General Electric Company Multiple fluid model tool for interdisciplinary fluid modeling
US11004568B2 (en) 2017-03-10 2021-05-11 Altair Engineering, Inc. Systems and methods for multi-dimensional fluid modeling of an organism or organ
US10409950B2 (en) 2017-03-10 2019-09-10 General Electric Company Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model
US10977397B2 (en) 2017-03-10 2021-04-13 Altair Engineering, Inc. Optimization of prototype and machine design within a 3D fluid modeling environment
CN109614857B (zh) * 2018-10-31 2020-09-29 百度在线网络技术(北京)有限公司 基于点云的杆状物识别方法、装置、设备及存储介质
US11216005B1 (en) * 2020-10-06 2022-01-04 Accenture Global Solutions Limited Generating a point cloud capture plan

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140043436A1 (en) * 2012-02-24 2014-02-13 Matterport, Inc. Capturing and Aligning Three-Dimensional Scenes
US8705893B1 (en) * 2013-03-14 2014-04-22 Palo Alto Research Center Incorporated Apparatus and method for creating floor plans

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140043436A1 (en) * 2012-02-24 2014-02-13 Matterport, Inc. Capturing and Aligning Three-Dimensional Scenes
US8705893B1 (en) * 2013-03-14 2014-04-22 Palo Alto Research Center Incorporated Apparatus and method for creating floor plans

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Field and Service Robotics", vol. 79, 1 January 2014, SPRINGER BERLIN HEIDELBERG, Berlin, Heidelberg, ISBN: 978-3-54-075404-6, ISSN: 1610-7438, article PETER HENRY ET AL: "RGB-D Mapping: Using Depth Cameras for Dense 3D Modeling of Indoor Environments", pages: 477 - 491, XP055192425, DOI: 10.1007/978-3-642-28572-1_33 *
BRIAN OKORN ET AL: "Toward Automated Modeling of Floor Plans", PROCEEDINGS OF THE SYMPOSIUM ON 3D DATA PROCESSING, VISUALIZATION AND TRANSMISSION, 2010, ESPACE SAINT MARTIN, PARIS, FRANCE,, 17 May 2010 (2010-05-17), XP055089590, DOI: 10.1.1.180.4602 *
JEFF DELMERICO: "PCL Tutorial: The Point Cloud Library By Example", 11 February 2013 (2013-02-11), XP055192417, Retrieved from the Internet <URL:http://www.jeffdelmerico.com/wp-content/uploads/2014/03/pcl_tutorial.pdf> [retrieved on 20150529] *
SVEN OESAU ET AL: "Indoor scene reconstruction using feature sensitive primitive extraction and graph-cut", ISPRS JOURNAL OF PHOTOGRAMMETRY AND REMOTE SENSING, vol. 90, 1 April 2014 (2014-04-01), pages 68 - 82, XP055192401, ISSN: 0924-2716, DOI: 10.1016/j.isprsjprs.2014.02.004 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018007628A1 (fr) * 2016-07-07 2018-01-11 Levels3D Méthode et système de reconstruction d'une représentation tridimensionnelle
FR3053817A1 (fr) * 2016-07-07 2018-01-12 Levels3D Methode et systeme de reconstruction d'une representation tridimensionnelle

Also Published As

Publication number Publication date
FR3025918B1 (fr) 2018-04-06
WO2016038208A2 (fr) 2016-03-17
WO2016038208A3 (fr) 2016-06-23

Similar Documents

Publication Publication Date Title
FR3025918A1 (fr) Procede et systeme de modelisation automatisee d&#39;une piece
EP3234913B1 (fr) Procede de detection de defaut sur une surface de pneumatique
EP2766872B1 (fr) Procede d&#39;etalonnage d&#39;un systeme de vision par ordinateur embarque sur un mobile
FR3081248A1 (fr) Systeme et procede de determination d’un emplacement pour le placement d&#39;un paquet
EP2724203B1 (fr) Génération de données de carte
EP3614306B1 (fr) Procédé de localisation et d&#39;identification de visage et de détermination de pose, à partir d&#39;une vue tridimensionnelle
EP2257924B1 (fr) Procede pour generer une image de densite d&#39;une zone d&#39;observation
EP3729327A1 (fr) Methode de reconnaissance d&#39;objets dans une scene observee en trois dimensions
EP2279487B1 (fr) Procede de determination d&#39;une representation tridimensionnelle d&#39;un objet a partir d&#39;une sequence d&#39;images en coupe, produit programme d&#39;ordinateur, procede d&#39;analyse d&#39;un objet et systeme d&#39;imagerie correspondants
EP2930659A1 (fr) Procédé de détection de points d&#39;intérêt dans une image numérique
EP1100048A1 (fr) Procédé de création automatique de maquette numérique à partir de couples d&#39;images stéréoscopiques
EP3928281A1 (fr) Procede de recalage d&#39;images de profondeur
WO2015082293A1 (fr) Reconnaissance de formes par correction d&#39;image
WO2014198777A1 (fr) Methode de traitement de l&#39;image numerique de la surface d&#39;un pneumatique en vue de la detection d&#39;une anomalie
EP3928292A1 (fr) Procede et dispositif de surveillance de l&#39;environnement d&#39;un robot
WO2009125131A2 (fr) Procédé de détermination d&#39;une représentation tridimensionnelle d&#39;un objet à partir de points, programme d&#39;ordinateur et système d&#39;imagerie correspondant
FR2950451A1 (fr) Algorithme de detection des points de contour dans une image
FR2987685A1 (fr) Procede de commande d&#39;un robot pour le deplacement d&#39;au moins un objet dispose sur un support dans un espace 3d
EP2391921A2 (fr) Procede de reconstruction automatise de modeles tridimensionnels de superstructures des toits et des batiments en derivant
EP4212825B1 (fr) Procédé d alignement d&#39;une caméra sur une route
WO2017187059A1 (fr) Methode de reglage d&#39;un appareil de prise de vue stereoscopique
EP0559594A1 (fr) Procédé de création de la signature d&#39;un objet représenté sur une image numérique,du type consistant à définir au moins un calibre dimensionnel caractéristique dudit objet, et procédé correspondant de vérification de la signature d&#39;un objet
WO2014053437A1 (fr) Procédé de comptage de personnes pour appareil stéréoscopique et appareil stéréoscopique de comptage de personnes correspondant
FR3034229A1 (fr) Procede de denombrement d&#39;objets dans une zone spatiale predeterminee
FR2978269A1 (fr) Procede de mise en correspondance de plusieurs images associees a des referencements geographiques incoherents

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20160318

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

ST Notification of lapse

Effective date: 20210506