WO2016038208A2 - Method and system for automated modelling of a part - Google Patents

Method and system for automated modelling of a part Download PDF

Info

Publication number
WO2016038208A2
WO2016038208A2 PCT/EP2015/070886 EP2015070886W WO2016038208A2 WO 2016038208 A2 WO2016038208 A2 WO 2016038208A2 EP 2015070886 W EP2015070886 W EP 2015070886W WO 2016038208 A2 WO2016038208 A2 WO 2016038208A2
Authority
WO
WIPO (PCT)
Prior art keywords
acquisition
room
image
points
images
Prior art date
Application number
PCT/EP2015/070886
Other languages
French (fr)
Other versions
WO2016038208A3 (en
Inventor
Jérémy GUILLAUME
Damien DOUS
Original Assignee
Snapkin
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Snapkin filed Critical Snapkin
Publication of WO2016038208A2 publication Critical patent/WO2016038208A2/en
Publication of WO2016038208A3 publication Critical patent/WO2016038208A3/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Definitions

  • the present invention relates to a method for automated modeling of a part to obtain a two- or three-dimensional representation of part or all of the part. It also relates to a system implementing such a method.
  • the field of the invention is the field of the representation of a part, or part of a part, in two or three dimensions, for example in order to provide an architectural plan of the part.
  • the modeling of a three-dimensional structure, and in particular of a part, for example in order to obtain a two- or three-dimensional representation of the part, can currently be realized in several ways.
  • An object of the present invention is to overcome the aforementioned drawbacks.
  • An object of the present invention is to provide a method and system for automatically modeling a part providing a two- or three-dimensional representation of the more accurate part.
  • Another object of the present invention is to provide a method and a system for modelizing a part in an automated manner requiring fewer resources.
  • Yet another object of the present invention is to propose a method and a system for modeling a part in an automated manner that adapts to the complexity of the part.
  • the invention achieves at least one of these objectives by a method for automatically modeling a part, said method comprising the following steps:
  • the method according to the invention thus makes it possible to base the modeling of a part on a slice analysis of a 3D point cloud of the part.
  • the modeling of a part is carried out gradually layer by layer.
  • Such slice analysis allows for modeling with lower computational resources compared to currently known modeling methods and systems in which piece data is analyzed as a whole.
  • a wafer analysis of the points representing the part allows a more accurate modeling of a part, for example by decreasing the thickness of each wafer.
  • the method according to the invention makes it possible to carry out a more personalized modeling according to the type of the part, by adapting the thickness of the slices to the complexity of the modeled part.
  • the part consists of relatively continuous surfaces with no features or objects, it is possible to increase the thickness of the slices without losing precision while reducing the modeling time.
  • a part consists of relatively complex surfaces with many features or objects, it is possible to reduce the thickness of the slices to take into account the complexity of the surfaces and thus to achieve accurate modeling of the part.
  • color image means a two-dimensional image representing the colorimetric information of the targeted region.
  • depth image is understood to mean a two-dimensional image representing the depth information of the targeted region, that is to say for each point represented, the distance between this point and an acquisition point.
  • the term "point cloud” is intended to mean a three-dimensional representation comprising the colorimetric information of the color image and the information depth of the depth image.
  • the image acquisition step may comprise an acquisition of at least one image comprising at least one color information and at least one depth information, according to a plurality of positions, called acquisition positions, around an axis of rotation passing through a location, called acquisition, in said room.
  • the axis of rotation is a vertical axis, that is to say perpendicular to the floor of the room.
  • the method according to the invention may preferentially comprise an acquisition of two images, one of said images being a color image comprising color data, and the other of said images being an image. of depth including depth data.
  • the method according to the invention may comprise a single image acquisition comprising both color data and depth data.
  • the method according to the invention may comprise a step of concatenating at least two images, preferably all the images, acquired for at least two, preferably for all the acquisition positions.
  • a concatenation of the images taken for two acquisition positions, in particular consecutive, can be achieved by determining a matrix testifying displacement, rotation (s) and / or translation (s), operated to pass from one of these positions to another. This displacement matrix is then used to concatenate (or merge) the images taken for these two positions.
  • the concatenation step may be performed to concatenate / merge the color images between them or the depth images between them, or preferentially for both.
  • the image acquisition step may comprise an acquisition of at least one image comprising at least one color information and at least one depth information, according to a plurality of different acquisition locations in the room.
  • This feature is particularly advantageous for modeling large parts and allows accurate modeling even in the case of large parts.
  • the method according to the invention may then comprise a concatenation step or a merger of the results of two acquisition steps performed at two different acquisition locations.
  • a concatenation / fusion step may preferentially comprise the following steps:
  • Such a concatenation is relative, that is to say that it allows to recalibrate one of the two clouds of points relative to the other of the two point clouds.
  • the concatenation can also be absolute and perform a registration of each cloud of points with respect to a reference or an absolute reference previously fixed.
  • the method according to the invention may comprise an acquisition step combining the two variants that have just been defined, namely:
  • the acquisition step may comprise, for at least one position or at least one acquisition location, image acquisition (s) of at least two different regions of the room in at least two directions of view different so that two adjacent regions have a common area.
  • the two viewing directions are not parallel to each other.
  • Such an acquisition may preferentially be carried out by at least two cameras positioned so as to have an identical orientation in a horizontal plane in the room and different orientations in a vertical plane in the room.
  • such an acquisition can also be achieved by a single camera repositionable in both a vertical plane and a horizontal plane.
  • the acquisition step can perform image acquisition:
  • the method according to the invention may further comprise, for at least one position or an acquisition location, a step of concatenation / fusion of the acquisition made for at least two adjacent regions, said step comprising the following steps:
  • the one or more points of correspondence can be detected by analyzing the color image, and / or depth, of each zone and can correspond to an object in the room or a feature of a surface of the room and visible in images acquired for each region.
  • the detection of a point of correspondence in two images can be performed by any known algorithm, such as for example the algorithm SIFT (Scale Invariant Feature Transform).
  • mapping of two images can be performed by the technique known as FLANN (for "Fast Library for Approximate Nearest Neighbors”).
  • the method according to the invention may comprise, before the concatenation or melting step, a step of rebalancing the one or more detected linear transformations.
  • the method according to the invention makes it possible, during this rebalancing step, to modify at least one, preferably each, of the linear transformations so as to reduce the uncertainties on all the linear transformations detected.
  • Such a rebalancing step can be performed by any known algorithm, such as for example the technique known as SLAM (for “Simultaneous localization and mapping” in English).
  • SLAM Simultaneous localization and mapping
  • the refinement method of the linear transformation can be carried out by any known algorithm, such as for example the algorithm of minimization known as ICP (for "Iterative Closest Point”).
  • ICP for "Iterative Closest Point”
  • the detection of a plane or a surface in a point cloud can be carried out using a known shape recognition algorithm, such as for example the RANSAC algorithm (for "RANdom SAmple Consensus” in English).
  • a known shape recognition algorithm such as for example the RANSAC algorithm (for "RANdom SAmple Consensus” in English).
  • the method according to the invention may comprise an adaptation of the brightness of the images acquired during the acquisition step.
  • Such an adaptation may, in a nonlimiting manner, implement the HDRI imaging technique (for "high-dynamic-range imaging").
  • the reference surface may be a horizontal surface of the room, and more preferably a ceiling or a floor of said room, the detection step comprising a search in the cloud of points a horizontal plane.
  • This version of the method according to the invention is particularly advantageous because the ceiling of a room, or more generally a surface of a room whose normal is directed towards the floor of the room, is the surface which has the least particularity or objects. Its detection and characterization is therefore simpler, faster and more precise than the other surfaces composing the part.
  • the detection of such a surface can be carried out, in no way limiting, by the RANSAC algorithm applied to the cloud of points in order to detect a horizontal surface.
  • the analysis of at least one slice of the point cloud can comprise: a conversion of the points belonging to said slice into a two-dimensional image in a plane perpendicular to the reference axis, such as, for example, a binary or gray-level image;
  • the conversion into a two-dimensional image of the points belonging to a slice can be achieved by removing for each of these points the coordinate of the point along the reference axis or an axis parallel to the reference axis and to keep for this point only the coordinates according to the other two axes.
  • the search and identification of the segment or segments in the two-dimensional image can be performed by any algorithm known to those skilled in the art, such as for example the Hough technique.
  • the step of determining a two- or three-dimensional representation may further comprise an identification of a surface or a wall of said part as a function of the results provided by the analysis of a plurality of, and preferably all the slices.
  • the width of the surface or wall corresponds to the length of a segment corresponding to the surface, its position at the position of the segment and its height to the sum of the thickness of the slices on which this segment is present.
  • the determination step may further comprise an automated detection of at least one object at at least one surface, or a wall, of said part as a function of results provided by the analysis of a plurality of slices.
  • a two-dimensional image obtained for a slice comprises a discontinuity in a segment that means that there is the presence of an object in front of said surface.
  • a two-dimensional image obtained for a slice comprises two aligned segments, it means that there is the presence of an object in said surface.
  • object means:
  • the method according to the invention may further comprise, for at least one detected object, a step of characterizing said object, in order to determine a parameter relative to said object, namely at least one dimension of the object such as the length, the width, depth, or shape of the object
  • the characterization of an object can advantageously comprise the following steps for each object:
  • the contour detection is carried out both on the binary images representing each of the slices and on the color image, and / or the depth image.
  • binary images representing each slice can be used to determine the size of the object, and the color image and / or the depth image can determine whether the object has visual / textural / depth characteristics. similar or different from the wall in which it is located.
  • Contour detection can be carried out by any known method, such as for example using the watershed segregation technique.
  • the method according to the invention may comprise re for at least one object, a step of determining the nature of the object by a network of neurons with supervised learning.
  • the neural network may be previously trained with known objects, and take into account the results of the method according to the invention in the prior modeling of parts.
  • the neural network may input at least one of the data, particularly provided by the characterization step, namely:
  • This system can in particular be configured to implement all the steps of the method according to the invention.
  • the system according to the invention can comprise:
  • At least one acquisition means for taking a plurality of images in said room comprising at least one color information and at least one depth information;
  • calculation means for implementing the steps of the method according to the invention to obtain from the images acquired a two- or three-dimensional representation of the part.
  • the at least one acquisition means may be configured to implement the acquisition step as described above according to the different variants described.
  • the at least one acquisition means may comprise at least two cameras rotating about a vertical axis, and oriented in two non-parallel viewing directions and intersecting substantially at the level of a vertical axis.
  • the at least one acquisition means may be rotated by any known means, such as a stepper motor.
  • FIG. 1 is a schematic representation of the steps of a non-limiting example of a system according to the invention
  • FIGURES 2a to 2h are schematic representations of the results provided in certain steps of the method of FIGURE 1100;
  • FIGURES 3a and 3b are diagrammatic representations of a nonlimiting example of a neural network implemented in the method according to the invention.
  • FIGURE 4 is a schematic representation of a non-limiting example of a system according to the invention.
  • FIGURE 1 is a schematic representation of a non-limiting example of a method according to the invention.
  • the method 100 shown in FIG. 1 comprises a step 102 for calibrating the camera (s) used for acquiring images in the part.
  • this step includes calibrating the cameras together.
  • This calibration step can be performed by any known method.
  • the method 100 comprises an acquisition phase 104 realizing an acquisition of a plurality of images in the part to be modeled.
  • the acquisition phase 104 comprises a step 106 of acquisition of images in an acquisition position around a vertical axis of rotation passing through an acquisition location in the room.
  • This step achieves taking a color image and a depth image of two different regions of the room, according to at least two different directions of sight.
  • the two viewing directions are chosen so that the two image regions comprise a common area, that is to say an area appearing on the images of each region.
  • This step 106 therefore provides for an acquisition position:
  • this step 106 can realize an image acquisition of a single region in the room or more than two regions in the room.
  • Each color image and / or each depth image is acquired according to a digital imaging technique with a large dynamic range so as to make the image taken independent of differences in brightness.
  • Each image taken is memorized in association with
  • an identifier of the region for example region 1, region 2, etc.
  • an identifier of the acquisition position for example position 1, position 2, etc. ;
  • an identifier of the acquisition location for example location 1, location 2, etc.
  • step 106 finishes acquiring images at the current acquisition position
  • a step 108 determines whether the current acquisition position is the last acquisition position for that acquisition location.
  • step 108 If in step 108, the current acquisition position is not the last acquisition position for this acquisition location then a step 110 moves, namely a rotation, to the next acquisition position at this acquisition site. The process resumes in step 106, and so on.
  • step 112 determines whether the current acquisition location is the last acquisition location.
  • step 112 If in step 112, the current acquisition location is not the last acquisition location then a step 114 moves, especially a translation, to the next acquisition location. The method resumes in step 106 for the new acquisition location.
  • step 112 the current acquisition location is the last acquisition location then the acquisition phase 104 is complete.
  • the method 100 then comprises a phase 116 for obtaining a scatter plot representing the part as a function of the acquisitions made during the acquisition phase 104.
  • This phase 116 comprises a step 118 of concatenating the images of at least two different acquisition regions for the same acquisition position. This concatenation is performed by considering adjacent regions two by two. For two adjacent regions comprising a common area, step 118 performs the following operations: estimating the linear transformation between the two adjacent regions using the positions and orientations of the camera (s) for the two regions;
  • This step 118 provides, for an acquisition position, linear transformations that make it possible to concatenate / merge the point clouds for the adjacent regions into a single point cloud comprising all the regions imaged at this acquisition position.
  • This step 118 is performed independently for each of the acquisition positions of each of the acquisition locations.
  • the obtaining phase 1 16 then comprises a step 120 realizing a computation of the linear transformations that allow the concatenation / fusion of the point clouds for all the acquisition position acqui sition positions.
  • this step 120 includes the following operations:
  • This step 120 provides for a location for acquiring linear transformations that allow to concatenate / merge the point clouds for all acquisition positions.
  • This step 120 is performed for each ack site independently.
  • the obtaining phase 1 16 then comprises a step 122 realizing a computation of the linear transformations that allow the concatenation / fusion of the point clouds for all the acquisition locations.
  • this step 122 comprises the following operations:
  • the obtaining phase 116 then comprises a step 124 realizing an organization and a rebalancing of the different linear transformations with respect to one another in ways to concatenate / merge without any offset and in a precise manner the point clouds, one by one. compared to others.
  • the method of the invention uses the technique known as SLAM (for "Simu- laneous localization and mapping” in ang lais).
  • the obtaining phase 116 then comprises a step 126 effecting a concatenation / fusion of point clouds using said linear transformations.
  • step 126 When step 126 is completed, the method has a scatter plot representing the part.
  • FIG. 2a A representation of a point cloud obtained by the obtaining phase 116 is visible in FIG. 2a.
  • the method 100 comprises, after the phase 116, a phase 128 for determining a two- or three-dimensional representation of the part, from the point cloud provided by the phase 116.
  • the phase 128 comprises a step 130 of detection of a reference surface, which in the present example and in no way limiting, is the ceiling of the room.
  • the RANSAC algorithm is applied to points in the scatterplot representing the part with a normal facing downwards, to identify a surface whose normal is directed downwards, and more precisely towards the floor of the room.
  • step 130 is visible in FIGURE 2b.
  • a step 132 performs a slice-by-slice analysis of the point cloud representing the part along an axis perpendicular to the reference surface, that is to say the ceiling of the room, called the axis of the room. reference.
  • a reference x, y, z
  • the reference axis will be the z axis.
  • step 132 firstly selects all the points of the point cloud representing the part whose coordinate z is between z1 and z2 with z1 the coordinate system along the z axis of the reference surface.
  • a representation of a slice of the point cloud is visible in FIGURE 2c.
  • the selected points are projected on the (x, y) plane to obtain a two-dimensional image (x, y) of this first slice.
  • This two-dimensional image is in this example a black and white image.
  • a representation of a two-dimensional image of said slice is visible in FIG. 2d.
  • the two-dimensional image is analyzed with the Hough technique to determine the segments on this image. Then a second slice, corresponding to the set of points in the cloud of points whose z coordinate is between z2 and z3 is selected and then analyzed as described, and so on until reaching a slice with no point.
  • Each slice may have a thickness, denoted ⁇ , predetermined along the z axis. This thickness may be identical for all the slices or different for at least one slice.
  • the thickness ⁇ of one or more slices may be adapted according to the nature of the surfaces of the part. The more complex the surfaces, the smaller the thickness, and vice versa.
  • Step 132 provides for each slice analyzed, the segments detected in this slice and for each segment the segment equation, the length of the segment and the position of the segment.
  • step 132 is visible in FIGURE 2e.
  • a step 134 performs a detection of the surfaces of the part. To do this, step 134 compares the equations of the segments identified for each of the slices and merges the segments having the same equation. Step 134 thus makes it possible to obtain a plurality of unique equations, in the plane (x, y), each corresponding to a surface of the part. The width of each surface thus identified corresponds to the length of the segment, its position at the position of the segment and its height to the sum of the thickness of the slices on which this segment has been identified.
  • Step 134 thus provides a plurality of surfaces and for each surface its equation in the (x, y, z) plane.
  • a step 136 realizes a detection of object (s), each object being able to be, without limitation:
  • each unique equation obtained during step 134 is analyzed for each of the slices, in the case where: - a discontinuity appears in a segment that means that there is the presence of an object in front of said surface
  • the method according to the invention detects the height, the width and the depth of said objects. Indeed, by grouping the information, because the object is found on several slices, the method according to the invention deduces the height, width and depth.
  • step 136 informs the approximate position of the object.
  • step 136 is visible in FIGURE 2f on which a window object, and two cabinet objects have been detected.
  • a step 138 performs a precise characterization of each object. For each object, knowing the approximate position of the object, contour detection is performed in the color image. This contour detection provides, for each object, the precise contours, and therefore the position and the dimensions, and possibly at least one characteristic of the object, for example, the color of the object.
  • step 138 is visible in FIGURE 2g.
  • the window object has been identified on one of the surfaces of the room.
  • the method 100 shown in FIGURE 1 includes a step 140 determining the nature of each object.
  • step 140 uses a neuron network with supervised learning previously "trained". For each object, the characteristics of the object obtained during step 138 are informed to the neural network which according to its prior learning provides the nature of the object.
  • a step 142 provides a three-dimensional or two-dimensional presentation of the part according to a previously indicated point of view. A representation of step 142 is visible in FIGURE 2h.
  • FIG. 3a is a schematic representation of a nonlimiting example of a neuron 300 and its connections that can be implemented in the method according to the invention, and in particular during step 140 of the method 100 of FIG. 1.
  • FIG. 3b represents an exemplary model 302 for supervised learning to which the neuron network consisting of several neurons 300 is subjected
  • the learning of such a neural network is achieved by providing the neural network with the characteristics of a multitude of input objects, and by indicating to it, for each object, the nature of the object that it must provide. output.
  • FIGURE 4 is a schematic representation of a non-limiting example of a system according to the invention.
  • the system 400 shown in FIGURE 4 comprises two cameras 402 and 404 disposed in a support 406.
  • Support 406 is rotatably mounted on a numerically controlled stepper motor 408.
  • the system further comprises a computer module 410 connected to the stepper motor 408 and to each of the cameras 402 and 404.
  • the computer module 410 comprises a control output of the stepper motor 408, a control output for each of the cameras 402 and 404 to trigger an image capture.
  • the computer module 410 further comprises inputs such as:
  • an input for the engine 408, used for the motor 408 indicates to the computer module the rotation it performs.
  • the computer module 410 further comprises storage means and calculation means for implementing the steps of the method according to the invention, such as for example the steps 118 to 142 of the method 100 described with reference to FIGU RE 1.
  • the set of cameras 402 and 404, support 406, engine 408 and computer module is arranged on a tripod 412, whose height is adjustable.
  • the height of the tripod 412 is adjusted so that the cameras 402 and 404 are substantially mid-height between the floor and the ceiling of the room.
  • the motor 408 rotates the support 406 about an axis of rotation 414 substantially perpendicular to the floor of the room.
  • the camera 402 is positioned in a direction of shooting materialized by the downward axis 416 and makes it possible to take images of a first region 418 around the axis 416.
  • the camera 404 is positioned in a direction of shooting materialized by the ascending axis 420 and makes it possible to take images of a second region 422 around the axis 420. More particularly, the axis 416 and the axis 420 each have an angle of absolute value substantially equal to a plane parallel to the ground, or horizontal, passing through the center of the support 406.
  • the regions respectively 418 and 422, imaged by the cameras 402 and 404 comprise a common area 424.
  • Computer module 410 is equipped with instructions for:
  • step motor 408 controlling the step motor 408 to position the support 406 in a plurality of acquisition positions around the vertical axis 414, the transition from an acquisition position to the next acquisition position being performed only by rotation;
  • each camera 402 and 404 being equipped with:
  • a color image sensor providing a color image of the region associated with it
  • An infrared sensor providing a depth image of the region associated with it
  • the steps of the method according to the invention can be carried out by another computer module that the computer module 410, such as for example a remote server.
  • the computer module 410 may be in communication with the remote server via a wireless communication network, such as the mobile telephone network.
  • the data stored by the computer module 410 can be transferred to the remote server "manually", that is to say by wired connection of the computer module 410 on the remote server or via USB type of memory storage device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

The invention relates to a method (100) for automated modelling of a part, comprising the following steps: - acquisition (104) of several images in said part comprising at least one piece of colour information and at least one piece of depth information, according to a plurality of positions and/or locations, termed the acquisition, in said part; - obtaining (126) from said acquisition a point cloud relating to said part from said images; - detection (130), from said point cloud, of at least one surface, termed the reference surface, of said part; - determination (132-142) of a two- or three-dimensional representation of said part by analysis of said point cloud, slice by slice, along an axis, termed the reference axis, passing through said reference surface.

Description

« Procédé et système de modélisation automatisée d'une pièce »  "Automated Modeling Process and System for a Room"
Domaine technique Technical area
La présente invention concerne un procédé de modélisation automatisée d'une pièce en vue d'obtenir une représentation bi- ou tridimensionnelle d'une partie ou de la totalité de la pièce. Elle concerne également un système mettant en œuvre un tel procédé. Le domaine de l'invention est le domaine de la représentation d'une pièce, ou d'une partie d'une pièce, en deux ou trois dimensions, par exemple en vue de fournir un plan architectural de la pièce.  The present invention relates to a method for automated modeling of a part to obtain a two- or three-dimensional representation of part or all of the part. It also relates to a system implementing such a method. The field of the invention is the field of the representation of a part, or part of a part, in two or three dimensions, for example in order to provide an architectural plan of the part.
Etat de la technique State of the art
La modélisation d'une structure tridimensionnelle, et en particulier d'une pièce, par exemple en vue d'obtenir une représentation bi- ou tridimensionnelle de la pièce, peut actuellement être réalisée de plusieurs manières.  The modeling of a three-dimensional structure, and in particular of a part, for example in order to obtain a two- or three-dimensional representation of the part, can currently be realized in several ways.
II existe tout d'abord les procédés manuels ou semi manuels qui consistent à mesurer les dimensions des différents éléments constituant la pièce et leurs positionnements relatifs, puis de réaliser un tracé purement manuel ou par l'intermédiaire d'un outil informatique en vue d'obtenir une représentation de la pièce.  First of all, there are the manual or semi-manual methods of measuring the dimensions of the various elements constituting the part and their relative positioning, then of making a purely manual layout or by means of a computer tool for the purpose of get a representation of the piece.
II existe également des procédés automatisés qui, à partir d'images acquises à l'intérieur de la pièce, réalisent une reconstitution des différentes surfaces de la pièce en vue d'en donner une représentation bi- ou tridimensionnelle.  There are also automated methods that, from images acquired inside the room, perform a reconstruction of the different surfaces of the room to give a two- or three-dimensional representation.
Les procédés manuels sont très consommateurs en temps d'une part pour mesurer les dimensions et la position de différents éléments de la pièce, et d'autre part pour réaliser le tracé de la pièce à partir de ces mesures.  Manual processes are very time-consuming on the one hand to measure the dimensions and position of different elements of the part, and on the other hand to make the layout of the part from these measurements.
Les procédés automatisés sont moins consommateurs en temps comparés aux procédés manuels. Cependant, les procédés de modélisation actuellement connus souffrent d'autres inconvénients. D'une part, les procédés automatisés actuellement connus ne permettent pas de donner une représentation suffisamment précise de la pièce, et nécessitent souvent l'intervention d'un opérateur pour compléter ou corriger la représentation fournie par ces procédés. D'autre part, la représentation d'une pièce étant obtenue à partir d'une analyse d'images prises dans la pièce, les procédés automatisés actuellement connus nécessitent des ressources de calcul et de traitement assez lourds et coûteux. Enfin, les procédés et système actuellement connus permettent de réaliser une modélisation d'une pièce de manière identique quelle que soit la nature de la pièce, c'est-à-dire sans tenir compte de la complexité des surfaces constituant la pièce. Automated processes are less time consuming compared to manual processes. However, currently known modeling methods suffer from other disadvantages. On the one hand, the currently known automated methods do not make it possible to give a sufficiently accurate representation of the part, and often require the intervention of an operator to complete or correct the representation provided by these methods. On the other hand, the representation of a part being obtained from an analysis of images taken in the room, the currently known automated methods require computing resources and processing rather heavy and expensive. Finally, the currently known methods and system make it possible to model a part identically regardless of the nature of the part, that is to say without taking into account the complexity of the surfaces constituting the part.
Un but de la présente invention est de remédier aux inconvénients précités. An object of the present invention is to overcome the aforementioned drawbacks.
Un but de la présente invention est de proposer un procédé et un système pour modéliser une pièce de manière automatisée fournissant une représentation bi- ou tridimensionnelle de la pièce plus précise.  An object of the present invention is to provide a method and system for automatically modeling a part providing a two- or three-dimensional representation of the more accurate part.
Un autre but de la présente invention est de proposer un procédé et un système pour modéliser une pièce de manière automatisée nécessitant moins de ressources.  Another object of the present invention is to provide a method and a system for modelizing a part in an automated manner requiring fewer resources.
Encore un autre but de la présente invention est de proposer un procédé et un système pour modéliser une pièce de manière automatisée s'adaptant à la complexité de la pièce.  Yet another object of the present invention is to propose a method and a system for modeling a part in an automated manner that adapts to the complexity of the part.
Exposé de l'invention Presentation of the invention
L'invention permet d'atteindre au moins un de ces objectifs par un procédé pour modéliser de manière automatisée une pièce, ledit procédé comprenant les étapes suivantes :  The invention achieves at least one of these objectives by a method for automatically modeling a part, said method comprising the following steps:
- acquisition d'une pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur,  acquisition of a plurality of images in said part comprising at least one color information and at least one depth information,
- obtention à partir desdites images d'un nuage de points relatifs à ladite pièce ;  obtaining from said images a cloud of points relating to said piece;
- détection, à partir dudit nuage de points, d'au moins une surface, dite de référence, de ladite pièce ; - détermination d'une représentation bi- ou tridimensionnelle de ladite pièce par analyse dudit nuage de points tranche par tranche suivant un axe, dit de référence, passant par ladite surface de référence, chaque tranche comprenant des points dudit nuage de points sélectionnés selon ledit axe de référence. detecting, from said cloud of points, at least one so-called reference surface of said part; determination of a two- or three-dimensional representation of said part by analysis of said point-by-side point-by-point cloud passing through said reference surface, each slice comprising points of said cloud of selected points along said axis; reference.
Le procédé selon l'invention permet donc de baser la modélisation d'une pièce sur une analyse par tranches d'un nuage de points 3D de la pièce. Autrement dit, selon l'invention, la modélisation d'une pièce est réalisée de manière progressive couche par couche. Une telle analyse par tranche permet de réaliser une modélisation avec des ressources de calcul plus faibles comparé aux procédés et systèmes de modélisation actuellement connus dans lesquels les données relatives à une pièce sont analysées dans leur ensemble.  The method according to the invention thus makes it possible to base the modeling of a part on a slice analysis of a 3D point cloud of the part. In other words, according to the invention, the modeling of a part is carried out gradually layer by layer. Such slice analysis allows for modeling with lower computational resources compared to currently known modeling methods and systems in which piece data is analyzed as a whole.
De plus, une analyse par tranche des points représentant la pièce permet de réaliser une modélisation plus précise d'une pièce, par exemple en diminuant l'épaisseur de chaque tranche.  In addition, a wafer analysis of the points representing the part allows a more accurate modeling of a part, for example by decreasing the thickness of each wafer.
En outre, le procédé selon l'invention permet de réaliser une modélisation plus personnalisée en fonction du type de la pièce, en adaptant l'épaisseur des tranches à la complexité de la pièce modélisée. Lorsque la pièce est constituée de surfaces relativement continues ne comportant pas de particularités ou d'objets, il est possible d'augmenter l'épaisseur des tranches sans perdre de précision tout en diminuant le temps de modélisation. Lorsqu'une pièce est constituée de surfaces relativement complexes comportant beaucoup de particularités ou d'objets, il est possible de diminuer l'épaisseur des tranches pour prendre en compte la complexité des surfaces et ainsi de réaliser une modélisation précise de la pièce.  In addition, the method according to the invention makes it possible to carry out a more personalized modeling according to the type of the part, by adapting the thickness of the slices to the complexity of the modeled part. When the part consists of relatively continuous surfaces with no features or objects, it is possible to increase the thickness of the slices without losing precision while reducing the modeling time. When a part consists of relatively complex surfaces with many features or objects, it is possible to reduce the thickness of the slices to take into account the complexity of the surfaces and thus to achieve accurate modeling of the part.
Dans la présente invention, par « image couleur » on entend une image bidimensionnelle représentant l'information colorimétrique de la région visée. In the present invention, the term "color image" means a two-dimensional image representing the colorimetric information of the targeted region.
Dans la présente invention, par « image profondeur » on entend une image bidimensionnelle représentant l'information profondeur de la région visée, c'est-à-dire pour chaque point représenté, la distance entre ce point et et un point d'acquisition.  In the present invention, the term "depth image" is understood to mean a two-dimensional image representing the depth information of the targeted region, that is to say for each point represented, the distance between this point and an acquisition point.
Dans la présente invention, par « nuage de points » on entend une représentation tridimensionnelle comprenant l'information colorimétrique de l'image couleur et l'information profondeur de l'image profondeur. Avantageusement, l'étape d'acquisition d'image peut comprendre une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité de positions, dites d'acquisition, autour d'un axe de rotation passant par un emplacement, dit d'acquisition, dans ladite pièce. In the present invention, the term "point cloud" is intended to mean a three-dimensional representation comprising the colorimetric information of the color image and the information depth of the depth image. Advantageously, the image acquisition step may comprise an acquisition of at least one image comprising at least one color information and at least one depth information, according to a plurality of positions, called acquisition positions, around an axis of rotation passing through a location, called acquisition, in said room.
Préférentiellement, pour au moins un emplacement d'acquisition, l'axe de rotation est un axe vertical, c'est-à-dire perpendiculaire au sol de la pièce. Selon l'invention, pour chaque position d'acquisition, le procédé selon l'invention peut préférentiellement comprendre une acquisition de deux images, l'une desdites images étant une image couleur comprenant des données couleur, et l'autre desdites images étant une image de profondeur comprenant des données de profondeur.  Preferably, for at least one acquisition location, the axis of rotation is a vertical axis, that is to say perpendicular to the floor of the room. According to the invention, for each acquisition position, the method according to the invention may preferentially comprise an acquisition of two images, one of said images being a color image comprising color data, and the other of said images being an image. of depth including depth data.
Alternativement, lorsque le moyen d'acquisition le permet, pour chaque position d'acquisition, le procédé selon l'invention peut comprendre une acquisition d'une image unique comprenant à la fois des données couleur et des données de profondeur.  Alternatively, when the acquisition means allows it, for each acquisition position, the method according to the invention may comprise a single image acquisition comprising both color data and depth data.
Le procédé selon l'invention peut comprendre, une étape de concaténation d'au moins deux images, préférentiellement de toutes les images, acquises pour au moins deux, préférentiellement pour toutes les, positions d'acquisition.  The method according to the invention may comprise a step of concatenating at least two images, preferably all the images, acquired for at least two, preferably for all the acquisition positions.
Une concaténation des images prises pour deux positions d'acquisitions, en particulier consécutives, peut être réalisée par détermination d'une matrice témoignant du déplacement, rotation(s) et/ou translation(s), opéré pour passer de l'une de ces positions à l'autre. Cette matrice de déplacement est ensuite utilisée pour réaliser la concaténation (ou la fusion) des images prises pour ces deux positions.  A concatenation of the images taken for two acquisition positions, in particular consecutive, can be achieved by determining a matrix testifying displacement, rotation (s) and / or translation (s), operated to pass from one of these positions to another. This displacement matrix is then used to concatenate (or merge) the images taken for these two positions.
L'étape de concaténation peut être réalisée pour concaténer/fusionner les images couleur entre-elles ou les images profondeur entre-elles, ou préférentiellement pour les deux.  The concatenation step may be performed to concatenate / merge the color images between them or the depth images between them, or preferentially for both.
Alternativement ou en plus, l'étape d'acquisition d'image peut comprendre une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité d'emplacements d'acquisition différentes dans la pièce. Alternatively or in addition, the image acquisition step may comprise an acquisition of at least one image comprising at least one color information and at least one depth information, according to a plurality of different acquisition locations in the room.
Cette fonctionnalité est particulièrement avantageuse pour la modélisation de grandes pièces et permet de réaliser une modélisation précise même dans le cas de grandes pièces.  This feature is particularly advantageous for modeling large parts and allows accurate modeling even in the case of large parts.
Le procédé selon l'invention peut ensuite comprendre une étape de concaténation ou une fusion des résultats de deux étapes d'acquisition réalisées en deux emplacements d'acquisition différents. Une telle étape de concaténation/fusion peut préférentiellement comprendre les étapes suivantes :  The method according to the invention may then comprise a concatenation step or a merger of the results of two acquisition steps performed at two different acquisition locations. Such a concatenation / fusion step may preferentially comprise the following steps:
- obtention d'un nuage de points pour chaque emplacement d'acquisition,  obtaining a cloud of points for each acquisition location,
- détection d'une même surface de la pièce, ou d'un ou plusieurs points de correspondance, sur chaque nuage de points, par exemple le plafond ou le sol de la pièce,  - detection of the same surface of the room, or one or more points of correspondence, on each cloud of points, for example the ceiling or the floor of the room,
- détermination d'une transformation linéaire reliant cette surface, respectivement ces points de correspondance, dans un des deux nuages de points, à cette même surface, respectivement ces points de correspondance, dans l'autre des deux nuages de points, et - recalage d'un des deux nuages de points avec ladite transformation linéaire.  determination of a linear transformation connecting this surface, respectively these correspondence points, in one of the two points clouds, to this same surface, respectively these correspondence points, in the other of the two point clouds, and - registration of one of the two point clouds with said linear transformation.
Une telle concaténation est relative, c'est-à-dire qu'elle permet de recaler un des deux nuages de points par rapport à l'autre des deux nuages points.  Such a concatenation is relative, that is to say that it allows to recalibrate one of the two clouds of points relative to the other of the two point clouds.
La concaténation peut également être absolue et réaliser un recalage de chaque nuage de points par rapport à un repère ou une référence absolue préalablement fixé.  The concatenation can also be absolute and perform a registration of each cloud of points with respect to a reference or an absolute reference previously fixed.
Le procédé selon l'invention peut comprendre une étape d'acquisition combinant les deux variantes qui viennent d'être définies, à savoir : The method according to the invention may comprise an acquisition step combining the two variants that have just been defined, namely:
- au moins deux emplacements d'acquisition dans la pièce, et at least two acquisition locations in the room, and
- pour chaque emplacement d'acquisition, au moins une position d'acquisition autour d'un axe de rotation passant par ledit emplacement d'acquisition. Avantageusement, l'étape d'acquisition peut comprendre, pour au moins une position ou au moins un emplacement d'acquisition, une acquisition d'image(s) d'au moins deux régions différentes de la pièce selon au moins deux directions de visée différentes de sorte que deux régions adjacentes comportent une zone commune. for each acquisition location, at least one acquisition position around an axis of rotation passing through said acquisition location. Advantageously, the acquisition step may comprise, for at least one position or at least one acquisition location, image acquisition (s) of at least two different regions of the room in at least two directions of view different so that two adjacent regions have a common area.
En particulier, les deux directions de visée ne sont pas parallèles entre- elles.  In particular, the two viewing directions are not parallel to each other.
Une telle acquisition peut préférentiellement être réalisée par au moins deux caméras positionnées de sorte à avoir une orientation identique dans un plan horizontal dans la pièce et des orientations différentes dans un plan vertical dans la pièce.  Such an acquisition may preferentially be carried out by at least two cameras positioned so as to have an identical orientation in a horizontal plane in the room and different orientations in a vertical plane in the room.
Alternativement, une telle acquisition peut également être réalisée par une seule et unique caméra repositionnable à la fois dans un plan vertical et dans un plan horizontal. Dans ce cas, l'étape d'acquisition peut réaliser une acquisition d'images :  Alternatively, such an acquisition can also be achieved by a single camera repositionable in both a vertical plane and a horizontal plane. In this case, the acquisition step can perform image acquisition:
- selon une première direction pour toutes les positions ou emplacements d'acquisition, puis une autre direction pour toutes les positions ou emplacements d'acquisition, etc. ; ou  - in a first direction for all acquisition positions or locations, then another direction for all acquisition positions or locations, etc. ; or
- selon toutes les directions pour une position ou emplacement d'acquisition, puis selon toutes les directions pour la position ou l'emplacement d'acquisition suivant(e), etc.  - in all directions for a position or location of acquisition, then in all directions for the next location or location of acquisition, etc.
Le procédé selon l'invention peut en outre comprendre, pour au moins une position ou un emplacement d'acquisition, une étape de concaténation/fusion de l'acquisition réalisée pour au moins deux régions adjacentes, ladite étape comprenant les étapes suivantes : The method according to the invention may further comprise, for at least one position or an acquisition location, a step of concatenation / fusion of the acquisition made for at least two adjacent regions, said step comprising the following steps:
- estimation d'une transformation linéaire entre les deux régions adjacentes à l'aide des positions du ou des outils d'acquisition utilisés pour lesdites régions,  estimating a linear transformation between the two adjacent regions using the positions of the acquisition tool or tools used for said regions,
- détection d'au moins un point de correspondance dans la zone commune aux deux régions adjacentes,  detecting at least one correspondence point in the area common to the two adjacent regions,
- amélioration de l'estimation de ladite transformation linéaire en fonction dudit au moins un point de correspondance, - affinage de la transformation linéaire à l'aide d'une méthode de minimisation prédéterminée, et improvement of the estimation of said linear transformation according to said at least one correspondence point, refining the linear transformation using a predetermined minimization method, and
= concaténation ou fusion des nuages de points desdites régions en utilisant ladite transformation linéaire.  = concatenation or fusion of point clouds of said regions using said linear transformation.
Le ou les points de correspondances peuvent être détecté(s) par analyse de l'image couleur, et/ou profondeur, de chaque zone et peut correspondre à un objet dans la pièce ou une particularité d'une surface de la pièce et visible dans les images acquises pour chacune des régions. La détection d'un point de correspondance dans deux images peut être réalisée par n'importe quel algorithme connu, tel que par exemple l'algorithme SIFT (pour « Scale Invariant Feature Transform » en anglais).  The one or more points of correspondence can be detected by analyzing the color image, and / or depth, of each zone and can correspond to an object in the room or a feature of a surface of the room and visible in images acquired for each region. The detection of a point of correspondence in two images can be performed by any known algorithm, such as for example the algorithm SIFT (Scale Invariant Feature Transform).
La mise en correspondance de deux images peut être réalisée par la technique connue sous le nom FLANN (pour « Fast Library for Approximate Nearest Neighbors » en anglais).  The mapping of two images can be performed by the technique known as FLANN (for "Fast Library for Approximate Nearest Neighbors").
Avantageusement, le procédé selon l'invention peut comprendre, avant l'étape de concaténation ou fusion, une étape de rééquilibrage de la ou des différentes transformations linéaires détectées. Advantageously, the method according to the invention may comprise, before the concatenation or melting step, a step of rebalancing the one or more detected linear transformations.
En effet, lorsque plusieurs transformations linéaires sont détectées pour concaténer ou fusionner plusieurs images de plusieurs régions, il existe des incertitudes sur les transformations linéaires détectées de manière individuelle, surtout lorsque le nombre de points de correspondance est faible entre deux régions adjacentes, par exemple dans le cas d'une surface sans variation. Dans ce cas, le procédé selon l'invention permet, lors de cette étape de rééquilibrage, de modifier au moins une, préférentiellement chacune, des transformations linéaires de sorte à diminuer les incertitudes sur l'ensemble des transformations linéaires détectées.  Indeed, when several linear transformations are detected to concatenate or merge several images of several regions, there are uncertainties about the linear transformations detected individually, especially when the number of points of correspondence is weak between two adjacent regions, for example in the case of a surface without variation. In this case, the method according to the invention makes it possible, during this rebalancing step, to modify at least one, preferably each, of the linear transformations so as to reduce the uncertainties on all the linear transformations detected.
Une telle étape de rééquilibrage peut être réalisée par n'importe quel algorithme connu, tel que par exemple la technique connue sous le nom de SLAM (pour « Simultaneous localization and mapping » en anglais).  Such a rebalancing step can be performed by any known algorithm, such as for example the technique known as SLAM (for "Simultaneous localization and mapping" in English).
La méthode d'affinage de la transformation linéaire peut être réalisée par n'importe quel algorithme connu, tel que par exemple l'algorithme de minimisation connu sous le nom de ICP (pour « Itérative Closest Point » en anglais). The refinement method of the linear transformation can be carried out by any known algorithm, such as for example the algorithm of minimization known as ICP (for "Iterative Closest Point").
Selon l'invention, la détection d'un plan ou d'une surface dans un nuage de points peut être réalisée en utilisant un algorithme de reconnaissance de forme connu, tel que par exemple l'algorithme RANSAC (pour « RANdom SAmple Consensus » en anglais).  According to the invention, the detection of a plane or a surface in a point cloud can be carried out using a known shape recognition algorithm, such as for example the RANSAC algorithm (for "RANdom SAmple Consensus" in English).
Avantageusement, le procédé selon l'invention peut comprendre une adaptation de la luminosité des images acquises lors de l'étape d'acquisition. Advantageously, the method according to the invention may comprise an adaptation of the brightness of the images acquired during the acquisition step.
Cela permet de rendre le procédé robuste contre les variations de luminosité entre deux positions d'acquisition, et/ou deux emplacements d'acquisitions, et/ou entre deux moments d'acquisitions dans la journée.  This makes it possible to make the process robust against variations in brightness between two acquisition positions, and / or two acquisition locations, and / or between two acquisition moments during the day.
Une telle adaptation peut, de manière non limitative, mettre en œuvre la technique d'imagerie HDRI (pour « High-dynamic-range imaging » en anglais).  Such an adaptation may, in a nonlimiting manner, implement the HDRI imaging technique (for "high-dynamic-range imaging").
Selon une version particulièrement préférée de l'invention, la surface de référence peut être une surface horizontale de la pièce, et plus préférentiellement un plafond ou un sol de ladite pièce, l'étape de détection comprenant une recherche dans le nuage de points d'un plan horizontal. According to a particularly preferred version of the invention, the reference surface may be a horizontal surface of the room, and more preferably a ceiling or a floor of said room, the detection step comprising a search in the cloud of points a horizontal plane.
Cette version du procédé selon l'invention est particulièrement avantageuse car le plafond d'une pièce, ou plus généralement une surface d'une pièce dont la normale est dirigée vers le sol de la pièce, est la surface qui comporte le moins de particularité ou d'objets. Sa détection et sa caractérisation est donc plus simple, plus rapide et plus précise que les autres surfaces composant la pièce.  This version of the method according to the invention is particularly advantageous because the ceiling of a room, or more generally a surface of a room whose normal is directed towards the floor of the room, is the surface which has the least particularity or objects. Its detection and characterization is therefore simpler, faster and more precise than the other surfaces composing the part.
La détection d'une telle surface peut être réalisée, de manière nullement limitative, par l'algorithme RANSAC appliqué au nuage de points en vue de détecter une surface horizontale.  The detection of such a surface can be carried out, in no way limiting, by the RANSAC algorithm applied to the cloud of points in order to detect a horizontal surface.
La reconnaissance d'une telle surface permet d'aligner le nuage de points de telle sorte que l'axe de référence soit vertical pour obtenir les murs verticaux et le plafond et sol horizontaux.  The recognition of such a surface makes it possible to align the cloud of points so that the reference axis is vertical to obtain the vertical walls and the horizontal ceiling and floor.
Avantageusement, l'analyse d'au moins une tranche du nuage de points peut comprendre : - une conversion des points appartenant à ladite tranche en une image bidimensionnelle dans un plan perpendiculaire à l'axe de référence, telle que par exemple une image binaire ou en niveau de gris ; Advantageously, the analysis of at least one slice of the point cloud can comprise: a conversion of the points belonging to said slice into a two-dimensional image in a plane perpendicular to the reference axis, such as, for example, a binary or gray-level image;
- une recherche d'au moins un segment, préférentiellement de tous les segments, présent(s) sur ladite image ; et  a search for at least one segment, preferably of all segments, present on said image; and
La conversion en une image bidimensionnelle des points appartenant à une tranche peut être réalisée en supprimant pour chacun de ces points la coordonnée du point selon l'axe de référence ou un axe parallèle à l'axe de référence et de conserver pour ce point uniquement les coordonnées selon les deux autres axes.  The conversion into a two-dimensional image of the points belonging to a slice can be achieved by removing for each of these points the coordinate of the point along the reference axis or an axis parallel to the reference axis and to keep for this point only the coordinates according to the other two axes.
La recherche et l'identification du ou des segments dans l'image bidimensionnelle peut être réalisée par n'importe quel algorithme connu de l'homme du métier, tel que par exemple la technique de Hough.  The search and identification of the segment or segments in the two-dimensional image can be performed by any algorithm known to those skilled in the art, such as for example the Hough technique.
L'étape de détermination d'une représentation bi- ou tridimensionnelle peut en outre comprendre une identification d'une surface ou d'une paroi de ladite pièce en fonction des résultats fournis par l'analyse d'une pluralité de, et préférentiellement de toutes les, tranches. The step of determining a two- or three-dimensional representation may further comprise an identification of a surface or a wall of said part as a function of the results provided by the analysis of a plurality of, and preferably all the slices.
La largeur de la surface ou de la paroi correspond à la longueur d'un segment correspondant à la surface, sa position à la position du segment et sa hauteur à la somme de l'épaisseur des tranches sur lesquelles ce segment est présent. Avantageusement, l'étape de détermination peut en outre comprendre une détection automatisée d'au moins un objet au niveau d'au moins une surface, ou d'une paroi, de ladite pièce en fonction de résultats fournis par l'analyse d'une pluralité de de tranches.  The width of the surface or wall corresponds to the length of a segment corresponding to the surface, its position at the position of the segment and its height to the sum of the thickness of the slices on which this segment is present. Advantageously, the determination step may further comprise an automated detection of at least one object at at least one surface, or a wall, of said part as a function of results provided by the analysis of a plurality of slices.
En effet, lorsqu'une image bidimensionnelle obtenue pour une tranche comprend une discontinuité dans un segment cela veut dire qu'il y a la présence d'un objet devant ladite surface.  Indeed, when a two-dimensional image obtained for a slice comprises a discontinuity in a segment that means that there is the presence of an object in front of said surface.
De plus, lorsqu'une image bidimensionnelle obtenue pour une tranche comprend deux segments alignés cela veut dire qu'il y a la présence d'un objet dans ladite surface. Dans la présente invention, par « objet » on entend : In addition, when a two-dimensional image obtained for a slice comprises two aligned segments, it means that there is the presence of an object in said surface. In the present invention, the term "object" means:
- une porte se trouvant dans une paroi de la pièce,  - a door in a wall of the room,
- une fenêtre se trouvant dans une paroi de la pièce,  - a window located in a wall of the room,
- un objet accroché sur une paroi de la pièce,  - an object hanging on a wall of the room,
- un objet disposé au sol contre une paroi de la pièce, ou an object disposed on the ground against a wall of the room, or
- une forme réalisée dans une paroi de la pièce. - A shape made in a wall of the room.
Le procédé selon l'invention peut en outre comprendre, pour au moins un objet détecté, une étape de caractérisation dudit objet, en vue de déterminer un paramètre relatif audit objet, à savoir au moins une dimension de l'objet telle que la longueur, la largeur, la profondeur de l'objet ou une forme composant l'objet. The method according to the invention may further comprise, for at least one detected object, a step of characterizing said object, in order to determine a parameter relative to said object, namely at least one dimension of the object such as the length, the width, depth, or shape of the object
Suivant un exemple de réalisation particulier et nullement limitatif, la caractérisation d'un objet peut avantageusement comprendre les étapes suivantes pour chaque objet :  According to a particular and nonlimiting limiting embodiment, the characterization of an object can advantageously comprise the following steps for each object:
- détermination d'une position approximative, et éventuellement des dimensions approximatives, dudit objet par analyse d'au moins une image bidimensionnelle fournie pour au moins une tranche ; determining an approximate position, and possibly approximate dimensions, of said object by analyzing at least one two-dimensional image provided for at least one slice;
- en fonction de ladite position approximative, et éventuellement desdites dimensions approximatives, sélection d'une image de couleur et/ou d'une image profondeur représentant une zone englobant ledit objet ; depending on said approximate position, and possibly on said approximate dimensions, selecting a color image and / or a depth image representing a zone encompassing said object;
- détection de contours relatifs audit objet sur ladite image couleur et/ou sur ladite image profondeur.  detecting contours relating to said object on said color image and / or on said depth image.
Préférentiellement, la détection de contour est réalisée à la fois sur les images binaires représentant chacune des tranches et sur l'image couleur, et/ou l'image profondeur. Cela permet d'obtenir plus de données sur l'objet. Par exemple, les images binaires représentant chacune des tranches peuvent être utilisées pour déterminer la dimension de l'objet et l'image couleur et/ou l'image profondeur permet de déterminer si l'objet présente des caractéristiques visuelles/texturales/ou de profondeur semblables ou différentes de la paroi dans laquelle il se trouve. La détection de contour peut être réal isée par n'importe quel procédé connu, tel q ue par exemple en utilisant la techniq ue de seg mentation par watershed . Avantageusement, le procédé selon l'invention peut comprend re pour au moins un objet, une étape de détermination de la nature d ud it objet par un réseau de neurones à apprentissage supervisé. Preferably, the contour detection is carried out both on the binary images representing each of the slices and on the color image, and / or the depth image. This makes it possible to obtain more data on the object. For example, binary images representing each slice can be used to determine the size of the object, and the color image and / or the depth image can determine whether the object has visual / textural / depth characteristics. similar or different from the wall in which it is located. Contour detection can be carried out by any known method, such as for example using the watershed segregation technique. Advantageously, the method according to the invention may comprise re for at least one object, a step of determining the nature of the object by a network of neurons with supervised learning.
Le réseau de neurones peut être entraîné préalablement avec des objets connus, et prendre en compte les résultats du procédé selon l'invention dans la modélisation préalable de pièces.  The neural network may be previously trained with known objects, and take into account the results of the method according to the invention in the prior modeling of parts.
Le réseau de neurones peut prendre en entrée au moins une des données, en particul ier fournie par l 'étape de caractérisation, à savoir :  The neural network may input at least one of the data, particularly provided by the characterization step, namely:
- au moins une d imension de l'objet,  - at least one imension of the object,
- une position de l 'objet,  - a position of the object,
- une couleur de l'objet,  - a color of the object,
- un contou r bi- ou tridimensionnel de l 'objet,  - a two or three-dimensional contou r of the object,
- etc.  - etc.
Selon un autre aspect de l'invention il est proposé un système pour modél iser de manière automatisée une pièce. According to another aspect of the invention there is provided a system for automati- cally modeling a part.
Ce système peut en particul ier être config uré pour mettre en œuvre toutes les étapes du procédé selon l 'invention .  This system can in particular be configured to implement all the steps of the method according to the invention.
Le système selon l 'invention peut comprendre :  The system according to the invention can comprise:
- au moins un moyen d'acquisition pour prend re une pluralité d 'images dans lad ite pièce comprenant au moins une information de couleur et au moins une information de profondeur ; et  at least one acquisition means for taking a plurality of images in said room comprising at least one color information and at least one depth information; and
- des moyens de calcul pour mettre en œuvre les étapes d u procédé selon l'invention pour obtenir à partir des images acquises une représentation bi- ou tridimensionnel le de la pièce.  calculation means for implementing the steps of the method according to the invention to obtain from the images acquired a two- or three-dimensional representation of the part.
L'au moins un moyen d 'acq uisition peut être configuré pour mettre en œuvre l'étape d 'acq uisition telle q ue décrite plus haut suivant les d ifférentes variantes décrites. En particulier, et de manière nullement limitative, l'au moins un moyen d'acquisition peut comprendre au moins deux caméras rotatives autour d'un axe vertical, et orientées suivant deux directions de visée non parallèles entre elles et se croisant sensiblement au niveau d'un axe vertical. The at least one acquisition means may be configured to implement the acquisition step as described above according to the different variants described. In particular, and in no way limiting, the at least one acquisition means may comprise at least two cameras rotating about a vertical axis, and oriented in two non-parallel viewing directions and intersecting substantially at the level of a vertical axis.
L'au moins un moyen d'acquisition peut être mis en rotation par n'importe quel moyen connu, tel qu'un moteur pas à pas.  The at least one acquisition means may be rotated by any known means, such as a stepper motor.
Description des figures et modes de réalisation Description of the Figures and Embodiments
D'autres avantages et caractéristiques apparaîtront à l'examen de la description détaillée d'exemples nullement limitatifs, et des dessins annexés sur lesquels :  Other advantages and characteristics will appear on examining the detailed description of non-limitative examples, and the appended drawings in which:
- la FIGURE 1 est une représentation schématique des étapes d'un exemple non limitatif d'un système selon l'invention ;  FIG. 1 is a schematic representation of the steps of a non-limiting example of a system according to the invention;
- les FIGURES 2a à 2h sont des représentations schématiques des résultats fournis lors de certaines étapes du procédé de la FIGURE 1 100 ;  FIGURES 2a to 2h are schematic representations of the results provided in certain steps of the method of FIGURE 1100;
- les FIGURES 3a et 3b sont des représentations schématiques d'un exemple non limitatif d'un réseau de neurones mis en œuvre dans le procédé selon l'invention ; et  FIGURES 3a and 3b are diagrammatic representations of a nonlimiting example of a neural network implemented in the method according to the invention; and
- la FIGURE 4 est une représentation schématique d'un exemple non limitatif d'un système selon l'invention.  - FIGURE 4 is a schematic representation of a non-limiting example of a system according to the invention.
Il est bien entendu que les modes de réalisation qui seront décrits dans la suite ne sont nullement limitatifs. On pourra notamment imaginer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. Cette sélection comprend au moins une caractéristique de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieur. En particulier toutes les variantes et tous les modes de réalisation décrits sont combinables entre eux si rien ne s'oppose à cette combinaison sur le plan technique. It is understood that the embodiments which will be described in the following are in no way limiting. It will be possible, in particular, to imagine variants of the invention comprising only a selection of characteristics described subsequently isolated from the other characteristics described, if this selection of characteristics is sufficient to confer a technical advantage or to differentiate the invention with respect to the state of the art. This selection comprises at least one feature preferably functional without structural details, or with only a part of the structural details if this part alone is sufficient to confer a technical advantage or to differentiate the invention from the state of the prior art. In particular, all the variants and all the embodiments described are combinable with each other if nothing stands in the way of this combination at the technical level.
Sur les figures, les éléments communs à plusieurs figures conservent la même référence.  In the figures, the elements common to several figures retain the same reference.
La FIGURE 1 est une représentation schématique d'un exemple non limitatif d'un procédé selon l'invention. FIGURE 1 is a schematic representation of a non-limiting example of a method according to the invention.
Le procédé 100 représenté sur la FIGURE 1 comprend une étape 102 de calibration de la ou des caméras utilisées pour l'acquisition d'images dans la pièce. De plus, s'il y a plus d'une caméra, cette étape comprend la calibration des caméras entre elles. Cette étape de calibration peut être réalisée par n'importe quel procédé connu.  The method 100 shown in FIG. 1 comprises a step 102 for calibrating the camera (s) used for acquiring images in the part. In addition, if there is more than one camera, this step includes calibrating the cameras together. This calibration step can be performed by any known method.
Puis, le procédé 100 comprend une phase 104 d'acquisition réalisant une acquisition d'une pluralité d'images dans la pièce à modéliser.  Then, the method 100 comprises an acquisition phase 104 realizing an acquisition of a plurality of images in the part to be modeled.
La phase 104 d'acquisition comprend une étape 106 d'acquisition d'images en une position d'acquisition autour d'un axe de rotation vertical passant par un emplacement d'acquisition dans la pièce. Cette étape réalise une prise d'une image couleur et d'une image profondeur de deux régions différentes de la pièce, suivant au moins deux directions de visée différentes. Les deux directions de visée sont choisies de sorte que les deux régions imagées comportent une zone commune, c'est-à-dire une zone apparaissant sur les images de chaque région. Cette étape 106 fournit donc pour une position d'acquisition :  The acquisition phase 104 comprises a step 106 of acquisition of images in an acquisition position around a vertical axis of rotation passing through an acquisition location in the room. This step achieves taking a color image and a depth image of two different regions of the room, according to at least two different directions of sight. The two viewing directions are chosen so that the two image regions comprise a common area, that is to say an area appearing on the images of each region. This step 106 therefore provides for an acquisition position:
- une image couleur, une image profondeur et un nuage de points d'une première région, et  a color image, an image depth and a cloud of points of a first region, and
- une image couleur, une image profondeur et un nuage de points d'une deuxième région comprenant une zone commune avec la première région.  a color image, an image depth and a scatter plot of a second region including a common area with the first region.
Bien entendu, cette étape 106 peut réaliser une acquisition d'image d'une unique région dans la pièce ou de plus de deux régions dans la pièce.  Of course, this step 106 can realize an image acquisition of a single region in the room or more than two regions in the room.
Chaque image couleur et/ou chaque image profondeur est acquise suivant une technique numérique d'imagerie à grande gamme dynamique de sorte à rendre l'image prise indépendante des différences de luminosité. Chaque image prise est mémorisée en association avecEach color image and / or each depth image is acquired according to a digital imaging technique with a large dynamic range so as to make the image taken independent of differences in brightness. Each image taken is memorized in association with
- un identifiant de la région, par exemple région 1, région 2, etc.an identifier of the region, for example region 1, region 2, etc.
- un identifiant de la position d'acquisition, par exemple position 1, position 2, etc. ; et an identifier of the acquisition position, for example position 1, position 2, etc. ; and
- un identifiant de l'emplacement d'acquisition, par exemple emplacement 1, emplacement 2, etc.  an identifier of the acquisition location, for example location 1, location 2, etc.
Puis, lorsque l'étape 106 termine l'acquisition d'images à la position d'acquisition actuelle, une étape 108 détermine si la position d'acquisition actuelle est la dernière position d'acquisition pour cet emplacement d'acquisition.  Then, when step 106 finishes acquiring images at the current acquisition position, a step 108 determines whether the current acquisition position is the last acquisition position for that acquisition location.
Si à l'étape 108, la position d'acquisition actuelle n'est pas la dernière position d'acquisition pour cet emplacement d'acquisition alors une étape 110 réalise un déplacement, à savoir une rotation, vers la prochaine position d'acquisition à cet emplacement d'acquisition. Le procédé reprend à l'étape 106, et ainsi de suite.  If in step 108, the current acquisition position is not the last acquisition position for this acquisition location then a step 110 moves, namely a rotation, to the next acquisition position at this acquisition site. The process resumes in step 106, and so on.
Si à l'étape 108, la position d'acquisition actuelle est la dernière position d'acquisition pour cet emplacement d'acquisition alors une étape 112 détermine si l'emplacement d'acquisition actuel est le dernier emplacement d'acquisition.  If in step 108, the current acquisition position is the last acquisition position for that acquisition location then a step 112 determines whether the current acquisition location is the last acquisition location.
Si à l'étape 112, l'emplacement d'acquisition actuel n'est pas le dernier emplacement d'acquisition alors une étape 114 réalise un déplacement, en particulier une translation, vers le prochain emplacement d'acquisition. Le procédé reprend à l'étape 106 pour le nouvel emplacement d'acquisition.  If in step 112, the current acquisition location is not the last acquisition location then a step 114 moves, especially a translation, to the next acquisition location. The method resumes in step 106 for the new acquisition location.
Si à l'étape 112, l'emplacement d'acquisition actuel est le dernier emplacement d'acquisition alors la phase 104 d'acquisition est terminée.  If in step 112, the current acquisition location is the last acquisition location then the acquisition phase 104 is complete.
Le procédé 100 comprend ensuite une phase 116 d'obtention d'un nuage de points représentant la pièce en fonction des acquisitions réalisées lors de la phase d'acquisition 104. The method 100 then comprises a phase 116 for obtaining a scatter plot representing the part as a function of the acquisitions made during the acquisition phase 104.
Cette phase 116 comprend une étape 118 de concaténation des images d'au moins deux régions d'acquisition différentes pour une même position d'acquisition. Cette concaténation est réalisée en considérant les régions adjacentes deux à deux. Pour deux régions adjacentes comprenant une zone commune, l'étape 118 réalise les opérations suivantes : - estimation de la transformation linéaire entre les deux régions adjacentes à l'aide des positions et orientations de la ou des caméras pour les deux rég ions ; This phase 116 comprises a step 118 of concatenating the images of at least two different acquisition regions for the same acquisition position. This concatenation is performed by considering adjacent regions two by two. For two adjacent regions comprising a common area, step 118 performs the following operations: estimating the linear transformation between the two adjacent regions using the positions and orientations of the camera (s) for the two regions;
- détection, par l'algorithme SIFT, de plusieurs points d 'intérêt sur chacune des images dans la zone commune, et  detection, by the SIFT algorithm, of several points of interest on each of the images in the common area, and
- création des points de correspondance, par la techniq ue FLAN N , à partir des points d'intérêt entre les deux images,  - creation of the points of correspondence, by the technique FLAN N, from the points of interest between the two images,
- extraction des points trid imensionnels correspondants aux points de correspondance sur chacune des deux images, et  extraction of the corresponding impending trid points at the points of correspondence on each of the two images, and
- estimation de la transformation linéaire par la méthode des moind res carrés,  - estimation of the linear transformation by the method of least squares,
- affinage de la transformation linéaire à l'aide de la méthode ICP (pour « Itérative Closest Point » en ang lais) . Cette étape 118 fournit pour une position d 'acq uisition des transformations linéaires q ui permettent de concaténer/fusionner les nuages de points pour les rég ions adjacentes en un nuage de points unique comprenant toutes les régions imagées à cette position d'acquisition .  - refinement of the linear transformation using the ICP method (for "Iterative Closest Point" in ang lais). This step 118 provides, for an acquisition position, linear transformations that make it possible to concatenate / merge the point clouds for the adjacent regions into a single point cloud comprising all the regions imaged at this acquisition position.
Cette étape 118 est réal isée de manière indépendante pour chacune des positions d 'acq uisition de chacu n des emplacements d 'acquisition .  This step 118 is performed independently for each of the acquisition positions of each of the acquisition locations.
La phase d 'obtention 1 16 comprend ensu ite une étape 120 réal isant u n calcul des transformations linéaires q ui permettent les concaténation/fusion des nuages de points pour toutes les positions d'acq uisition d'un emplacement d 'acq uisition . The obtaining phase 1 16 then comprises a step 120 realizing a computation of the linear transformations that allow the concatenation / fusion of the point clouds for all the acquisition position acqui sition positions.
Pour ce faire, les positions d'acquisitions sont considérées deux à deux et cette étape 120 comprend les opérations suivantes :  To do this, the acquisition positions are considered two by two and this step 120 includes the following operations:
- estimation de la transformation linéaire entre les deux positions adjacentes à l'aide de l 'outil d 'acq uisition  estimation of the linear transformation between the two adjacent positions with the aid of the acquisition tool
- détection, par l'algorithme SIFT, de plusieurs points d 'intérêt sur chacune des images dans une zone commune aux deux positions adjacentes, et  detection, by the SIFT algorithm, of several points of interest on each of the images in a zone common to the two adjacent positions, and
- création des points de correspondance, par la techniq ue FLAN N , à partir des points d'intérêt entre les deux images, - extraction des points trid imensionnels correspondants aux points de correspondance sur chacune des deux images, - creation of the points of correspondence, by the technique FLAN N, from the points of interest between the two images, extraction of the impending trid points corresponding to the points of correspondence on each of the two images,
- estimation de la transformation linéaire par la méthode des moind res carrés,  - estimation of the linear transformation by the method of least squares,
- affinage de la transformation linéaire à l'aide de la méthode ICP (pour « Itérative Closest Point » en ang lais) .  - refinement of the linear transformation using the ICP method (for "Iterative Closest Point" in ang lais).
Cette étape 120 fourn it pour un emplacement d'acquisition des transformations linéaires q ui permettent de concaténer/fusionner les nuages de points pour toutes les positions d 'acq uisition .  This step 120 provides for a location for acquiring linear transformations that allow to concatenate / merge the point clouds for all acquisition positions.
Cette étape 120 est réal isée pou r chaq ue emplacement d 'acq uisition de manière indépendante.  This step 120 is performed for each ack site independently.
La phase d 'obtention 1 16 comprend ensuite une étape 122 réal isant u n calcul des transformations linéaires q ui permettent les concaténation/fusion des nuages de points pour tous les emplacements d 'acquisition . The obtaining phase 1 16 then comprises a step 122 realizing a computation of the linear transformations that allow the concatenation / fusion of the point clouds for all the acquisition locations.
Pour ce faire, les emplacements d 'acq uisitions sont considérés deux à deux et cette étape 122 comprend les opérations suivantes :  To do this, the acquisition locations are considered two by two and this step 122 comprises the following operations:
- détection , par l 'algorithme RANSAC, d'une même surface dans la pièce, par exemple le plafond de la pièce, sur chacune des deux images profondeur, ou nuage de points, associées à chacun des deux emplacements, et  - detection, by the RANSAC algorithm, of the same surface in the room, for example the ceiling of the room, on each of the two depth images, or cloud of points, associated with each of the two locations, and
- détermination d 'une transformation linéaire reliant cette surface dans un des deux nuages de points, à cette même surface dans l'autre des deux nuages de points.  determination of a linear transformation connecting this surface in one of the two points clouds, to this same surface in the other of the two point clouds.
La phase d 'obtention 116 comprend ensuite une étape 124 réal isant une organisation et un rééq uilibrage des d ifférentes transformations l inéaires les unes par rapport aux autres de manières à concaténer/fusionner sans décalage et de manière précise les nuages de points les uns par rapport aux autres.  The obtaining phase 116 then comprises a step 124 realizing an organization and a rebalancing of the different linear transformations with respect to one another in ways to concatenate / merge without any offset and in a precise manner the point clouds, one by one. compared to others.
Pour ce faire, le procédé d'invention utilise la techniq ue connue sous le nom de SLAM (pou r « Simu ltaneous local ization and mapping » en ang lais) . La phase d'obtention 116 comprend ensuite une étape 126 réalisant une concaténation/fusion des nuages de points en utilisant lesdites transformations linéaires. To do this, the method of the invention uses the technique known as SLAM (for "Simu- laneous localization and mapping" in ang lais). The obtaining phase 116 then comprises a step 126 effecting a concatenation / fusion of point clouds using said linear transformations.
Lorsque l'étape 126 est terminée, le procédé dispose d'un nuage de points représentant la pièce.  When step 126 is completed, the method has a scatter plot representing the part.
Une représentation d'un nuage de point obtenu par la phase d'obtention 116 est visible sur la FIGURE 2a.  A representation of a point cloud obtained by the obtaining phase 116 is visible in FIG. 2a.
Le procédé 100 comprend, suite à la phase 116, une phase 128 de détermination d'une représentation bi- ou tridimensionnelle de la pièce, à partir du nuage de points fournis par la phase 116. The method 100 comprises, after the phase 116, a phase 128 for determining a two- or three-dimensional representation of the part, from the point cloud provided by the phase 116.
La phase 128 comprend une étape 130 de détection d'une surface de référence, qui dans l'exemple présent et de manière nullement limitative, est le plafond de la pièce.  The phase 128 comprises a step 130 of detection of a reference surface, which in the present example and in no way limiting, is the ceiling of the room.
Pour ce faire, l'algorithme RANSAC est appliqué aux points du nuage de points représentant la pièce ayant une normale dirigée vers le bas, pour identifier une surface dont la normale est dirigée vers le bas, et plus précisément vers le sol de la pièce.  To do this, the RANSAC algorithm is applied to points in the scatterplot representing the part with a normal facing downwards, to identify a surface whose normal is directed downwards, and more precisely towards the floor of the room.
Une représentation de l'étape 130 est visible sur la FIGURE 2b.  A representation of step 130 is visible in FIGURE 2b.
Lorsque la surface de référence est détectée, une étape 132 réalise une analyse tranche par tranche du nuage de points représentant la pièce suivant un axe perpendiculaire à la surface de référence, c'est-à-dire au plafond de la pièce, appelée axe de référence. Dans la suite de la description, on adoptera un repère (x,y,z) et l'axe de référence sera l'axe z.  When the reference surface is detected, a step 132 performs a slice-by-slice analysis of the point cloud representing the part along an axis perpendicular to the reference surface, that is to say the ceiling of the room, called the axis of the room. reference. In the following description, we will adopt a reference (x, y, z) and the reference axis will be the z axis.
Concrètement, l'étape 132 sélectionne tout d'abord tous les points du nuage de points représentant la pièce dont la cordonnée z se trouve entre zl et z2 avec zl la cordonnée selon l'axe z de la surface de référence. Une représentation d'une tranche du nuage de point est visible sur la FIGURE 2c.  Specifically, step 132 firstly selects all the points of the point cloud representing the part whose coordinate z is between z1 and z2 with z1 the coordinate system along the z axis of the reference surface. A representation of a slice of the point cloud is visible in FIGURE 2c.
Les points sélectionnés sont projetés sur le plan (x,y) pour obtenir une image à deux dimensions (x,y) de cette première tranche. Cette image bidimensionnelle est dans le présent exemple une image en noir et blanc. Une représentation d'une image bidimensionnelle de ladite tranche est visible sur la FIGURE 2d.  The selected points are projected on the (x, y) plane to obtain a two-dimensional image (x, y) of this first slice. This two-dimensional image is in this example a black and white image. A representation of a two-dimensional image of said slice is visible in FIG. 2d.
L'image bidimensionnelle est analysée avec la technique de Hough pour déterminer les segments sur cette image. Ensuite une deuxième tranche, correspondant à l'ensemble des points dans le nuage de points dont la coordonnée z se trouve entre z2 et z3 est sélectionnée puis analysée telle que décrite, et ainsi de suite jusqu'à atteindre une tranche ne comprenant aucun point. The two-dimensional image is analyzed with the Hough technique to determine the segments on this image. Then a second slice, corresponding to the set of points in the cloud of points whose z coordinate is between z2 and z3 is selected and then analyzed as described, and so on until reaching a slice with no point.
Chaque tranche peut avoir une épaisseur, notée Δζ, prédéterminée, suivant l'axe z. Cette épaisseur peut être identique pour toutes les tranches ou différente pour au moins une tranche.  Each slice may have a thickness, denoted Δζ, predetermined along the z axis. This thickness may be identical for all the slices or different for at least one slice.
L'épaisseur Δζ d'une ou des tranches peut être adaptée en fonction de la nature des surfaces de la pièce. Plus les surfaces présentent une architecture complexe, plus l'épaisseur sera petite, et vice versa.  The thickness Δζ of one or more slices may be adapted according to the nature of the surfaces of the part. The more complex the surfaces, the smaller the thickness, and vice versa.
L'étape 132 fournit pour chaque tranche analysée, les segments détectés dans cette tranche et pour chaque segment l'équation du segment, la longueur du segment et la position du segment.  Step 132 provides for each slice analyzed, the segments detected in this slice and for each segment the segment equation, the length of the segment and the position of the segment.
Une représentation de l'étape 132 est visible sur la FIGURE 2e.  A representation of step 132 is visible in FIGURE 2e.
Une étape 134 réalise une détection des surfaces de la pièce. Pour ce faire, l'étape 134 compare les équations des segments identifiés pour chacune des tranches et fusionne les segments présentant la même équation. L'étape 134 permet ainsi d'obtenir une pluralité d'équations uniques, dans le plan (x,y), correspondant chacune à une surface de la pièce. La largeur de chaque surface ainsi identifiée correspond à la longueur du segment, sa position à la position du segment et sa hauteur à la somme de l'épaisseur des tranches sur lesquelles ce segment a été identifié.  A step 134 performs a detection of the surfaces of the part. To do this, step 134 compares the equations of the segments identified for each of the slices and merges the segments having the same equation. Step 134 thus makes it possible to obtain a plurality of unique equations, in the plane (x, y), each corresponding to a surface of the part. The width of each surface thus identified corresponds to the length of the segment, its position at the position of the segment and its height to the sum of the thickness of the slices on which this segment has been identified.
L'étape 134 fournit donc une pluralité de surfaces et pour chaque surface, son équation dans la plan (x,y,z).  Step 134 thus provides a plurality of surfaces and for each surface its equation in the (x, y, z) plane.
Ensuite une étape 136 réalise une détection d'objet(s), chaque objet pouvant être, de manière non limitative : Then a step 136 realizes a detection of object (s), each object being able to be, without limitation:
une porte se trouvant dans une paroi de la pièce, a door in a wall of the room,
une fenêtre se trouvant dans une paroi de la pièce, ■ un objet accroché sur une paroi de la pièce, a window in a wall of the room, ■ an object hanging on a wall of the room,
un objet disposé au sol contre une paroi de la pièce, ou an object placed on the ground against a wall of the room, or
une forme réalisée dans une paroi de la pièce. a shape made in a wall of the room.
Pour ce faire chaque équation unique obtenue lors de l'étape 134 est analysée pour chacune des tranches, dans le cas où : - une discontinuité apparaît dans un segment cela veut dire qu'il y a la présence d'un objet devant ladite surface To do this, each unique equation obtained during step 134 is analyzed for each of the slices, in the case where: - a discontinuity appears in a segment that means that there is the presence of an object in front of said surface
- deux segments sont alignés, cela veut dire qu'il y a la présence d'un objet dans ladite surface  - two segments are aligned, that means that there is the presence of an object in said surface
En analysant l'ensemble des tranches, le procédé selon l'invention détecte la hauteur, la largeur et la profondeur desdits objets. En effet, en regroupant les informations, du fait que l'objet se retrouve sur plusieurs tranches, le procédé selon l'invention déduit la hauteur, la largeur et la profondeur.  By analyzing all the slices, the method according to the invention detects the height, the width and the depth of said objects. Indeed, by grouping the information, because the object is found on several slices, the method according to the invention deduces the height, width and depth.
Ainsi tous les objets sont identifiés et pour chaque objet, l'étape 136 renseigne la position approximative de l'objet.  Thus all objects are identified and for each object, step 136 informs the approximate position of the object.
Une représentation de l'étape 136 est visible sur la FIGURE 2f sur laquelle un objet fenêtre, et deux objets armoire ont été détectés.  A representation of step 136 is visible in FIGURE 2f on which a window object, and two cabinet objects have been detected.
Une étape 138 réalise une caractérisation précise de chaque objet. Pour chaque objet, en connaissant la position approximative de l'objet, une détection de contour est réalisée dans l'image couleur. Cette détection de contour fournit, pour chaque objet, les contours précis, et donc la position et les dimensions, et éventuellement au moins une caractéristique de l'objet, par exemple, la couleur de l'objet.  A step 138 performs a precise characterization of each object. For each object, knowing the approximate position of the object, contour detection is performed in the color image. This contour detection provides, for each object, the precise contours, and therefore the position and the dimensions, and possibly at least one characteristic of the object, for example, the color of the object.
Une représentation de l'étape 138 est visible sur la FIGURE 2g. Sur cette Figure 2g l'objet fenêtre a été identifié sur une des surfaces de la pièce.  A representation of step 138 is visible in FIGURE 2g. In this Figure 2g the window object has been identified on one of the surfaces of the room.
Le procédé 100 représenté sur la FIGURE 1 comprend une étape 140 déterminant la nature de chaque objet. Pour ce faire, l'étape 140 utilise un réseau de neurones à apprentissage supervisé préalablement « entraîné » . Pour chaque objet, les caractéristiques de l'objet obtenues lors de l'étape 138 sont renseignées au réseau de neurones qui en fonction de son apprentissage préalable fournit la nature de l'objet. Lorsque toutes les surfaces et tous les objets de la pièce sont identifiés et caractérisés une étape 142 fournit une présentation tridimensionnelle ou bidimensionnelle de la pièce suivant un point de vue préalablement renseigné. Une représentation de l'étape 142 est visible sur la FIGURE 2h . La FIGURE 3a est une représentation schématique d'un exemple non limitatif d'un neurone 300 et de ses connections pouvant être mis en œuvre dans le procédé selon l'invention, et en particulier lors de l'étape 140 du procédé 100 de la FIGURE 1. The method 100 shown in FIGURE 1 includes a step 140 determining the nature of each object. To do this, step 140 uses a neuron network with supervised learning previously "trained". For each object, the characteristics of the object obtained during step 138 are informed to the neural network which according to its prior learning provides the nature of the object. When all the surfaces and objects of the part are identified and characterized, a step 142 provides a three-dimensional or two-dimensional presentation of the part according to a previously indicated point of view. A representation of step 142 is visible in FIGURE 2h. FIG. 3a is a schematic representation of a nonlimiting example of a neuron 300 and its connections that can be implemented in the method according to the invention, and in particular during step 140 of the method 100 of FIG. 1.
La FIGURE 3b représente un exemple de modèle 302 d'apprentissage supervisé auquel est soumis le réseau de neurones constitué de plusieurs neurones 300  FIG. 3b represents an exemplary model 302 for supervised learning to which the neuron network consisting of several neurons 300 is subjected
L'apprentissage d'un tel réseau de neurones est réalisé en fournissant au réseau de neurones les caractéristiques d'une multitude d'objets en entrée, et en lui indiquant, pour chaque objet, la nature de l'objet qu'il doit fournir en sortie.  The learning of such a neural network is achieved by providing the neural network with the characteristics of a multitude of input objects, and by indicating to it, for each object, the nature of the object that it must provide. output.
La FIGURE 4 est une représentation schématique d'un exemple non limitatif d'un système selon l'invention . FIGURE 4 is a schematic representation of a non-limiting example of a system according to the invention.
Le système 400 représenté sur la FIGURE 4 comprend deux caméras 402 et 404 disposées dans un support 406.  The system 400 shown in FIGURE 4 comprises two cameras 402 and 404 disposed in a support 406.
Le support 406 est agencé rotatif sur un moteur pas à pas 408 à commande numérique.  Support 406 is rotatably mounted on a numerically controlled stepper motor 408.
Le système comprend en outre un module informatique 410 relié au moteur pas à pas 408 et à chacune des caméras 402 et 404.  The system further comprises a computer module 410 connected to the stepper motor 408 and to each of the cameras 402 and 404.
Le module informatique 410 comprend une sortie de commande du moteur pas à pas 408, une sortie de commande pour chacune des caméras 402 et 404 pour déclencher une prise d'image.  The computer module 410 comprises a control output of the stepper motor 408, a control output for each of the cameras 402 and 404 to trigger an image capture.
Le module informatique 410 comprend en outre des entrées telles que :  The computer module 410 further comprises inputs such as:
- une entrée pour chaque caméra 402 et 404 permettant de recevoir de chaque caméra des images prises par cette dernière ; et an input for each camera 402 and 404 making it possible to receive images taken by the latter from each camera; and
- éventuellement, une entrée pour le moteur 408, utilisée pour que le moteur 408 indique au module informatique la rotation qu'il effectue. - optionally, an input for the engine 408, used for the motor 408 indicates to the computer module the rotation it performs.
Le module informatique 410 comprend en outre des moyens de mémorisation et des moyens de calcul pour mettre en œuvre les étapes du procédé selon l'invention, tel que par exemple les étapes 118 à 142 du procédé 100 décrit en référence à la FIGU RE 1. L'ensemble caméras 402 et 404, support 406, moteur 408 et module informatique est disposé sur un trépied 412, dont la hauteur est réglable. Préférentiellement, la hauteur du trépied 412 est réglée de sorte que les caméras 402 et 404 se trouvent sensiblement à mi-hauteur entre le sol et le plafond de la pièce. The computer module 410 further comprises storage means and calculation means for implementing the steps of the method according to the invention, such as for example the steps 118 to 142 of the method 100 described with reference to FIGU RE 1. The set of cameras 402 and 404, support 406, engine 408 and computer module is arranged on a tripod 412, whose height is adjustable. Preferably, the height of the tripod 412 is adjusted so that the cameras 402 and 404 are substantially mid-height between the floor and the ceiling of the room.
Le moteur 408 permet de déplacer en rotation le support 406 autour d'un axe de rotation 414 sensiblement perpendiculaire au sol de la pièce.  The motor 408 rotates the support 406 about an axis of rotation 414 substantially perpendicular to the floor of the room.
La caméra 402 est positionnée suivant une direction de prise de vue matérialisée par l'axe 416 descendante et permet de prendre des images d'une première région 418 autour de l'axe 416. La caméra 404 est positionnée suivant une direction de prise de vue matérialisée par l'axe 420 ascendante et permet de prendre des images d'une deuxième région 422 autour de l'axe 420. Plus particulièrement, l'axe 416 et l'axe 420 présentent chacun un angle de valeur absolue sensiblement égale par rapport à un plan parallèle au sol, ou horizontale, passant par le centre du support 406. Les régions respectivement 418 et 422, imagées par les caméras 402 et 404 comportent une zone commune 424.  The camera 402 is positioned in a direction of shooting materialized by the downward axis 416 and makes it possible to take images of a first region 418 around the axis 416. The camera 404 is positioned in a direction of shooting materialized by the ascending axis 420 and makes it possible to take images of a second region 422 around the axis 420. More particularly, the axis 416 and the axis 420 each have an angle of absolute value substantially equal to a plane parallel to the ground, or horizontal, passing through the center of the support 406. The regions respectively 418 and 422, imaged by the cameras 402 and 404 comprise a common area 424.
Le module informatique 410 est équipé d'instructions pour :  Computer module 410 is equipped with instructions for:
- commander le moteur pas à pas 408 en vue de positionner le support 406 en une pluralité de positions d'acquisition autour de l'axe vertical 414, le passage d'une position d'acquisition à la position d'acquisition suivante étant réalisée uniquement par rotation ;  controlling the step motor 408 to position the support 406 in a plurality of acquisition positions around the vertical axis 414, the transition from an acquisition position to the next acquisition position being performed only by rotation;
- déclencher une prise d'images par chaque caméra 402 et 404, pour chaque position d'acquisition, chaque caméra 402 et 404 étant équipée :  triggering an image capture by each camera 402 and 404, for each acquisition position, each camera 402 and 404 being equipped with:
d'un capteur d'image couleur fournissant une image couleur de la région qui lui est associée, et  a color image sensor providing a color image of the region associated with it, and
■ d'un capteur infrarouge fournissant une image de profondeur de la région qui lui est associée ;  An infrared sensor providing a depth image of the region associated with it;
- mémoriser l'image couleur et l'image profondeur prises par chaque caméra pour chaque position d'acquisition.  - memorize the color image and the depth image taken by each camera for each acquisition position.
Alternativement, les étapes du procédé selon l'invention peuvent être réalisées par un autre module informatique que le module informatique 410, tel que par exemple un serveur distant. Dans ce cas, selon un premier exemple le module informatique 410 peut être en communication avec le serveur distant par l'intermédiaire d'un réseau de communication sans fil, tel que le réseau de téléphonie mobile. Selon un deuxième exemple, les données mémorisées par le module informatique 410 peuvent être transférées vers le serveur distant de manière « manuelle », c'est-à-dire par connexion filaire du module informatique 410 sur le serveur distant ou par l'intermédiaire d'un moyen de mémorisation nomade de type clef USB. Alternatively, the steps of the method according to the invention can be carried out by another computer module that the computer module 410, such as for example a remote server. In this case, according to a first example, the computer module 410 may be in communication with the remote server via a wireless communication network, such as the mobile telephone network. According to a second example, the data stored by the computer module 410 can be transferred to the remote server "manually", that is to say by wired connection of the computer module 410 on the remote server or via USB type of memory storage device.
Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention . Of course, the invention is not limited to the examples that have just been described and many adjustments can be made to these examples without departing from the scope of the invention.

Claims

REVENDICATIONS
1. Procédé ( 100) pour modéliser de manière automatisée une pièce, ledit procédé ( 100) comprenant les étapes suivantes : A method (100) for automatically modeling a part, said method (100) comprising the steps of:
- acquisition ( 104) d'une pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur ;  acquiring (104) a plurality of images in said part comprising at least one color information and at least one depth information;
- obtention ( 116) à partir desdites images d'un nuage de points relatifs à ladite pièce ;  obtaining (116) from said images a cloud of points relating to said piece;
- détection ( 130), à partir dudit nuage de points, d'au moins une surface, dite de référence, de ladite pièce ;  detecting (130), from said cloud of points, at least one so-called reference surface of said piece;
- détermination ( 132- 142) d'une représentation bi- ou tridimensionnelle de ladite pièce par analyse dudit nuage de points tranche par tranche suivant un axe, dit de référence, passant par ladite surface de référence, chaque tranche comprenant des points dudit nuage de points sélectionnés selon ledit axe de référence.  determination (132-142) of a two- or three-dimensional representation of said part by analysis of said point-by-edge point cloud along a reference axis passing through said reference surface, each portion comprising points of said cloud of said selected points along said reference axis.
2. Procédé ( 100) selon la revendication 1, caractérisé en ce que l'étape ( 104) d'acquisition d'image comprend une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité de positions, dites d'acquisition, autour d'un axe de rotation passant par un emplacement, dit d'acquisition, dans ladite pièce. 2. Method (100) according to claim 1, characterized in that the image acquisition step (104) comprises an acquisition of at least one image comprising at least one color information and at least one depth information. , according to a plurality of positions, called acquisition, around an axis of rotation passing through a location, said acquisition in said room.
3. Procédé ( 100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape ( 104) d'acquisition d'image comprend une acquisition d'au moins une image comprenant au moins une information de couleur et au moins une information de profondeur, selon une pluralité d'emplacements d'acquisition différentes dans la pièce. 3. Method (100) according to any one of the preceding claims, characterized in that the step (104) of image acquisition comprises an acquisition of at least one image comprising at least one color information and at least one depth information, according to a plurality of different acquisition locations in the room.
4. Procédé ( 100) selon les revendications 2 ou 3, caractérisé en ce que l'étape d'acquisition ( 104) comprend, pour au moins une position d'acquisition, respectivement au moins un emplacement d'acquisition, une acquisition ( 106) d'image(s) d'au moins deux régions (418, 422) différentes selon au moins deux directions (416, 420) de visée différentes de sorte que deux régions adjacentes (418, 422) comportent une zone commune (424). 4. Method (100) according to claims 2 or 3, characterized in that the acquisition step (104) comprises, for at least one acquisition position, respectively at least one acquisition location, an acquisition (106) ) image (s) of at least two different regions (418, 422) according to at least two different viewing directions (416, 420) so that two adjacent regions (418, 422) have a common area (424).
5. Procédé (100) selon la revendication précédente, caractérisé en ce qu'il comprend, pour au moins une position d'acquisition, respectivement au moins un emplacement d'acquisition, une étape (118,126) de concaténation/fusion de l'acquisition réalisée pour au moins deux régions adjacentes (418, 422), ladite étape (118,126) comprenant les étapes suivantes : 5. Method (100) according to the preceding claim, characterized in that it comprises, for at least one acquisition position, respectively at least one acquisition location, a step (118,126) of concatenation / merger acquisition performed for at least two adjacent regions (418, 422), said step (118, 126) comprising the steps of:
- estimation d'une transformation linéaire entre lesdites régions adjacentes à l'aide des positions du ou des outils d'acquisition utilisés pour lesdites régions,  estimating a linear transformation between said adjacent regions using the positions of the acquisition tool or tools used for said regions,
- détection d'au moins un point de correspondance dans la zone commune aux deux régions adjacentes,  detecting at least one correspondence point in the area common to the two adjacent regions,
- amélioration de l'estimation de ladite transformation linéaire en fonction dudit au moins un point de correspondance,  improvement of the estimation of said linear transformation according to said at least one correspondence point,
- affinage de la transformation linéaire à l'aide d'une méthode de minimisation prédéterminée, et  refining the linear transformation using a predetermined minimization method, and
= concaténation ou fusion des nuages de points desdites régions en utilisant ladite transformation linéaire.  = concatenation or fusion of point clouds of said regions using said linear transformation.
6. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce qu'il comprend une adaptation de la luminosité des images acquises lors de l'étape d'acquisition (106). 6. Method (100) according to any one of the preceding claims, characterized in that it comprises an adaptation of the brightness of the images acquired during the acquisition step (106).
7. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que la surface de référence correspond à une surface horizontale ayant une normale verticale, en particulier un plafond ou un sol de ladite pièce, l'étape de détection (130) comprenant une recherche dans le nuage de points d'un plan ayant une normale dirigée vers le bas, en particulier vers le sol de la pièce. 7. Method (100) according to any one of the preceding claims, characterized in that the reference surface corresponds to a horizontal surface having a vertical normal, in particular a ceiling or a floor of said room, the detection step ( 130) comprising a search in the cloud of points of a plane having a normal directed downwards, in particular towards the floor of the room.
8. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'analyse (132) d'au moins une tranche du nuage de points comprend : - une conversion des points appartenant à ladite tranche en une image bidimensionnelle dans un plan perpendiculaire à l'axe de référence ; et 8. Method (100) according to any one of the preceding claims, characterized in that the analysis (132) of at least one edge of the scatterplot comprises: a conversion of the points belonging to said slice into a two-dimensional image in a plane perpendicular to the reference axis; and
- une recherche d'au moins un segment, préférentiellement de tous les segments, présent(s) sur ladite image.  a search for at least one segment, preferably of all segments, present on said image.
9. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape de détermination (132-142) comprend une identification (134) d'une surface de ladite pièce en fonction des résultats fournis par l'analyse d'une pluralité de de tranches. A method (100) according to any one of the preceding claims, characterized in that the determining step (132-142) comprises an identification (134) of a surface of said part according to the results provided by the analyzing a plurality of slices.
10. Procédé (100) selon l'une quelconque des revendications précédentes, caractérisé en ce que l'étape de détermination (132-142) comprend une détection (136) d'au moins un objet au niveau d'au moins une surface de ladite pièce en fonction de résultats fournis par l'analyse d'une pluralité de tranches. The method (100) according to any one of the preceding claims, characterized in that the determining step (132-142) comprises a detection (136) of at least one object at at least one surface of said piece according to results provided by the analysis of a plurality of slices.
11. Procédé (100) selon la revendication précédente, caractérisé en ce qu'il comprend pour au moins un objet, une étape (138) de caractérisation dudit objet, ladite caractérisation comprenant les étapes suivantes pour chaque objet : 11. Method (100) according to the preceding claim, characterized in that it comprises for at least one object, a step (138) of characterizing said object, said characterization comprising the following steps for each object:
- détermination d'une position approximative, et éventuellement des dimensions approximatives, dudit objet ;  determining an approximate position, and possibly approximate dimensions, of said object;
- en fonction de ladite position approximative, et éventuellement desdites dimensions approximatives, sélection d'une image de couleur ou de profondeur représentant une zone englobant ledit objet ;  depending on said approximate position, and possibly on said approximate dimensions, selecting a color or depth image representing a zone encompassing said object;
- détection de contours relatifs audit objet sur ladite image couleur ou de profondeur.  - Detecting contours relative to said object on said color image or depth.
12. Procédé (100) selon l'une quelconque des revendications 10 ou 11, caractérisé en ce qu'il comprend, pour au moins un objet, une étape (140) de détermination de la nature dudit objet par un réseau de neurones (300) à apprentissage supervisé. 12. Method (100) according to any one of claims 10 or 11, characterized in that it comprises, for at least one object, a step (140) for determining the nature of said object by a neural network (300). ) supervised learning.
13. Procédé ( 100) selon l'une quelconque des revendications 10 à 12, caractérisé en ce qu'au moins un objet correspond à : 13. Method (100) according to any one of claims 10 to 12, characterized in that at least one object corresponds to:
- une porte se trouvant dans une paroi de la pièce,  - a door in a wall of the room,
- une fenêtre se trouvant dans une paroi de la pièce,  - a window located in a wall of the room,
- un objet accroché sur une paroi de la pièce,  - an object hanging on a wall of the room,
- un objet disposé au sol contre une paroi de la pièce, ou an object disposed on the ground against a wall of the room, or
- une forme réalisée dans une paroi de la pièce. - A shape made in a wall of the room.
14. Système (400) pour modéliser de manière automatisée une pièce, en particulier configuré pour mettre en œuvre toutes les étapes du procédé (100) selon l'une quelconque des revendications précédentes, ledit système (400) comprenant : A system (400) for automatically modeling a workpiece, in particular configured to implement all steps of the method (100) according to any one of the preceding claims, said system (400) comprising:
- au moins un moyen (402, 404) d'acquisition pour prendre une pluralité d'images dans ladite pièce comprenant au moins une information de couleur et au moins une information de profondeur ; et  at least one acquisition means (402, 404) for taking a plurality of images in said part comprising at least one color information and at least one depth information; and
- des moyens (410) de calcul pour mettre en œuvre les étapes du procédé ( 100) selon l'une quelconque des revendications précédentes pour obtenir à partir des images acquises une représentation bi- ou tridimensionnelle de la pièce.  calculation means (410) for implementing the steps of the method (100) according to any one of the preceding claims to obtain from the images acquired a two- or three-dimensional representation of the piece.
15. Système (400) selon la revendication précédente, caractérisé en ce que l'au moins un moyen d'acquisition comprend au moins deux caméras (402, 404) rotatives autour d'un axe vertical (414), et orientées suivant deux directions (416, 420) de visée non parallèles entre elles et se croisant sensiblement au niveau d'un axe vertical (414) . 15. System (400) according to the preceding claim, characterized in that the at least one acquisition means comprises at least two cameras (402, 404) rotatable about a vertical axis (414), and oriented in two directions (416, 420) non-parallel with each other and intersecting substantially at a vertical axis (414).
PCT/EP2015/070886 2014-09-11 2015-09-11 Method and system for automated modelling of a part WO2016038208A2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1458550 2014-09-11
FR1458550A FR3025918B1 (en) 2014-09-11 2014-09-11 METHOD AND SYSTEM FOR AUTOMATED MODELING OF A PART

Publications (2)

Publication Number Publication Date
WO2016038208A2 true WO2016038208A2 (en) 2016-03-17
WO2016038208A3 WO2016038208A3 (en) 2016-06-23

Family

ID=52016771

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2015/070886 WO2016038208A2 (en) 2014-09-11 2015-09-11 Method and system for automated modelling of a part

Country Status (2)

Country Link
FR (1) FR3025918B1 (en)
WO (1) WO2016038208A2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3373168A1 (en) * 2017-03-10 2018-09-12 General Electric Company Systems and methods for utilizing a 3d cad point-cloud to automatically create a fluid model
CN109614857A (en) * 2018-10-31 2019-04-12 百度在线网络技术(北京)有限公司 Shaft recognition methods, device, equipment and storage medium based on cloud
US10803211B2 (en) 2017-03-10 2020-10-13 General Electric Company Multiple fluid model tool for interdisciplinary fluid modeling
US10867085B2 (en) 2017-03-10 2020-12-15 General Electric Company Systems and methods for overlaying and integrating computer aided design (CAD) drawings with fluid models
US10977397B2 (en) 2017-03-10 2021-04-13 Altair Engineering, Inc. Optimization of prototype and machine design within a 3D fluid modeling environment
US11004568B2 (en) 2017-03-10 2021-05-11 Altair Engineering, Inc. Systems and methods for multi-dimensional fluid modeling of an organism or organ
US11216005B1 (en) * 2020-10-06 2022-01-04 Accenture Global Solutions Limited Generating a point cloud capture plan

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3053817B1 (en) * 2016-07-07 2021-11-19 Levels3D METHOD AND SYSTEM OF RECONSTRUCTION OF A THREE-DIMENSIONAL REPRESENTATION

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9324190B2 (en) * 2012-02-24 2016-04-26 Matterport, Inc. Capturing and aligning three-dimensional scenes
US8705893B1 (en) * 2013-03-14 2014-04-22 Palo Alto Research Center Incorporated Apparatus and method for creating floor plans

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10963599B2 (en) 2017-03-10 2021-03-30 Altair Engineering, Inc. Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model
US11004568B2 (en) 2017-03-10 2021-05-11 Altair Engineering, Inc. Systems and methods for multi-dimensional fluid modeling of an organism or organ
US10409950B2 (en) 2017-03-10 2019-09-10 General Electric Company Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model
US10650114B2 (en) 2017-03-10 2020-05-12 Ge Aviation Systems Llc Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model
US10803211B2 (en) 2017-03-10 2020-10-13 General Electric Company Multiple fluid model tool for interdisciplinary fluid modeling
US10867085B2 (en) 2017-03-10 2020-12-15 General Electric Company Systems and methods for overlaying and integrating computer aided design (CAD) drawings with fluid models
US11967434B2 (en) 2017-03-10 2024-04-23 Altair Engineering, Inc. Systems and methods for multi-dimensional fluid modeling of an organism or organ
US10977397B2 (en) 2017-03-10 2021-04-13 Altair Engineering, Inc. Optimization of prototype and machine design within a 3D fluid modeling environment
EP3373168A1 (en) * 2017-03-10 2018-09-12 General Electric Company Systems and methods for utilizing a 3d cad point-cloud to automatically create a fluid model
US11947882B2 (en) 2017-03-10 2024-04-02 Altair Engineering, Inc. Optimization of prototype and machine design within a 3D fluid modeling environment
US11379630B2 (en) 2017-03-10 2022-07-05 Altair Engineering, Inc. Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model
US11538591B2 (en) 2017-03-10 2022-12-27 Altair Engineering, Inc. Training and refining fluid models using disparate and aggregated machine data
US11714933B2 (en) 2017-03-10 2023-08-01 Altair Engineering, Inc. Systems and methods for utilizing a 3D CAD point-cloud to automatically create a fluid model
CN109614857A (en) * 2018-10-31 2019-04-12 百度在线网络技术(北京)有限公司 Shaft recognition methods, device, equipment and storage medium based on cloud
US11216005B1 (en) * 2020-10-06 2022-01-04 Accenture Global Solutions Limited Generating a point cloud capture plan

Also Published As

Publication number Publication date
WO2016038208A3 (en) 2016-06-23
FR3025918A1 (en) 2016-03-18
FR3025918B1 (en) 2018-04-06

Similar Documents

Publication Publication Date Title
WO2016038208A2 (en) Method and system for automated modelling of a part
EP3234913B1 (en) Method for detecting a defect on a surface of a tyre
EP2766872B1 (en) Method of calibrating a computer-based vision system onboard a craft
FR2940443A1 (en) METHOD FOR NON-DESTRUCTIVE CONTROL OF A MECHANICAL PART
FR3081248A1 (en) SYSTEM AND METHOD FOR DETERMINING A LOCATION FOR PLACING A PACKET
EP1999484B1 (en) Obstacle detection
FR3053821A1 (en) DEVICE FOR ASSISTING THE ROTATION OF A GIRAVION, ASSOCIATED GIRAVION AND METHOD OF ASSISTING THE STEERING ASSISTANCE THEREFOR
EP2109079A1 (en) Method and system of characterisation of a surface defect of a workpiece
EP2930659A1 (en) Method for detecting points of interest in a digital image
EP2257924B1 (en) Method for generating a density image of an observation zone
WO2009125132A2 (en) Method for determining a three-dimensional representation of an object using a sequence of cross-section images, computer program product, and corresponding method for analyzing an object and imaging system
EP3008445B1 (en) Method for processing a digital image of the surface of a tire in order to detect an anomaly
EP3729327A1 (en) Method for recognising objects in a three dimensional scene
EP1100048A1 (en) Automatic building process of a digital model using stereoscopic image couples
EP3928281A1 (en) Method for registering depth images
EP3928292A1 (en) Method and device for monitoring the environment of a robot
FR2929417A1 (en) METHOD FOR DETERMINING A THREE-DIMENSIONAL REPRESENTATION OF AN OBJECT FROM POINTS, COMPUTER PROGRAM AND CORRESPONDING IMAGING SYSTEM
EP0559594B1 (en) Process for creating the signature of an object represented on a digital image, from the type consisting in defining at least one caracteristic dimensional calibre of that object and corresponding process for verifying the signature of an object
FR3037143B1 (en) SINGLE CAMERA DEVICE AND MEASURING METHOD FOR CHARACTERIZING RAIN DROPS
WO2017187059A1 (en) Method for adjusting a stereoscopic imaging device
EP2904543B1 (en) Method for counting persons for a stereoscopic devicee and corresponding stereoscopic device for counting persons
EP2391921A2 (en) Method for automatic generation of three-dimensional models of the superstructures of rooves and buildings by deduction
WO2007066002A1 (en) Method of bringing steoreoscopic images into correspondence

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15774874

Country of ref document: EP

Kind code of ref document: A2

NENP Non-entry into the national phase in:

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15774874

Country of ref document: EP

Kind code of ref document: A2