WO2015049853A1 - 寸法計測装置、寸法計測方法、寸法計測システム、プログラム - Google Patents

寸法計測装置、寸法計測方法、寸法計測システム、プログラム Download PDF

Info

Publication number
WO2015049853A1
WO2015049853A1 PCT/JP2014/004938 JP2014004938W WO2015049853A1 WO 2015049853 A1 WO2015049853 A1 WO 2015049853A1 JP 2014004938 W JP2014004938 W JP 2014004938W WO 2015049853 A1 WO2015049853 A1 WO 2015049853A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimension
computer
land
coordinate value
candidate area
Prior art date
Application number
PCT/JP2014/004938
Other languages
English (en)
French (fr)
Inventor
治美 山本
肇 直原
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN201480054427.8A priority Critical patent/CN105593637B/zh
Priority to US15/025,736 priority patent/US10060734B2/en
Priority to EP14850643.9A priority patent/EP3054263B1/en
Publication of WO2015049853A1 publication Critical patent/WO2015049853A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Definitions

  • the present invention relates to a dimension measuring device, a dimension measuring method, a dimension measuring system, and a program.
  • the present invention relates to a dimension measuring apparatus that measures the dimension of an object using coordinate values obtained by three-dimensional measurement, a dimension measuring method used in the dimension measuring apparatus, and a dimension measuring system using the dimension measuring apparatus.
  • the present invention relates to a program for realizing the dimension measuring apparatus.
  • a technique has been proposed in which a three-dimensional measurement is performed on an object and a three-dimensional model is created using the measured data (for example, see Document 1 [Japanese Published Patent Publication No. 2012-230594]).
  • Document 1 in order to create a three-dimensional model of an object, a surface constituting the object is obtained from three-dimensional point cloud position data measured by a laser scanner, and an intersection line between the surfaces is calculated as a contour line. .
  • a non-surface region that is neither a plane nor a curved surface is removed, and then surface labeling is performed. Further, continuous surfaces are integrated by label integration.
  • the technique described in Document 1 obtains a surface using 3D point cloud position data excluding non-surface regions and generates a boundary line of the obtained surface in order to generate a three-dimensional model. .
  • An object of the present invention is to provide a dimension measuring apparatus capable of generating an accurate dimension drawing for an object. Furthermore, an object of the present invention is to provide a dimension measuring method used in the dimension measuring apparatus, a dimension measuring system using the dimension measuring apparatus, and a program for realizing the dimension measuring apparatus.
  • An embodiment of a dimension measurement apparatus includes an acquisition unit that acquires a three-dimensional coordinate value related to the object from a measurement apparatus that performs three-dimensional measurement of the object, and a target surface that constitutes the object.
  • a surface extraction unit that is determined based on the coordinate values and extracts a position of a boundary line of the target surface, and a candidate region corresponding to a specific object attached to the target surface, the edge surrounding the candidate region
  • a region extracting unit that extracts a position
  • a dimension generating unit that generates dimension data necessary to create a dimension diagram related to the object from the position of the boundary line and the position of the edge.
  • FIG. 1 is a block diagram illustrating a dimension measuring apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating an operation example of the dimension measuring apparatus according to the first embodiment.
  • FIG. 3 is a perspective view illustrating an example of a space to which the dimension measuring apparatus according to the first embodiment is applied.
  • 4A to 4D are diagrams each illustrating an operation example of the dimension measuring apparatus according to the first embodiment.
  • FIG. 5 is a diagram illustrating an example of a window used in the dimension measuring apparatus according to the first embodiment.
  • FIG. 6 is a diagram illustrating an example of a dimension diagram generated by the dimension measuring apparatus according to the first embodiment.
  • FIG. 7 is a flowchart illustrating the operation of the dimension measuring apparatus according to the first embodiment.
  • FIG. 1 is a block diagram illustrating a dimension measuring apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating an operation example of the dimension measuring apparatus according to the first embodiment.
  • FIG. 3 is a perspective view illustrating an example of
  • FIG. 8 is a block diagram illustrating a dimension measuring apparatus according to the second embodiment.
  • 9A to 9C are diagrams each illustrating an operation example of the dimension measuring apparatus according to the second embodiment.
  • 10A and 10B are plan views illustrating an example of a space to which the dimension measuring apparatus according to the second embodiment is applied.
  • FIG. 11 is a flowchart illustrating the operation of the dimension measuring apparatus according to the second embodiment.
  • FIG. 12 is a flowchart illustrating the operation of the dimension measuring apparatus according to the third embodiment.
  • the dimension measuring system 1 described below includes a measuring device 30 that performs three-dimensional measurement of an object 20 (see FIG. 2), and the object 20 based on the result of three-dimensional measurement of the object 20.
  • the object 20 of the three-dimensional measurement is assumed to be a room provided inside the building as shown in FIG. 2, but the object 20 is either inside or outside the building. Moreover, even if it is the target object 20 other than a building, the technique demonstrated below is applicable.
  • the measuring device 30 that performs three-dimensional measurement is, for example, a 3D laser scanner.
  • the 3D laser scanner is configured to three-dimensionally scan a beam-shaped pulse laser and output a three-dimensional coordinate of a portion (position) irradiated with the pulse laser according to a time difference (flight time) from light projection to light reception. ing.
  • the three-dimensional coordinates output from the measuring device 30 are coordinate values in an orthogonal coordinate system.
  • the coordinate system of the measuring device 30 is set without depending on the arrangement of the object 20. For example, the z axis is set in the vertical direction, and the reference point is set at 0 m above sea level. Or the structure by which the plane which installed the measuring apparatus 30 is defined to xy plane may be sufficient.
  • the measuring device 30 outputs three-dimensional coordinates for each position where the pulse laser is irradiated on the object 20. That is, the measuring device 30 outputs measurement data indicating the three-dimensional coordinate values of each part of the object 20.
  • a position where data of three-dimensional coordinates is obtained is referred to as a measurement point.
  • the three-dimensional coordinate data output from the measuring device 30 is referred to as first data.
  • the measuring device 30 having this type of configuration can measure three-dimensional coordinates with an accuracy of, for example, about 1 mm.
  • the measuring device 30 may adopt a configuration that uses the principle of triangulation, instead of measuring the time of flight. Further, the measuring device 30 is not limited to the configuration that irradiates the beam-shaped pulse laser, but may adopt a configuration that projects a pattern such as a line shape, a stripe shape, or a lattice shape, and employs a stereo image method or the like. It may be configured. Furthermore, the measuring device 30 projects intensity-modulated light whose intensity changes according to a predetermined rule as time passes, and receives reflected light from the space where the intensity-modulated light is projected, so A configuration may be used in which the phase difference of the intensity-modulated light from the time of light reception is detected and the flight time is obtained from this phase difference. As this type of configuration, a distance image sensor is known in which a pixel value is a distance value by receiving light with an area image sensor.
  • the measuring device 30 has a function of imaging the object 20 as well as performing three-dimensional measurement. Therefore, the measuring device 30 includes a solid-state imaging device such as a CCD image sensor or a CMOS image sensor, and a wide-angle optical system arranged in front of the solid-state imaging device so as to obtain a field of view equivalent to a scanning range of a pulse laser. With. Kinect (registered trademark) and the like are known as this type of measuring device 30.
  • the captured image may be a monochrome grayscale image. However, in the following, it is assumed that the image is a color image and luminance data is output in addition to color stimulus values such as RGB.
  • the image data output from the measuring device 30 is referred to as second data.
  • the first data is associated with each pixel of the second data. That is, each pixel of the second data and the measurement point for acquiring the first data are associated with each other one by one and are output from the measurement device 30. Therefore, the measuring device 30 outputs the three-dimensional coordinates (x, y, z) of the measurement point as the first data, and the three types of color stimulus values (CS1, CS2, CS3) relating to the measurement point as the second data. And the luminance (LM) relating to the measurement point is output.
  • the color stimulus values (CS1, CS2, CS3) and the luminance (LM) are collectively referred to as color information.
  • the measuring device 30 outputs the first data relating to the three-dimensional shape of the object 20 and the second data relating to the color information of the object 20.
  • the second data is used as color image data by being associated with the three-dimensional coordinates of the measurement point. That is, selecting a specific pixel of the color image is equivalent to selecting a measurement point, and first data corresponding to the pixel is extracted.
  • the measuring device 30 may be configured to output only the first data.
  • the object 20 since the object 20 is a room, the object 20 includes a floor surface 31, a ceiling surface 32, and a wall surface 33 as shown in FIG. Therefore, the measuring device 30 outputs first data and second data related to the inner space of the object 20.
  • the floor surface 31, the ceiling surface 32, and the wall surface 33 are not distinguished, they are simply referred to as a surface 3.
  • the ceiling surface 32 may not be parallel to the floor surface 31, it is assumed here that the ceiling surface 32 is parallel to the floor surface 31.
  • the field of view (measurement range) of the measuring device 30 is relatively wide, there is a case where the entire inner space of the object 20 cannot be measured with only one measurement.
  • the purpose may be achieved by performing only one measurement.
  • the measuring device 30 can also perform measurement a plurality of times by changing the arrangement and orientation. Although the function of the measuring device 30 will not be described in detail, the measuring device 30 has a function of connecting the first data and the second data obtained by a plurality of times of measurement without overlapping based on the attribute of the measurement point. is doing. Therefore, if the measuring device 30 is appropriately arranged in a plurality of measurements, the first data and the second data output from the measuring device 30 include information on the entire surface of the object 20.
  • the dimension measuring device 10 extracts the surface 3 constituting the object 20 using the data acquired from the measuring device 30.
  • the dimension measuring apparatus 10 may have a function of extracting various information related to the object 20 using the extracted surface.
  • Dimension measuring device 10 is configured using a computer that operates according to a program. That is, the dimension measuring apparatus 10 is realized by using a program that causes a computer to function as the dimension measuring apparatus 10.
  • the computer preferably includes a keyboard and a pointing device as the input device 40 and a display device as the output device 41.
  • the computer may be a tablet terminal or a smartphone in which a touch panel as the input device 40 is integrated with a display device that is the output device 41.
  • the dimension measuring device 10 includes an input unit 15 that is an interface unit that acquires information input from the input device 40, and includes an output unit 17 that is an interface unit for outputting information to the output device 41. .
  • the interface unit means a circuit for transferring data.
  • the computer may not be general-purpose and may be designed exclusively.
  • the computer may be a system including one or more computers. That is, the computer may be a computer server or a cloud computing system, and the user enjoys the functions described below using a terminal device capable of communicating with the computer server or the cloud computing system. You may do it.
  • the dimension measuring device 10 includes an acquisition unit 11 that acquires first data and second data from the measuring device 30.
  • the acquisition unit 11 desirably acquires the second data, but may be configured to acquire only the first data.
  • the dimension measuring apparatus 10 includes a surface extraction unit 12 that extracts the surface 3 constituting the target object 20 using the first data regarding the target object 20 acquired by the acquisition unit 11.
  • a surface extraction unit 12 estimates the overall shape of the surface 3 using information obtained from a part of the surface 3 and knowledge about the surface 3, and the overall shape of the object 20 from the overall shape of the surface 3. It has the function to estimate.
  • the surface extraction unit 12 uses the second data to display a color image on the display device which is the output device 41, and is specified by the input device 40 in the color image. And a function of recognizing the region as a region where the surface 3 exists. The user can recognize the type of the surface 3 relatively easily by looking at the color image displayed on the output device 41 and using the color information of the surface 3 as a judgment material for identifying the type of the surface 3. become.
  • the surface extraction unit 12 permits the input device 40 to specify a desired region in the color image.
  • the user designates the surface 3
  • the selection frame may have various shapes, but it is desirable to use a simple shape such as a quadrangle, a triangle, or an ellipse.
  • the extraction range of the measurement points belonging to the surface 3 is set with respect to the image displayed on the output device 41. It is input interactively by a selection frame. That is, the user looks at the image displayed on the screen of the output device 41 and operates the input device 40 to thereby operate a plurality of surfaces 3 (a floor surface 31, a ceiling surface 32, and individual wall surfaces 33 surrounding the room). ) For the selection frame.
  • the surface extraction unit 12 has three measurement points whose relative positions to the outline of the selection frame are predetermined within the range of the selection frame (that is, three measurement points positioned at a predetermined position with respect to the selection frame).
  • First data is extracted for. Since the first data is a three-dimensional coordinate, by obtaining three coordinate values included in the same plane, the formula of the plane passing through the three measurement points set in the selection frame is uniquely determined.
  • the In short, a mathematical expression representing a plane including three measurement points is obtained.
  • the knowledge about the surface 3 includes, for example, knowledge about the shape of the surface 3 and knowledge about the arrangement of different surfaces 3.
  • the shape of the surface 3 for example, the knowledge that “the room of the building is surrounded by a set of planes” is used.
  • the surface 3 is not a flat surface, it is possible to use a relatively simple curved surface (a U-shaped cross section, a hemispherical shape, etc.), but in the present embodiment, it is assumed that the surface 3 is a flat surface.
  • the knowledge that “the boundary line of the adjacent surfaces 3 is included in the line of intersection of the adjacent surfaces 3” is used.
  • the surface 3 is a plane, the knowledge that “the vertex that is one end of the boundary line is shared by the three surfaces 3” is used.
  • the surface extraction unit 12 automatically extracts the surface 3 of the object 20 by applying the above knowledge to the first data or the second data output from the measuring device 30. Therefore, the surface extraction unit 12 identifies the surface 3 and generates a mathematical expression representing the identified surface 3 using the first data at a plurality of (three or more) measurement points belonging to the identified surface 3. .
  • the surface extraction unit 12 extracts vertices shared by the three surfaces 3 using the generated mathematical formula, and extracts a straight line connecting the extracted vertices as a boundary line between two adjacent surfaces 3. Therefore, the surface extraction unit 12 generates data representing the approximate shape of the object 20 as a set of vertices and boundary lines, and stores the coordinate values of the vertices and the links having the vertices as end points in association with each other. To do.
  • the surface extraction unit 12 interactively specifies the surface 3 to be extracted by the user, but automatically adds at least a part of the surface 3 by adding other constraints. It is also possible to specify. For example, when it is known that the floor surface 31 and the ceiling surface 32 are parallel, if the floor surface 31 and the ceiling surface 32 are simple planes, the floor surface 31 and the ceiling surface 32 are automatically recognized. It is possible. Further, if the area of the surface 3 is known to be smaller than the exposed part of the surface 3, the position of the surface 3 can be estimated from the frequency distribution. However, since the technique for automatically extracting the surface 3 is not a gist, description thereof is omitted.
  • the wall surface 33 and furniture can be separated by using the distance from the measuring device 30 as auxiliary information.
  • the floor surface 31, ceiling surface 32, and wall surface 33 surrounding the room are outlets (outlets), wall switches, windows, air conditioners (air conditioners), lighting fixtures, range hoods, and storage under the floor.
  • Various objects 22 selected from a warehouse or the like are often attached. For example, when the cloth is replaced, the dimensions of the cloth are determined so as to avoid these objects 22. In addition, it is necessary to accurately know the positions of these objects 22 in order to assign flooring or the like during the renovation.
  • the target surface 21 can be selected from all the surfaces extracted by the surface extraction unit 12.
  • one surface 3 designated using the input device 40 is referred to as a target surface 21.
  • the target surface 21 is provided on the condition that boundary lines 211 and 212 with the adjacent surface 3 are extracted over the entire circumference.
  • the outer peripheral shape of the surface of interest 21 is rectangular, and therefore, the case where the surface of interest 21 is rectangular will be described below.
  • the surface of interest 21 is a rectangular surface surrounded by two boundary lines 211 along the vertical direction and two boundary lines 212 along the horizontal direction. Even when the surface of interest 21 has another shape such as a pentagonal shape or a trapezoidal shape, the technology described below can be employed.
  • the region extracting unit 13 When the surface extracting unit 12 determines the surface of interest 21, the region extracting unit 13 provided in the dimension measuring apparatus 10 extracts a candidate region 23 corresponding to the object 22 attached to the surface of interest 21.
  • the region extraction unit 13 of the present embodiment is configured to receive a designation frame 25 that designates a range in which the candidate region 23 exists from the input device 40. That is, when the rough range of the candidate area 23 is designated by the designation frame 25 through the operation of the input device 40 by the user, the area extraction unit 13 determines the position of the edge 231 surrounding the candidate area 23 in the designation frame 25. Extract.
  • the position of the edge 231 means the position of the measurement point constituting the edge 231 rather than the center position of the edge 231.
  • the attention plane 21 and the candidate area 23 are distinguished from each other by using the attribute difference between the focused area 21 and the candidate area 23.
  • the attribute used to distinguish the target surface 21 and the candidate area 23 is at least one of color information and coordinate values.
  • a range is defined for the color information of the surface of interest 21, and the coordinate value of the measurement point having color information that deviates from this range is the coordinate of the candidate area 23.
  • the range of the color information is determined by the chromaticity distance (difference) obtained from the color information or an area on the chromaticity diagram.
  • a geometric distance with respect to the target surface 21 is used. That is, a plurality of measurement points whose geometric distance of the measurement point with respect to the target surface 21 exceeds the reference value and whose distance from the target surface 21 exceeds the reference value are connected in the plane along the target surface 21. When a region is formed, this connected region is regarded as a candidate region 23.
  • the area regarded as the candidate area 23 in the designation frame 25 is excluded from the display on the screen of the output device 41 as shown in FIG. 4B. (For example, it becomes white). That is, the pixel having the coordinate value that becomes the candidate region 23 is excluded from the screen of the output device 41.
  • the area extraction unit 13 starts from a position that is surely within the range of the candidate area 23 and is surrounded by the designated frame 25 on the plane representing the plane of interest 21.
  • the position of the edge 231 of the candidate area 23 is obtained by performing scanning in two directions along the lines 211 and 212 (the vertical direction and the horizontal direction in FIG. 4C).
  • the designated frame 25 is set so that the position of the center of the designated area does not greatly deviate from that of the candidate area 23. It is considered to be included.
  • the center or the center of gravity may be set as the start position within the range of pixels excluded from the surface of interest 21.
  • the position of the center of the designated frame 25 is used as the start point 26.
  • the region extraction unit 13 is indicated by a straight line with an arrow in the figure.
  • the edge 231 of the candidate area 23 is obtained by scanning each from the start point 26 in both the vertical direction and the horizontal direction.
  • the coordinates of the edge 231 obtained by scanning from the start point 26 in the up and down direction and the left and right direction are selected as shown in FIG. 4D. It is possible to determine the position of the edge of the region 23.
  • the surface of interest 21 is an xz plane.
  • the edge 231 of the candidate area 23 is rectangular and each side is parallel to the x direction or the z direction.
  • the edge 231 of the candidate area 23 is determined based on the coordinates of the intersection with the edge 231 obtained by scanning in the x direction and the z direction from the start point 26 determined within the range of the candidate area 23.
  • the area extracting unit 13 determines the edge 231 from one point on the edge 231 obtained by scanning from the start point 26.
  • the position of the edge 231 of the candidate area 23 may be determined by tracking the coordinates. Since the coordinates extracted as the edge 231 of the candidate area 23 may not exist on the straight line, the edge 231 that surrounds the candidate area 23 can be obtained by fitting a straight line equation in the same manner as the surface of interest 21. It may be determined.
  • the edge 231 of the candidate area 23 cannot be determined over the entire circumference.
  • the boundary lines 211 and 212 of the surface of interest 21 may be substituted for the edge 231 of the candidate area 23.
  • the candidate region 23 is not limited to the rectangular shape as described above, but may have a simple geometric shape such as a circular shape, an elliptical shape, or a triangular shape. Since the shape of the object 22 is known to the user, it is possible to select the shape to which the edge 231 is fitted by giving the region extraction unit 13 information regarding the type including the shape of the object 22. When the shape to which the edge 231 is fitted is known, the region extracting unit 13 may track the coordinates of the edge 231 and adjust the size of the fitted shape so as to minimize the error from the tracked coordinates. .
  • the area extracting unit 13 stores information defining the edge 231. If the edge 231 has a rectangular shape, the coordinate values of four vertices may be stored. If the edge 231 has a circular shape, the diameter (or radius) of the circle and the coordinate value of the center may be stored. When the edge 231 is circular, the region extraction unit 13 sets a rectangle that has sides parallel to the boundary lines 211 and 212 of the surface of interest 21 and circumscribes the circle, and the four vertices (or The positions of two vertices on the diagonal may be stored. The same applies to an elliptical shape or a triangular shape, and the region extracting unit 13 may store information that can uniquely identify the shape of the edge 231.
  • the area extraction unit 13 outputs a window 42 having contents as shown in FIG. 5 in order to designate the attribute used when the candidate area 23 is cut out from the surface of interest 21 and the type of the candidate area 23 or the shape of the candidate area 23. 41 is displayed on the screen. In a state where the window 42 is displayed, the region extraction unit 13 receives information input from the input device 40.
  • “opening”, “wiring device”, and “others” can be designated as the types of the objects 22 corresponding to the candidate areas 23.
  • “others”, “rectangle” and “circle” are possible. And can be alternatively specified by radio buttons.
  • the reference value (“cutout width”) can be set in units of mm, and is set to “5 mm” in the illustrated example. Therefore, a measurement point that is 5 mm away from the surface of interest 21 is determined as a measurement point of the candidate area 23.
  • the dimension generation unit 14 uses the coordinate values measured by the measurement device 30 to use the boundary lines 211 and 212 (boundary lines) of the surface of interest 21.
  • the dimensions from the measurement point coordinates 211 and 212) to the edge 231 of the candidate area 23 (coordinates of measurement points constituting the edge 231), the dimension of the candidate area 23, and the like are obtained. That is, the dimension generation unit 14 generates dimension data necessary for creating a dimension diagram (allocation diagram).
  • the dimensional diagram is a diagram showing dimensions related to the object 20. In the case of this embodiment, as shown in FIG. 6, the dimensional diagram is a diagram showing the size of the target surface 21 of the target object 20, the size of the object 22, and the positional relationship between the target surface 21 and the object 22.
  • FIG. 6 is an example of a dimensional diagram drawn using the dimensional data generated by the dimensional generation unit 14.
  • the window 221 as an opening, in addition to the distances from the boundary lines B11 and B12 to the edge E10, FIG.
  • the dimensions of the window 221 are described, and for the wiring device 222, only the distance from the boundary lines B11 and B12 to the edge E11 (the center position of the wiring device 222 in FIG. 6) is described.
  • the unit of length in FIG. 6 is [mm].
  • FIG. 7 collectively shows a procedure until the edge position of the candidate area 23 is determined in the present embodiment.
  • FIG. 7 shows a procedure after obtaining a three-dimensional coordinate value from the measuring device 30.
  • the region extraction unit 13 uses the designation frame 25 from the input device 40 to select the candidate region 23.
  • An input for roughly specifying the range is accepted (S12).
  • the region extraction unit 13 receives an input specifying the type of the object 22 from the input device 40 (S13). Step S12 and step S13 can be interchanged.
  • the region extraction unit 13 extracts the position of the edge of the candidate region 23 (S14), and the dimension generation unit 14 generates dimension data for describing the dimension drawing (S15). .
  • the following dimension measuring method is executed by the dimension measuring apparatus 10 of the present embodiment.
  • a computer acquires a three-dimensional coordinate value related to the target object 20 from a measuring device 30 that performs three-dimensional measurement of the target object 20.
  • the computer surface extraction unit 12 determines the target surface 21 constituting the object 20 based on the coordinate values, and extracts the position of the boundary line of the target surface 21.
  • the position of the edge surrounding the candidate area 23 is extracted from the candidate area 23 corresponding to the specific object 22 attached to the surface of interest 21 by the computer (area extracting unit 13).
  • the computer dimension generation unit 14
  • the computer generates dimension data necessary for creating a dimension diagram related to the object 20 from the position of the boundary line and the position of the edge.
  • an input for specifying the type of the object 22 is received by the computer (input unit 15). Further, in the dimension measuring method, the position of the object 22 and the dimension of the object 22 with respect to the edge position are corrected by the computer (dimension generation unit 14) using information on the type of the designated object 22.
  • an input for designating a range where the candidate area 23 exists is accepted by the computer (input unit 15). Further, in the dimension measuring method, the candidate area 23 is extracted from the designated range by the computer (area extracting unit 13).
  • the computer acquires color information in addition to the coordinate value.
  • the coordinate value accompanied by the color information in a predetermined range is regarded as the coordinate value of the candidate region 23 by the computer (region extracting unit 13).
  • a dimension diagram is displayed on the screen of the display device as the output device 41, and a plotter, a printer, or the like as the output device 41 is used. It is also possible to print dimension drawings.
  • the dimension measuring apparatus 10 of this embodiment includes an acquisition unit 11, a surface extraction unit 12, a region extraction unit 13, and a dimension generation unit 14.
  • the acquisition unit 11 acquires a three-dimensional coordinate value related to the target object 20 from the measurement device 30 that performs three-dimensional measurement of the target object 20.
  • the surface extraction unit 12 determines a target surface 21 (see FIG. 3) constituting the object 20 based on the coordinate values, and extracts the position of the boundary line of the target surface 21.
  • the region extraction unit 13 extracts the positions of edges surrounding the candidate region 23 for the candidate region 23 (see FIG. 3) corresponding to the specific object 22 (see FIG. 2) attached to the surface of interest 21.
  • the dimension generation unit 14 generates dimension data necessary for creating a dimension diagram related to the object 20 from the position of the boundary line and the position of the edge.
  • the dimension measuring apparatus 10 further includes an input unit 15.
  • the input unit 15 has a function of accepting an input specifying the type of the object 22 from the input device 40.
  • the dimension generation unit 14 corrects the position and dimension data of the object 22 with respect to the edge position by using information on the type of the object 22.
  • the input unit 15 has a function of accepting an input specifying a range where the candidate area 23 exists.
  • the region extraction unit 13 extracts the candidate region 23 from the range specified by the input unit 15.
  • the acquiring unit 11 has a function of acquiring the color information in addition to the coordinate value when the measuring device 30 has a function of outputting color information for each coordinate value.
  • the area extracting unit 13 has a function of regarding the coordinate value accompanied by the color information in a predetermined range as the coordinate value of the candidate area 23.
  • the dimension measurement system includes a dimension measurement apparatus 10 and a measurement apparatus 30.
  • the dimension measurement system preferably includes the input device 40. This also applies to Embodiments 2 and 3 described later.
  • the dimension measuring apparatus 10 includes a computer that operates according to a program as a main hardware element. That is, the program causes the computer to function as the dimension measuring device 10 described above.
  • a program is mounted as a ROM (Read Only Memory) on a dedicated computer, and is provided to a general-purpose computer through an electric communication line such as the Internet or using a computer-readable recording medium. Provided. This also applies to Embodiments 2 and 3 described later.
  • the area extraction unit 13 inputs a designation frame 25 that designates a rough range of the candidate area 23 from the input device 40.
  • the dimension measuring apparatus 10 includes a land extracting unit 16 that automatically extracts the land 24 as shown in FIG.
  • the land extraction unit 16 determines a connection region formed by the measurement points 28 whose distance to the surface of interest 21 exceeds the reference value in the land 24.
  • the technique is the same as the technique used for separating the target surface 21 and the candidate region 23 in the designated frame 25 in the first embodiment, but in the present embodiment, the target surface 21 obtained as shown in FIG.
  • the land 24 is extracted using the distance between the target surface 21 and the measurement point 28.
  • the surface of the object 22 attached to the surface of interest 21 is considered to be displaced indoors or outdoors relative to the surface of interest 21 as shown in FIGS. 10A and 10B. Therefore, the land extraction unit 16 extracts a land 24 that may be a candidate region 23 if a connected region is formed by the measurement points 28 whose distance to the surface of interest 21 exceeds the reference value 27.
  • the land extracting unit 16 assigns a label to the extracted land 24 as shown in FIG. 9C ((1) (2) in the illustrated example). Label). If a label is assigned to the land 24, it is possible to exclude measurement points belonging to the land 24 from the candidate area 23 only by specifying the label when removing the unnecessary land 24. For example, when measuring points belonging to the land 24 to which the label (1) is assigned are excluded from the candidate area 23, if the label (1) is specified, the measuring points belonging to the land 24 can be collectively excluded from the candidate area 23. . When only the label (1) is designated, the land 24 to which the label (2) is assigned is left as the candidate area 23. In this case, the measurement point 28 of the land 24 to which the label (1) is assigned is restored.
  • the region extracting unit 13 can leave the land 24 corresponding to the door as the candidate region 23 by receiving the designation of the land 24 to be left as the candidate region 23 from the input device 40.
  • the area extraction unit 13 can exclude the land 24 corresponding to the wall clock from the candidate area 23 by receiving an input for excluding the desired land 24 from the input device 40.
  • the area extraction unit 13 displays the target surface 21 and lands 24 of the output device 41 so that the lands 24 included in the candidate areas 23 or the lands 24 excluded from the candidate areas 23 can be interactively designated using the input apparatus 40. Configured. Therefore, when the input unit 15 receives an input designating the land 24 to be adopted as the candidate area 23 from the input device 40, the land 24 to be handled as the candidate area 23 is determined. It is substantially equivalent even if the input device 40 is configured to designate the land 24 to be excluded from the candidate area 23 and the area extracting unit 13 is configured to adopt the land 24 that is not excluded. .
  • the land extraction unit 16 extracts a measurement point having a distance exceeding the reference value with respect to the surface of interest 21. Are excluded (S22). Furthermore, the land extraction unit 16 assigns a label to each land 24 that is a set of excluded measurement points (S23).
  • the area extracting unit 13 displays the land 24 on the screen of the output device 41 (S24) and receives an instruction from the input device 40 (S25).
  • the region extraction unit 13 inputs an input for specifying the type of the object 22 from the input device 40 for each land 24.
  • Accept (S27) That is, when there are a plurality of lands 24 that become candidate regions 23, the type of the object 22 is designated for each of the plurality of lands 24.
  • Step S27 can be processed before step S25.
  • the region extraction unit 13 extracts the position of the edge of the candidate region 23 (S28), and the dimension generation unit 14 adds dimension data for describing the dimension drawing in consideration of the type of the object 22.
  • Generate S29.
  • the area extracting unit 13 ends the process. That is, if the land 24 corresponding to the object 22 does not exist in the land 24 extracted by the land extracting unit 16, the process is terminated. Note that the operation example of FIG. 11 assumes that when there are a plurality of lands 24 that become candidate regions 23, a plurality of candidate regions 23 are designated collectively.
  • the following dimension measuring method is executed by the dimension measuring apparatus of the present embodiment.
  • the area where the distance of the coordinate value to the surface of interest 21 exceeds the reference value and is attached to the surface of interest 21 is extracted as a land 24 by the computer (land extraction unit 16).
  • an input for interactively specifying the land 24 corresponding to the object 22 among the lands 24 is received by the computer (input unit 15).
  • the land 24 designated by the computer (area extracting unit 13) is set as the candidate area 23.
  • the dimension measuring apparatus 10 extracts, as a land 24, an area where the distance of the coordinate value to the target surface 21 exceeds a reference value and is attached to the target surface 21.
  • the land extraction unit 16 may be provided.
  • the input unit 15 has a function of accepting an input for interactively specifying the land 24 corresponding to the object 22 among the lands 24. Furthermore, it is desirable that the area extraction unit 13 sets the land 24 specified in the input unit 15 as the candidate area 23.
  • the lands 24 are extracted on the condition that the distance to the surface of interest 21 is a connected region of measurement points that exceeds the reference value. For this reason, the land 24 includes an area that is not the object 22, and the user needs to select the land 24 corresponding to the object 22 using the input device 40. When there are a large number of lands 24 that are not the objects 22, it is burdensome for the user to manually select unnecessary lands 24.
  • the operation of selecting the land 24 corresponding to the object 22 using the input device 40 is automatically saved by automatically determining whether the land 24 corresponds to the object 22 or not. That is, by employing the technique of the present embodiment, the number of unnecessary lands 24 is reduced, and the work of selecting the lands 24 that do not correspond to the object 22 is reduced.
  • the configuration of the present embodiment is the same as that of the second embodiment shown in FIG.
  • the land extraction unit 16 determines a plurality of types of reference shapes corresponding to the object 22 in advance.
  • the reference shape corresponds to a template, but only a geometric shape (rectangle, circle, ellipse, triangle, etc.) is defined, and dimensions (dimensions) can be adjusted to fit the land 24. ing.
  • the land extraction unit 16 changes the size of the reference shape for each extracted land 24 to evaluate the similarity, and extracts the reference shape having the highest similarity with the land 24.
  • the dimensions are adjusted so that the similarity with the land 24 is high for a plurality of reference shapes, and the reference shape with the maximum similarity with the land 24 is extracted from the reference shapes whose dimensions are adjusted. If the similarity between the extracted reference shape and the land 24 is within a predetermined evaluation value range, it is determined that the reference shape is fitted to the land 24.
  • the area extraction unit 13 uses the land 24 fitted with the reference shape as the candidate area 23. Further, when the reference shape is fitted to the land 24, the edge of the candidate region 23 can be substituted with the contour line of the reference shape, so that the process of extracting the edge of the candidate region 23 becomes unnecessary.
  • the land 24 fitted to the reference shape generally corresponds to the object 22, it can be used for the candidate region 23, but depending on the shape of the target object 20, the land 24 that does not correspond to the object 22 can be used. May remain. Therefore, also in the present embodiment, as in the second embodiment, the land 24 that does not correspond to the object 22 can be manually removed using the input device 40.
  • the land extraction unit 16 extracts a measurement point having a distance exceeding the reference value with respect to the surface of interest 21. Are excluded (S32). Further, the land extraction unit 16 evaluates the similarity between a plurality of types of reference shapes and the lands 24, and extracts the lands 24 to which any of the reference shapes fits among the lands 24 (S34). Thereafter, the land extraction unit 16 gives a label to the land 24 fitted to the reference shape (S34).
  • the processing is the same as in the second embodiment. That is, when a label is given to the land 24, the area extracting unit 13 displays the land 24 on the screen of the output device 41 (S35) and receives an instruction from the input device 40 (S36). In response to an instruction from the input device 40, the region extracting unit 13 specifies an object 22 type from the input device 40 for each land 24 when there is a land 24 to be adopted as the candidate region 23 (S 37: Y). Is received (S38).
  • the reference shape is fitted to the land 24 in step S33, the outline of the reference shape is used as the edge of the candidate region 23.
  • the dimension generation unit 14 generates dimension data for describing the dimension drawing in consideration of the type of the object 22 (S39).
  • the area extracting unit 13 ends the process. That is, if the land 24 corresponding to the object 22 does not exist in the land 24 extracted by the land extracting unit 16, the process is terminated.
  • the following dimension measuring method is executed by the dimension measuring apparatus of the present embodiment.
  • the area where the distance of the coordinate value to the surface of interest 21 exceeds the reference value and is attached to the surface of interest 21 is extracted as a land 24 by the computer (land extraction unit 16).
  • the computer (land extraction unit 16) evaluates the similarity between a plurality of predetermined reference shapes and the land 24.
  • a land to which one of the reference shapes is fitted out of the lands 24 by the computer (region extraction unit 13) is set as the candidate region 23, and the outline of the reference shape fitted to the lands 24 is set as the edge. .
  • the dimension measuring apparatus 10 uses the second data as an example.
  • the second data is not always necessary, and as is apparent from the above-described technique, the first data is used. It is possible to generate a wire frame model using only the above data.
  • the dimension measuring apparatus 10 extracts, as a land 24, an area where the distance of the coordinate value to the target surface 21 exceeds a reference value and is attached to the target surface 21.
  • the land extraction unit 16 may be provided.
  • the land extraction unit 16 evaluates the similarity between a plurality of predetermined reference shapes and the land 24.
  • the area extracting unit 13 uses the land 24 fitted with any of the reference shapes of the lands 24 as the candidate area 23 and the outline of the reference shape fitted to the lands 24 as the edge.
  • the dimension measuring device (10) of the first embodiment according to the present invention is obtained from the measuring device (30) that performs three-dimensional measurement of the object (20).
  • An acquisition unit (11) that acquires a three-dimensional coordinate value related to the object (20), and a target surface (21) that constitutes the target object (20) are determined based on the coordinate value, and the target surface ( 21)
  • the target surface (21) constituting the target object (20) is determined using the three-dimensional coordinate values measured for the target object (20), and attached to the target surface (21).
  • the candidate area (23) corresponding to the specific object (22) the position of the edge surrounding the candidate area (23) is extracted.
  • the 1st form produces
  • the first embodiment has an advantage that an accurate dimensional diagram can be generated for the object (20) by such a configuration.
  • the second embodiment of the dimension measuring device (10) according to the present invention is realized in combination with the first embodiment.
  • the dimension measuring apparatus (10) according to the second embodiment further includes an input unit (15) having a function of receiving an input designating the type of the object (22) from the input apparatus (40).
  • the dimension generation unit (14) is configured to correct the position and the dimension of the object (22) with respect to the position of the edge using information on the type of the object (22).
  • the third embodiment of the dimension measuring device (10) according to the present invention is realized in combination with the second embodiment.
  • the input unit (15) has a function of receiving an input for designating a range where the candidate area (23) exists.
  • the region extraction unit (13) is configured to extract the candidate region (23) from the range specified by the input unit (15).
  • the fourth embodiment of the dimension measuring device (10) according to the present invention is realized in combination with the second embodiment.
  • the dimension measuring apparatus (10) according to the fourth aspect is configured so that a distance of the coordinate value with respect to the target surface (21) exceeds a reference value and an area attached to the target surface (21) is a land ( 24) is further provided with a land extraction unit (16) for extraction.
  • the input unit (15) has a function of receiving an input for interactively specifying a land (24) corresponding to the object (22) out of the lands (24).
  • the area extraction unit (13) sets the land (24) specified in the input unit (15) as the candidate area (23).
  • the fifth embodiment of the dimension measuring device (10) according to the present invention is realized in combination with the first or second embodiment.
  • the dimension measuring apparatus (10) according to the fifth aspect of the present invention relates to a region in which the distance of the coordinate value to the surface of interest (21) exceeds a reference value and is attached to the surface of interest (21).
  • 24) is further provided with a land extraction unit (16) for extraction.
  • the land extraction unit (16) is configured to evaluate the similarity between a plurality of predetermined reference shapes and the land (24).
  • the region extraction unit (13) uses the land (24) to which any of the reference shapes of the lands (24) are fitted as the candidate region (23), and the reference shape fitted to the lands (24).
  • a contour is configured to be the edge.
  • the acquisition unit (11) includes the coordinate device in addition to the coordinate value when the measuring device (30) has a function of outputting color information for each coordinate value. It has a function to acquire color information.
  • the area extraction unit (13) has a function of regarding the coordinate value accompanied by color information in a predetermined range as the coordinate value of the candidate area (23).
  • a computer acquires a three-dimensional coordinate value related to the object (20) from a measuring device (30) that performs three-dimensional measurement of the object (20).
  • the computer determines the target surface (21) constituting the object (20) based on the coordinate values and extracts the position of the boundary line of the target surface (21).
  • the candidate area (23) corresponding to the specific object (22) attached to the surface of interest (21) the position of the edge surrounding the candidate area (23) is extracted, and the position of the boundary line is determined by the computer.
  • Dimension data necessary for creating a dimensional diagram related to the object (20) is generated from the position of the edge.
  • the dimension measuring method obtains a three-dimensional coordinate value related to the object (20) from the measuring device (30) that performs three-dimensional measurement of the object (20). (11) is acquired, and the surface extraction unit (12) determines the surface of interest (21) constituting the object (20) based on the coordinate values, and the boundary line of the surface of interest (21) The position of the edge surrounding the candidate area (23) is extracted from the candidate area (23) corresponding to the specific object (22) attached to the surface of interest (21). Is extracted, and a dimension generation unit (14) generates dimension data necessary for creating a dimension diagram related to the object (20) from the position of the boundary line and the position of the edge.
  • the dimension measuring method according to the eighth embodiment of the present invention is realized in combination with the seventh embodiment.
  • the computer receives an input for specifying the type of the object (22).
  • the position and dimension of the object (22) with respect to the position of the edge are corrected by the computer using information on the type of the designated object (22).
  • the ninth embodiment of the dimension measuring method according to the present invention is realized in combination with the eighth embodiment.
  • the computer receives an input for designating a range in which the candidate area (23) exists. Furthermore, in the dimension measurement method of the ninth aspect, the candidate area (23) is extracted from the designated range by the computer.
  • the dimensional measurement method according to the tenth aspect of the present invention is realized in combination with the eighth aspect.
  • an area in which the distance of the coordinate value to the surface of interest (21) exceeds a reference value by the computer and attached to the surface of interest (21) is calculated. Extract as (24).
  • the computer receives an input for interactively specifying a land (24) corresponding to the object (22) among the lands (24).
  • the designated land (24) is set as the candidate area (23) by the computer.
  • the dimensional measurement method of the eleventh aspect according to the present invention is realized in combination with the seventh or eighth aspect.
  • an area in which the distance of the coordinate value to the surface of interest (21) exceeds a reference value by the computer and is attached to the surface of interest (21) is calculated. Extract as (24).
  • the computer evaluates the similarity between a plurality of predetermined reference shapes and the land (24).
  • a land to which any one of the reference shapes is fitted out of the lands (24) by the computer is used as the candidate area (23) and is fitted to the lands (24).
  • the contour line of the reference shape thus made is defined as the edge.
  • the dimensional measurement method of the twelfth aspect according to the present invention is realized in combination with any one of the seventh to eleventh aspects.
  • the computer acquires the color information in addition to the coordinate values when the measuring device (30) has a function of outputting color information for each coordinate value.
  • the coordinate value accompanied by color information in a predetermined range is regarded as the coordinate value of the candidate area (23) by the computer.
  • a dimensional measurement system includes the dimensional measurement apparatus (10) according to any one of the first to sixth aspects and the measurement apparatus (30). That is, the dimension measuring system includes a measuring device (30) and any one of the first to sixth dimension measuring devices (10) connected to the measuring device (30).
  • the program of the 14th form which concerns on this invention is a program which makes a computer function as a dimension measuring apparatus (10).
  • the dimension measuring device (10) includes an acquisition unit (11) that acquires a three-dimensional coordinate value related to the object (20) from the measuring device (30) that performs three-dimensional measurement of the object (20), and the object.
  • a surface extraction unit (12) that determines a surface of interest (21) constituting (20) based on the coordinate values and extracts a position of a boundary line of the surface of interest (21); and the surface of interest (21 )
  • a candidate area (23) corresponding to a specific object (22) attached to the area
  • an area extracting unit (13) for extracting the position of an edge surrounding the candidate area (23), the position of the boundary line
  • a dimension generation unit (14) that generates dimension data necessary for creating a dimension diagram related to the object (20) from the position of the edge.
  • the computer-readable storage medium according to the fifteenth aspect of the present invention is a computer-readable storage medium recorded with a program that causes the computer to function as the dimension measuring device (10).
  • the dimension measuring device (10) includes an acquisition unit (11) that acquires a three-dimensional coordinate value related to the object (20) from the measuring device (30) that performs three-dimensional measurement of the object (20), and the object.
  • a surface extraction unit (12) that determines a surface of interest (21) constituting (20) based on the coordinate values and extracts a position of a boundary line of the surface of interest (21); and the surface of interest (21 )
  • a candidate area (23) corresponding to a specific object (22) attached to the area
  • an area extracting unit (13) for extracting the position of an edge surrounding the candidate area (23), the position of the boundary line
  • a dimension generation unit (14) that generates dimension data necessary for creating a dimension diagram related to the object (20) from the position of the edge.

Abstract

 本発明の課題は、対象物について精度のよい寸法図を生成することを可能にすることである。本発明に係る寸法計測装置(10)は、対象物(20)の3次元計測を行う計測装置(30)から前記対象物(20)に関する3次元の座標値を取得する取得部(11)と、前記対象物(20)を構成している着目面(21)を前記座標値に基づいて定め、かつ当該着目面(21)の境界線の位置を抽出する面抽出部(12)と、前記着目面(21)に付設されている特定の物体(22)に相当する候補領域(23)について、前記候補領域(23)を囲むエッジの位置を抽出する領域抽出部(13)と、前記境界線の位置と前記エッジの位置とから前記対象物(20)に関する寸法図の作成に必要な寸法データを生成する寸法生成部(14)と、を備える。

Description

寸法計測装置、寸法計測方法、寸法計測システム、プログラム
 本発明は、寸法計測装置、寸法計測方法、寸法計測システム、およびプログラムに関する。特に、本発明は、3次元計測により得られた座標値を用いて対象物の寸法を計測する寸法計測装置、およびこの寸法計測装置に用いる寸法計測方法、この寸法計測装置を用いた寸法計測システム、この寸法計測装置を実現するプログラムに関する。
 対象物について3次元計測を行い、計測したデータを用いて3次元モデルを作成する技術が提案されている(たとえば、文献1[日本国公開特許公報第2012-230594号]参照)。文献1では、対象物の3次元モデルを作成するために、レーザスキャナが測定した3次元点群位置データから対象物を構成する面を求め、面同士の交線を輪郭線として算出している。対象物を構成する面を求める際には、平面でも曲面でもない非面領域が除去された後、面のラベリングが行われ、さらに、ラベルの統合によって、連続する面が統合されている。また、文献1に記載された技術は、3次元モデルを生成するために、非面領域を除外した3次元点群位置データを用いて面を求め、さらに求めた面の境界線を定めている。
 一方、既存の建物の補修などのために、材料(たとえば、内装用のクロス)の必要量を見積もる場合には、部位ごとに材料の要否を判断し、また、部位ごとに材料の増減が必要である。しかしながら、文献1に記載された技術は、面の境界線によって面を区分しているだけであるから、この技術によって生成された3次元モデルを用いても、材料の必要量を精度よく見積もることはできない。すなわち、この種の目的に用いるには、対象物に関して精度のよい寸法図を生成することが必要になる。
 本発明は、対象物について精度のよい寸法図を生成することを可能にした寸法計測装置を提供することを目的とする。さらに、本発明は、この寸法計測装置に用いる寸法計測方法、この寸法計測装置を用いた寸法計測システム、この寸法計測装置を実現するためのプログラムを提供することを目的とする。
 本発明に係る一形態の寸法計測装置は、対象物の3次元計測を行う計測装置から前記対象物に関する3次元の座標値を取得する取得部と、前記対象物を構成している着目面を前記座標値に基づいて定め、かつ当該着目面の境界線の位置を抽出する面抽出部と、前記着目面に付設されている特定の物体に相当する候補領域について、前記候補領域を囲むエッジの位置を抽出する領域抽出部と、前記境界線の位置と前記エッジの位置とから前記対象物に関する寸法図の作成に必要な寸法データを生成する寸法生成部とを備える。
図1は、実施形態1の寸法計測装置を示すブロック図である。 図2は、実施形態1の寸法計測装置の動作例を示す図である。 図3は、実施形態1の寸法計測装置を適用する空間の例を示す斜視図である。 図4A~Dは、それぞれ、実施形態1の寸法計測装置の動作例を示す図である。 図5は、実施形態1の寸法計測装置で用いるウインドウの例を示す図である。 図6は、実施形態1の寸法計測装置により生成された寸法図の例を示す図である。 図7は、実施形態1の寸法計測装置の動作をフローチャートで示す図である。 図8は、実施形態2の寸法計測装置を示すブロック図である。 図9A~Cは、それぞれ、実施形態2の寸法計測装置の動作例を示す図である。 図10A,Bは、実施形態2の寸法計測装置を適用する空間の例を示す平面図である。 図11は、実施形態2の寸法計測装置の動作をフローチャートで示す図である。 図12は、実施形態3の寸法計測装置の動作をフローチャートで示す図である。
 (実施形態1)
 図1に示すように、以下に説明する寸法計測システム1は、対象物20(図2参照)の3次元計測を行う計測装置30と、対象物20の3次元計測の結果から対象物20の寸法計測を行う寸法計測装置10とを備える。実施形態1~3では、3次元計測の対象物20は、図2に示すように、建物の内部に設けられた部屋を想定しているが、対象物20は建物の内外のどちらであってもよく、また建物以外の対象物20であっても、以下に説明する技術は適用可能である。
 3次元計測を行う計測装置30は、たとえば、3Dレーザスキャナである。3Dレーザスキャナは、ビーム状のパルスレーザを立体的に走査し、投光から受光までの時間差(飛行時間)によって、パルスレーザを照射した部位(位置)の3次元座標を出力するように構成されている。計測装置30が出力する3次元座標は直交座標系の座標値である。計測装置30の座標系は、対象物20の配置に依存することなく設定される。たとえば、z軸が鉛直方向に定められ、基準点が海抜0mに定められる。あるいは、計測装置30を設置した平面がxy平面に定められる構成でもよい。
 計測装置30は、対象物20において、パルスレーザが照射された位置ごとに3次元座標を出力する。つまり、計測装置30は、対象物20の各部位の3次元の座標値を示す測定データを出力する。以下では、3次元座標のデータが得られる位置を測定点と呼ぶ。また、計測装置30から出力される3次元座標のデータを第1のデータと呼ぶ。この種の構成の計測装置30は、3次元座標を、たとえば1mm程度の精度で計測することが可能である。
 計測装置30は、飛行時間を計測するのではなく、三角測量法の原理を用いる構成などを採用してもよい。また、計測装置30は、ビーム状のパルスレーザを照射する構成に限定されず、線状、縞状、格子状などのパターンを投影する構成を採用してもよく、ステレオ画像法などを採用した構成でもよい。さらに、計測装置30は、時間経過に伴って強度が所定の規則で変化する強度変調光を投光し、強度変調光を投光した空間からの反射光を受光することにより、投光時と受光時との強度変調光の位相差を検出し、この位相差から飛行時間を求める構成でもよい。この種の構成としては、エリアイメージセンサで受光することにより、画素値を距離値とする距離画像センサが知られている。
 さらに、計測装置30は、3次元計測を行うだけではなく、対象物20を撮像する機能を備えていることが望ましい。そのため、計測装置30は、CCDイメージセンサあるいはCMOSイメージセンサのような固体撮像素子と、パルスレーザを走査する範囲と同等の視野が得られるように固体撮像素子の前方に配置された広角の光学系とを備える。この種の計測装置30には、Kinect(登録商標)などが知られている。撮像された画像は、モノクロの濃淡画像であってもよいが、以下では、カラー画像であって、RGBのような色刺激値に加えて輝度のデータを出力する場合を想定している。計測装置30から出力される画像のデータを第2のデータと呼ぶ。
 第1のデータは、第2のデータの各画素に対応付けられる。すなわち、第2のデータの各画素と第1のデータを取得する測定点とは一対一に対応付けられ、計測装置30から出力される。したがって、計測装置30は、第1のデータとして測定点の3次元座標(x,y,z)を出力し、第2のデータとして測定点に関する3種類の色刺激値(CS1,CS2,CS3)および測定点に関する輝度(LM)を出力する。以下では、色刺激値(CS1,CS2,CS3)および輝度(LM)をまとめて色情報と呼ぶ。
 上述のように、計測装置30は、対象物20の3次元形状に関する第1のデータと、対象物20の色情報に関する第2のデータとを出力する。第2のデータは、測定点の3次元座標と対応付けられることにより、カラー画像のデータとして用いられる。すなわち、カラー画像の特定の画素を選択すると、測定点を選択したことと等価であり、当該画素に対応した第1のデータが抽出される。なお、計測装置30は、第1のデータのみを出力する構成であってもよい。
 本実施形態において、対象物20は部屋であるから、対象物20は、たとえば、図2に示すように、床面31と天井面32と壁面33とを備える。したがって、計測装置30は、対象物20の内側空間に関する第1のデータおよび第2のデータを出力する。以下、床面31と天井面32と壁面33とを区別しない場合には、単に面3と記載する。天井面32は、床面31と平行ではない場合もあるが、ここでは、天井面32が床面31と平行である場合を想定する。
 計測装置30の視野(計測範囲)は比較的広いが、計測を1回行うだけでは、対象物20について内側空間の全体を計測することはできない場合がある。もちろん、計測の目的によっては、対象物20の内側空間のうちの着目する一部のみを計測すればよいことがあり、この場合は、計測を1回行うだけでも目的を達成できる場合がある。
 計測装置30は、配置および向きを変えて計測を複数回行うことも可能である。計測装置30の機能については詳述しないが、計測装置30は、複数回の計測により得られた第1のデータおよび第2のデータを、測定点の属性に基づいて重複なくつなぎ合わせる機能を有している。したがって、複数回の計測において、計測装置30を適正に配置すれば、計測装置30から出力される第1のデータおよび第2のデータは、対象物20の全面に関する情報を含むことになる。
 寸法計測装置10は、計測装置30から取得したデータを用いて対象物20を構成している面3を抽出する。寸法計測装置10は、抽出した面を用いて、対象物20に関する各種情報を抽出する機能を備えていてもよい。
 寸法計測装置10は、プログラムに従って動作するコンピュータを用いて構成される。すなわち、コンピュータを、寸法計測装置10として機能させるプログラムを用いることにより、寸法計測装置10が実現される。
 コンピュータは、入力装置40としてキーボード、ポインティングデバイスを備え、出力装置41としてディスプレイ装置を備えることが望ましい。また、コンピュータは、入力装置40としてのタッチパネルが、出力装置41であるディスプレイ装置と一体化されたタブレット端末あるいはスマートフォンなどでもよい。寸法計測装置10は、入力装置40から入力された情報を取得するインターフェイス部である入力部15を備えており、また、出力装置41に情報を出力するためのインターフェイス部である出力部17を備える。インターフェイス部は、データを受け渡す回路を意味している。
 また、コンピュータは、汎用ではなく、専用に設計されていてもよい。さらに、コンピュータは、1乃至複数のコンピュータで構成されたシステムであってもよい。つまり、コンピュータは、コンピュータサーバ、あるいはクラウドコンピューティングシステムであってもよく、利用者は、コンピュータサーバあるいはクラウドコンピューティングシステムとの通信が可能な端末装置を用いて、以下に説明する機能を享受するようにしてもよい。
 寸法計測装置10は、図1のように、計測装置30から第1のデータおよび第2のデータを取得する取得部11を備える。取得部11は、第2のデータを取得することが望ましいが、第1のデータのみを取得するように構成されていてもよい。
 寸法計測装置10は、取得部11が取得した対象物20に関する第1のデータを用いて対象物20を構成している面3を抽出する面抽出部12を備える。本実施形態では、対象物20として部屋を想定しているから、面3の一部は、計測装置30から見て家具、設備などの背後に隠れている場合があり、隠れている部位については3次元計測を行うことが難しい。そのため、面抽出部12は、面3の一部から得られた情報と、面3に関する知識とを用いて、面3の全体形状を推定し、面3の全体形状から対象物20の全体形状を推定する機能を有する。
 面3の一部の情報を用いるために、面抽出部12は、第2のデータを用いてカラー画像を出力装置41であるディスプレイ装置に表示する機能と、カラー画像において入力装置40で指定された領域を面3が存在する領域として認識する機能とを有している。利用者は、出力装置41に表示されたカラー画像を見て、面3の色情報を面3の種類を識別する判断材料に用いることにより、面3の種類を比較的容易に見分けることが可能になる。
 出力装置41の画面に対象物20の全体を示すカラー画像が表示されている状態において、面抽出部12は、カラー画像における所望の領域を入力装置40で指定することを許可する。利用者が面3を指定する際、適宜形状の選択枠を出力装置41の画面に表示し、指定しようとする面3の範囲内に選択枠が含まれるように選択枠を移動させることが望ましい。選択枠は、種々の形状が考えられるが、四角形、三角形、楕円形などの単純な形状を用いることが望ましい。
 上述のように、利用者が入力装置40を用いて面3の範囲内に選択枠を設定することにより、出力装置41に表示された画像に対して、面3に属する測定点の抽出範囲が選択枠によって対話的に入力される。つまり、利用者は、出力装置41の画面に表示されている画像を見て、入力装置40を操作することにより、部屋を囲む複数の面3(床面31、天井面32、個々の壁面33)に対して選択枠を設定する。
 面抽出部12は、選択枠の範囲内で選択枠の輪郭との相対位置があらかじめ定められている3個の測定点(つまり、選択枠に対して所定位置に位置する3個の測定点)について第1のデータを抽出する。第1のデータは、3次元座標であるから、同一平面に含まれる3個の座標値が得られることによって、選択枠で設定された3個の測定点を通る平面の式が一意に決定される。要するに、3個の測定点を含む平面を表す数式が求められる。平面の式は、一般に、第1のデータである座標値(x,y,z)を用いて、ax+by+cz=dという形式で表される。なお、a,b,c,dは定数である。
 面3に関する知識は、たとえば、面3の形状に関する知識と、異なる面3の配置に関する知識とを含む。面3の形状に関しては、たとえば、「建物の部屋は平面の集合で囲まれている」という知識を用いる。面3が平面ではない場合、面は比較的簡単な曲面(断面U字状、半球状など)を用いることが可能であるが、本実施形態では、面3が平面である場合を想定する。異なる面3の配置に関しては、「隣接する面3の境界線は、隣接する面3の交線に含まれる」という知識を用いる。さらに、面3が平面である場合、「境界線の一端である頂点は、3枚の面3に共有される」という知識が用いられる。
 面抽出部12は、計測装置30から出力された第1のデータあるいは第2のデータに対して、上述のような知識を適用して対象物20の面3を自動的に抽出する。そのため、面抽出部12は、面3を特定し、かつ特定した面3に属する複数個(3個以上)の測定点における第1のデータを用いて、特定した面3を表す数式を生成する。
 面抽出部12は、生成した数式を用いて3枚の面3が共有する頂点を抽出し、抽出した頂点を結ぶ直線を隣接する2枚の面3の境界線として抽出する。したがって、面抽出部12は、対象物20の概略の形状を頂点と境界線との集合で表すデータを生成し、各頂点の座標値、および各頂点を端点とするリンクとを対応付けて記憶する。
 面抽出部12が記憶するデータを、出力装置41の画面に描画を行うプログラムに引き渡すと、出力装置41であるディスプレイ装置の画面に、対象物20に含まれる面3を境界線で区切った線画(ワイヤフレームモデル)が描画される。
 上述した動作例において、面抽出部12は、利用者が抽出しようとする面3を対話的に指定しているが、他に制約条件を加えることによって、少なくとも一部の面3を自動的に特定することも可能である。たとえば、床面31と天井面32とが平行であることが既知であるとき、床面31および天井面32が単純な平面であれば、床面31と天井面32とを自動的に認識することが可能である。また、面3のうち隠れている部位が露出している部位よりも面積が小さいことが既知であれば、度数分布によって面3の位置を推定することが可能である。ただし、面3を自動的に抽出する技術は、要旨ではないから、説明を省略する。
 いずれにしても、面3を表す数式が求められると、面3と他の物品との識別が可能である。たとえば、計測装置30からの距離を補助的な情報として用いることにより、壁面33と家具などとを分離することが可能である。
 ところで、図3のように、部屋を囲んでいる床面31、天井面32、壁面33には、アウトレット(コンセント)、壁スイッチ、窓、空調装置(エアコン)、照明器具、レンジフード、床下収納庫などから選択される種々の物体22が付設されることが多い。クロスの張り替えを行う場合などには、これらの物体22を避けるようにクロスの寸法が割り出される。また、リフォームの際に床材などを割り付けるためにも、これらの物体22の位置を正確に知る必要がある。
 以下では、面抽出部12が抽出した複数の面3のうちの1面を着目面21として、着目面21に付設されている物体22の位置を求める技術について説明する。着目面21は、面抽出部12が抽出したすべての面から選択可能であり、面抽出部12が各面を順番に自動的に着目面21として選択する構成と、利用者が入力装置40を用いて特定する構成とのいずれかを採用する。
 以下の説明では、入力装置40を用いて指定された1つの面3を着目面21とする。また、着目面21は、隣接する面3との境界線211,212が全周に亘って抽出されていることを条件とする。限定する趣旨ではないが、多くの場合、着目面21の外周の形状は矩形状になるから、以下では、着目面21が矩形状である場合について説明する。ここでは、着目面21は、上下方向に沿った2つの境界線211と、左右方向に沿った2つの境界線212と、で囲まれる矩形状の面である。着目面21が、五角形状、台形状のような他の形状になる場合であっても、以下に説明する技術は採用可能である。
 面抽出部12が着目面21を定めると、寸法計測装置10に設けられた領域抽出部13は、着目面21に付設された物体22に相当する候補領域23を抽出する。本実施形態の領域抽出部13は、図4Aに示すように、候補領域23が存在する範囲を指定する指定枠25を入力装置40から受け取るように構成されている。すなわち、領域抽出部13は、利用者による入力装置40の操作を通して候補領域23の大まかな範囲が指定枠25により指定されると、指定枠25の中で候補領域23を囲むエッジ231の位置を抽出する。たとえば、エッジ231の位置は、エッジ231の中心位置というよりは、エッジ231を構成する測定点の位置を意味する。
 候補領域23を囲むエッジ231の位置を抽出するには、着目面21と候補領域23との属性の相違を利用し、着目面21と候補領域23とを区別する。着目面21と候補領域23とを区別するために利用する属性は、色情報と座標値との少なくとも一方である。
 色情報を用いて着目面21と候補領域23とを区別する場合、着目面21の色情報について範囲が定められ、この範囲を逸脱する色情報を持つ測定点の座標値が候補領域23の座標値とみなされる。色情報の範囲は、色情報から求められる色度の距離(差)あるいは色度図上の領域などによって定められる。
 一方、座標値を用いて着目面21と候補領域23とを区別する場合、着目面21に対する幾何学的な距離が用いられる。つまり、着目面21に対する測定点の幾何学的な距離が基準値を超えており、かつ着目面21との距離が基準値を超える複数個の測定点が、着目面21に沿う面内において連結領域を形成している場合に、この連結領域が候補領域23とみなされる。
 上述のようにして着目面21と候補領域23とが区別されると、図4Bのように、指定枠25の中で候補領域23とみなされた領域が出力装置41の画面上の表示から除外される(たとえば、白抜きになる)。すなわち、候補領域23となる座標値を持つ画素が出力装置41の画面からは除外される。
 次に、領域抽出部13は、着目面21を表す平面上で指定枠25に囲まれた範囲であって、確実に候補領域23の範囲内である位置を始点として、着目面21の境界線211,212に沿う2方向(図4Cにおける上下方向および左右方向)に走査を行うことにより、候補領域23のエッジ231の位置を求める。指定枠25は、多くの場合、候補領域23と中心の位置が大きくずれないように設定されるから、指定枠25の中心あるいは重心を始点の位置とすれば、始点の位置は候補領域23に含まれると考えられる。あるいはまた、指定枠25の中で、着目面21から除外された画素の範囲で中心あるいは重心を始点の位置とすればよい。
 たとえば、図4Cに示す例において、指定枠25の中心の位置を始点26に用いている。この例では、着目面21は図の上下方向の境界線211と、左右方向の境界線212とに囲まれているから、領域抽出部13は、図に矢印付きの直線で示しているように、始点26から上下両方向および左右両方向にそれぞれ走査を行って候補領域23のエッジ231を求める。候補領域23のエッジ231が着目面21の境界線211,212と平行である場合、始点26から上下方向と左右方向とに走査して求めたエッジ231の座標を、図4Dのように、候補領域23のエッジの位置に定めることが可能である。
 いま、説明を簡単にするために、着目面21がxz平面であると仮定する。また、候補領域23のエッジ231は、矩形状であって、各辺がx方向またはz方向に平行であると仮定する。この場合、候補領域23のエッジ231は、z=x1,z=x2,x=z1,x=z2の4本の直線で構成される(x1,x2,z1,z2は候補領域23により定まる)。したがって、候補領域23の範囲内で定めた始点26からx方向とz方向とに走査することによって求められるエッジ231との交点の座標に基づいて、候補領域23のエッジ231が定められる。
 候補領域23のエッジ231が着目面21の境界線211,212と平行である保証がない場合、領域抽出部13は、始点26からの走査によって求めたエッジ231上の1つの点からエッジ231となる座標を追跡することにより、候補領域23のエッジ231の位置を定めてもよい。候補領域23のエッジ231として抽出される座標は、直線上に存在していない可能性があるから、着目面21と同様に、直線の式を当て嵌めることによって、候補領域23を囲むエッジ231を定めるようにしてもよい。
 図4A~Dに示す例のように、候補領域23の一部が着目面21に囲まれていない場合(たとえば、物体22が複数の面3で形成される角に存在する場合)、1つの着目面21の中では候補領域23のエッジ231を全周に亘って決定することができない。このような場合、走査によって定めることができないエッジ231は、着目面21の境界線211,212を候補領域23のエッジ231に代用すればよい。
 候補領域23は、上述のような矩形状だけではなく、円形状、楕円形状、三角形状などの簡単な幾何学形状になる場合もある。物体22の形状は利用者にとっては既知であるから、物体22の形状を含めた種類に関する情報を領域抽出部13に与えることによって、エッジ231を当て嵌める形状を選択することが可能になる。エッジ231を当て嵌める形状が既知である場合、領域抽出部13は、エッジ231の座標を追跡し、追跡した座標との誤差を最小にするように、当て嵌める形状の大きさを調節すればよい。
 上述のようにして候補領域23を囲むエッジ231が定まると、領域抽出部13は、エッジ231を規定する情報を記憶する。エッジ231が矩形状である場合、4個の頂点の座標値を記憶すればよく、エッジ231が円形状である場合、円の直径(または半径)と中心の座標値を記憶すればよい。なお、エッジ231が円形状の場合に、領域抽出部13は、着目面21の境界線211,212に平行な辺を持ち、円に外接する矩形を設定し、この矩形の4つの頂点(あるいは対角線上の2つの頂点)の位置を記憶するようにしてもよい。楕円形状、三角形状の場合も同様であり、領域抽出部13は、エッジ231の形状を一意に特定できる情報を記憶すればよい。
 領域抽出部13は、着目面21から候補領域23を切り出す際の属性、および候補領域23の種類あるいは候補領域23の形状を指定させるために、図5に示すような内容のウインドウ42を出力装置41の画面に表示する。このウインドウ42が表示されている状態で、領域抽出部13は、入力装置40から入力された情報を受け付ける。
 図5に示す例では、候補領域23に対応する物体22の種類として、「開口部」「配線器具」「その他」の指定が可能であり、「その他」については、「矩形」と「円」とがラジオボタンによって択一的に指定可能になっている。また、基準値(「切出し幅」)はmmを単位として、設定可能であり、図示例では「5mm」に設定している。したがって、着目面21からの距離が5mm離れた測定点は、候補領域23の測定点と判断される。
 ところで、計測装置30は、距離を計測するから、3次元の座標値から対象物20の実寸が得られる。したがって、上述のように候補領域23を囲むエッジ231の位置が定められると、寸法生成部14は、計測装置30で計測した座標値を用いて、着目面21の境界線211,212(境界線211,212を構成する測定点の座標)から候補領域23のエッジ231(エッジ231を構成する測定点の座標)までの寸法、候補領域23の寸法などを求める。すなわち、寸法生成部14は、寸法図(割当図)の作成に必要な寸法データを生成する。寸法図は、対象物20に関する寸法を示す図である。本実施形態の場合、寸法図は、図6に示すように、対象物20の着目面21の寸法、物体22の寸法、および、着目面21と物体22との位置関係を示す図である。
 ただし、候補領域23に対応する物体22が、窓である場合と配線器具である場合とでは、実測した寸法と、寸法図に書き入れる寸法との扱い方に相違がある。そこで、寸法生成部14は、物体22の種類に関する情報を用いて、エッジの位置に対する物体22の位置および寸法を補正する。図6は、寸法生成部14が生成した寸法データを用いて作図した寸法図の例であって、開口部としての窓221に対しては、境界線B11,B12からエッジE10までの距離のほか、窓221の寸法が記述され、配線器具222に対しては、境界線B11,B12からエッジE11(図6では、配線器具222の中心位置)までの距離のみが記述されている。なお、図6中の長さの単位は[mm]である。
 本実施形態において候補領域23のエッジの位置を決定するまでの手順を図7にまとめて示す。図7は、計測装置30から3次元の座標値を取得した後の手順を示している。本実施形態では、面抽出部12が、入力装置40から着目面21を選択する入力を受け付けた後(S11)、領域抽出部13が、入力装置40から指定枠25を用いて候補領域23の範囲をおおまかに指定する入力を受け付ける(S12)。さらに、領域抽出部13は、入力装置40から物体22の種類を指定する入力を受け付ける(S13)。ステップS12とステップS13とは入れ替え可能である。これらの情報が入力されると、領域抽出部13は、候補領域23のエッジの位置を抽出し(S14)、寸法生成部14は、寸法図を記述するための寸法データを生成する(S15)。
 本実施形態の寸法計測装置10により、次のような寸法計測方法が実行される。寸法計測方法は、コンピュータ(取得部11)によって、対象物20の3次元計測を行う計測装置30から対象物20に関する3次元の座標値を取得する。さらに、寸法計測方法は、コンピュータ(面抽出部12)によって、対象物20を構成している着目面21を座標値に基づいて定め、かつ当該着目面21の境界線の位置を抽出する。さらに、寸法計測方法は、コンピュータ(領域抽出部13)によって、着目面21に付設される特定の物体22に相当する候補領域23について、候補領域23を囲むエッジの位置を抽出する。さらに、寸法計測方法は、コンピュータ(寸法生成部14)によって、境界線の位置とエッジの位置とから対象物20に関する寸法図の作成に必要な寸法データを生成する。
 また、寸法計測方法は、コンピュータ(入力部15)によって、物体22の種類を指定する入力を受け付ける。さらに、寸法計測方法は、コンピュータ(寸法生成部14)によって、指定された物体22の種類に関する情報を用いてエッジの位置に対する物体22の位置および寸法を補正する。
 また、寸法計測方法は、コンピュータ(入力部15)によって、候補領域23が存在する範囲を指定する入力を受け付ける。さらに、寸法計測方法は、コンピュータ(領域抽出部13)によって、指定された範囲から候補領域23を抽出する。
 また、寸法計測方法は、コンピュータ(取得部11)によって、計測装置30が座標値ごとに色情報を出力する機能を有する場合に座標値に加えて色情報を取得する。さらに、寸法計測方法は、コンピュータ(領域抽出部13)によって、あらかじめ定められた範囲の色情報が付随する座標値を候補領域23の座標値とみなす。
 本実施形態では、寸法データを出力した後の処理については、記載していないが、出力装置41としてのディスプレイ装置の画面に寸法図を表示するほか、出力装置41としてのプロッタ、プリンタなどを用いて寸法図の印刷を行うことも可能である。
 図1に示すように、本実施形態の寸法計測装置10は、取得部11と面抽出部12と領域抽出部13と寸法生成部14とを備える。取得部11は、対象物20の3次元計測を行う計測装置30から対象物20に関する3次元の座標値を取得する。面抽出部12は、対象物20を構成している着目面21(図3参照)を前記座標値に基づいて定め、かつ当該着目面21の境界線の位置を抽出する。領域抽出部13は、着目面21に付設されている特定の物体22(図2参照)に相当する候補領域23(図3参照)について、候補領域23を囲むエッジの位置を抽出する。寸法生成部14は、前記境界線の位置と前記エッジの位置とから対象物20に関する寸法図の作成に必要な寸法データを生成する。
 また、寸法計測装置10は入力部15をさらに備えることが望ましい。入力部15は、物体22の種類を指定する入力を入力装置40から受け付ける機能を有する。この場合、寸法生成部14は、物体22の種類に関する情報を用いて前記エッジの位置に対する物体22の位置および寸法データを補正する。
 また、入力部15は、候補領域23が存在する範囲を指定する入力を受け付ける機能を有することが望ましい。この場合、領域抽出部13は、入力部15に指定された範囲から候補領域23を抽出する。
 取得部11は、計測装置30が前記座標値ごとに色情報を出力する機能を有する場合に前記座標値に加えて前記色情報を取得する機能を有することが望ましい。この場合、領域抽出部13は、あらかじめ定められた範囲の色情報が付随する前記座標値を候補領域23の座標値とみなす機能を有する。
 本実施形態の寸法計測システムは、寸法計測装置10と、計測装置30とを備える。また、寸法計測システムは、入力装置40を備えることが望ましい。この点は、後述する実施形態2,3においても同様である。
 本実施形態の寸法計測装置10は、プログラムに従って動作するコンピュータを主なハードウェア要素として構成される。すなわち、プログラムは、コンピュータを上述した寸法計測装置10として機能させる。このようなプログラムは、専用のコンピュータにROM(Read Only Memory)として搭載するほか、汎用のコンピュータに対して、インターネットのような電気通信回線を通して提供されるか、コンピュータで読取可能な記録媒体を用いて提供される。この点は、後述する実施形態2,3においても同様である。
 (実施形態2)
 実施形態1では、領域抽出部13は、入力装置40から候補領域23のおおまかな範囲を指定する指定枠25を入力させているが、本実施形態は、図9Bのように、候補領域23の可能性がある領域をランド24として自動的に抽出する構成を採用している。つまり、寸法計測装置10は、図8のように、ランド24を自動的に抽出するランド抽出部16を備えている。
 ランド抽出部16は、着目面21に対する距離が基準値を超える測定点28により形成される連結領域をランド24に定める。すなわち、実施形態1において指定枠25の中で着目面21と候補領域23とを分離するために用いた技術と同様であるが、本実施形態では、図9Aのように得られる着目面21の範囲内の測定点28について、着目面21と測定点28との距離を用いてランド24を抽出している。具体的には、着目面21に付設された物体22の表面は、図10A,Bのように、着目面21に対して室内側あるいは室外側にずれていると考えられる。したがって、ランド抽出部16は、着目面21までの距離が基準値27を超える測定点28による連結領域が形成されていれば、候補領域23の可能性があるランド24として抽出する。
 領域抽出部13での処理を簡単にするために、図9Cのように、ランド抽出部16は抽出したランド24にラベルを付与しておくことが望ましい(図示例では、(1)(2)のラベルが付与されている)。ランド24にラベルが付与されていれば、不要なランド24を除去する際に、ラベルを指定するだけで、ランド24に属する測定点を候補領域23から一括して除外することが可能になる。たとえば、ラベル(1)が付与されたランド24に属する測定点を候補領域23から除外する場合、ラベル(1)を指定すれば、ランド24に属する測定点を一括して候補領域23から除外できる。ラベル(1)のみを指定した場合は、ラベル(2)が付与されたランド24は候補領域23として残される。この場合、ラベル(1)が付与されたランド24の測定点28は元に戻される。
 たとえば、壁掛け時計とドアとがランド24として抽出された場合、壁掛け時計は、取り外すことができるから、候補領域23に含める必要がない。このような場合に、領域抽出部13は、入力装置40から候補領域23として残すランド24の指定を受け付けることによって、ドアに対応するランド24を候補領域23として残すことが可能になる。あるいは、領域抽出部13は、入力装置40から所望のランド24を除外する入力を受け付けることによって、壁掛け時計に対応するランド24を候補領域23から除外することが可能になる。
 領域抽出部13は、出力装置41の着目面21およびランド24を表示し、候補領域23に含めるランド24あるいは候補領域23から除外するランド24を、入力装置40を用いて対話的に指定できるように構成される。したがって、入力部15が、候補領域23として採用するランド24を指定する入力を入力装置40から受け付けることにより、候補領域23として扱うランド24が定められる。なお、入力装置40が候補領域23から除外するランド24を指定するように構成され、かつ領域抽出部13が除外されていないランド24を採用するように構成されていても実質的に等価である。
 本実施形態の他の構成および動作は実施形態1と同様である。本実施形態の動作をまとめると、図11のようになる。すなわち、面抽出部12が、入力装置40から着目面21を選択する入力を受け付けた後(S21)、ランド抽出部16が、着目面21に対して基準値を超える距離の測定点を抽出して除外する(S22)。さらに、ランド抽出部16は、除外された測定点の集合であるランド24に、それぞれラベルを付与する(S23)。
 ランド24にラベルが付与されると、領域抽出部13は、ランド24を出力装置41の画面に表示し(S24)、入力装置40からの指示を受け付ける(S25)。領域抽出部13は、入力装置40からの指示によって、候補領域23として採用するランド24がある場合には(S26:Y)、ランド24ごとに入力装置40から物体22の種類を指定する入力を受け付ける(S27)。つまり、候補領域23になるランド24が複数個ある場合には、複数個のランド24について、それぞれ物体22の種類が指定される。ステップS27はステップS25より先に処理することが可能である。ステップS27の後、領域抽出部13は、候補領域23のエッジの位置を抽出し(S28)、寸法生成部14は、物体22の種類を加味して、寸法図を記述するための寸法データを生成する(S29)。
 領域抽出部13は、候補領域23として採用するランド24が入力装置40から指示されなければ(S26:N)、処理を終了する。つまり、ランド抽出部16が抽出したランド24に、物体22に対応したランド24が存在しなければ、処理を終了する。なお、図11の動作例は、候補領域23になるランド24が複数存在する場合には、複数の候補領域23を一括して指定することを想定している。
 本実施形態の寸法計測装置により、次のような寸法計測方法が実行される。寸法計測方法は、コンピュータ(ランド抽出部16)によって、座標値の着目面21に対する距離が基準値を超えており、かつ着目面21に付設されている領域を、ランド24として抽出する。さらに、寸法計測方法は、コンピュータ(入力部15)によって、ランド24のうち物体22に相当するランド24を対話的に指定する入力を受け付ける。さらに、寸法計測方法は、コンピュータ(領域抽出部13)によって、指定されたランド24を候補領域23とする。
 図8に示すように、本実施形態の寸法計測装置10は、前記座標値の着目面21に対する距離が基準値を超えており、かつ着目面21に付設されている領域を、ランド24として抽出するランド抽出部16を備えていてもよい。
 この場合、入力部15は、ランド24のうち物体22に相当するランド24を対話的に指定する入力を受け付ける機能を有することが望ましい。さらに、領域抽出部13は、入力部15に指定されたランド24を候補領域23とすることが望ましい。
 (実施形態3)
 実施形態2では、着目面21に対する距離が基準値を超える測定点の連結領域であることだけを条件にランド24が抽出されている。そのため、ランド24には、物体22ではない領域が含まれており、入力装置40を用いて利用者が物体22に対応するランド24を選択する作業が必要になっている。物体22ではないランド24が多数個になると、手作業で不要なランド24を選択する作業は利用者にとって負担になる。
 本実施形態は、ランド24が物体22に対応するか否かを自動的に判断することによって、入力装置40を用いて物体22に対応するランド24を選択する作業を省力化している。すなわち、本実施形態の技術を採用することにより、不要なランド24の個数が低減され、物体22に対応しないランド24を選択する作業が軽減される。本実施形態の構成は、図8に示した実施形態2と同様であってランド抽出部16を備える。
 ランド24が物体22に対応するか否かを判断するために、ランド抽出部16は、物体22に相当する複数種類の基準形状をあらかじめ定めている。基準形状は、テンプレートに相当するが、幾何学的な形状(矩形、円、楕円、三角など)が定められているだけであって、寸法(ディメンション)はランド24に合うように調節可能になっている。
 ランド抽出部16は、抽出したランド24ごとに基準形状の寸法を変化させて類似度を評価し、ランド24との類似度がもっとも高い基準形状を抽出する。つまり、複数の基準形状についてランド24との類似度が高くなるように寸法を調整し、寸法が調節された基準形状のうちランド24との類似度が最大になる基準形状を抽出する。抽出された基準形状についてランド24との類似度が所定の評価値の範囲内であれば、この基準形状はランド24にフィッティングすると判断される。領域抽出部13は、基準形状がフィッティングするランド24を候補領域23に用いる。また、基準形状がランド24にフィッティングした場合に、候補領域23のエッジは基準形状の輪郭線で代用可能であるから、候補領域23のエッジを抽出する処理は不要になる。
 ところで、基準形状にフィッティングするランド24は、おおむね物体22に対応しているから、候補領域23に用いることが可能であるが、対象物20の形状によっては、物体22に対応していないランド24が残っている場合がある。そのため、本実施形態においても実施形態2と同様に、物体22に対応しないランド24を入力装置40を用いた手作業で除去することを可能にしている。
 本実施形態の他の構成および処理は実施形態1、実施形態2と同様である。本実施形態の動作をまとめると、図12のようになる。すなわち、面抽出部12が、入力装置40から着目面21を選択する入力を受け付けた後(S31)、ランド抽出部16が、着目面21に対して基準値を超える距離の測定点を抽出して除外する(S32)。さらに、ランド抽出部16は、複数種類の基準形状とランド24との類似度を評価し、ランド24のうち基準形状のいずれかがフィッティングするランド24を抽出する(S34)。その後、ランド抽出部16は、基準形状にフィッティングしたランド24にラベルを付与する(S34)。
 以後は、実施形態2と同様の処理である。すなわち、ランド24にラベルが付与されると、領域抽出部13は、ランド24を出力装置41の画面に表示し(S35)、入力装置40からの指示を受け付ける(S36)。領域抽出部13は、入力装置40からの指示によって、候補領域23として採用するランド24が存在する場合には(S37:Y)、ランド24ごとに入力装置40から物体22の種類を指定する入力を受け付ける(S38)。ここで、ステップS33において基準形状をランド24にフィティングしているから、基準形状の輪郭線を候補領域23のエッジに用いる。その後、寸法生成部14は、物体22の種類を加味して、寸法図を記述するための寸法データを生成する(S39)。
 また、領域抽出部13は、候補領域23として採用するランド24が存在しなければ(S26:N)、処理を終了する。つまり、ランド抽出部16が抽出したランド24に、物体22に対応したランド24が存在しなければ、処理を終了する。
 本実施形態の寸法計測装置により、次のような寸法計測方法が実行される。寸法計測方法は、コンピュータ(ランド抽出部16)によって、座標値の着目面21に対する距離が基準値を超えており、かつ着目面21に付設されている領域を、ランド24として抽出する。さらに、寸法計測方法は、コンピュータ(ランド抽出部16)によって、あらかじめ定められた複数種類の基準形状とランド24との類似度を評価する。さらに、寸法計測方法は、コンピュータ(領域抽出部13)によって、ランド24のうち基準形状のいずれかがフィッティングするランドを候補領域23とし、かつランド24にフィッティングした基準形状の輪郭線をエッジとする。
 なお、上述した各実施形態において、寸法計測装置10は、第2のデータを用いる場合を例としたが、第2のデータは、必ずしも必要ではなく、上述した技術から明らかなように、第1のデータのみでワイヤフレームモデルを生成することが可能である。
 図8に示すように、本実施形態の寸法計測装置10は、前記座標値の着目面21に対する距離が基準値を超えており、かつ着目面21に付設されている領域を、ランド24として抽出するランド抽出部16を備えていてもよい。
 ランド抽出部16は、あらかじめ定められた複数種類の基準形状とランド24との類似度を評価することが望ましい。この場合、領域抽出部13は、ランド24のうち前記基準形状のいずれかがフィッティングするランド24を候補領域23とし、かつランド24にフィッティングした基準形状の輪郭線をエッジとすることが望ましい。
 (本発明に係る形態)
 以上述べた実施形態1~3から明らかなように、本発明に係る第1の形態の寸法計測装置(10)は、対象物(20)の3次元計測を行う計測装置(30)から前記対象物(20)に関する3次元の座標値を取得する取得部(11)と、前記対象物(20)を構成している着目面(21)を前記座標値に基づいて定め、かつ当該着目面(21)の境界線の位置を抽出する面抽出部(12)と、前記着目面(21)に付設されている特定の物体(22)に相当する候補領域(23)について、前記候補領域(23)を囲むエッジの位置を抽出する領域抽出部(13)と、前記境界線の位置と前記エッジの位置とから前記対象物(20)に関する寸法図の作成に必要な寸法データを生成する寸法生成部(14)とを備える。
 第1の形態によれば、対象物(20)について計測した3次元の座標値を用いて対象物(20)を構成している着目面(21)を定め、着目面(21)に付設されている特定の物体(22)に相当する候補領域(23)について、候補領域(23)を囲むエッジの位置を抽出している。さらに、第1の形態は、境界線の位置とエッジの位置とから対象物(20)に関する寸法図の作成に必要な寸法データを生成している。第1の形態は、このような構成により、対象物(20)について精度のよい寸法図を生成することが可能になるという利点がある。
 本発明に係る第2の形態の寸法計測装置(10)は、第1の形態との組み合わせで実現される。第2の形態の寸法計測装置(10)は、前記物体(22)の種類を指定する入力を入力装置(40)から受け付ける機能を有した入力部(15)をさらに備える。前記寸法生成部(14)は、前記物体(22)の種類に関する情報を用いて前記エッジの位置に対する前記物体(22)の位置および寸法を補正するように構成される。
 本発明に係る第3の形態の寸法計測装置(10)は、第2の形態との組み合わせで実現される。第3の形態の寸法計測装置(10)では、前記入力部(15)は、前記候補領域(23)が存在する範囲を指定する入力を受け付ける機能を有する。前記領域抽出部(13)は、前記入力部(15)に指定された範囲から前記候補領域(23)を抽出するように構成される。
 本発明に係る第4の形態の寸法計測装置(10)は、第2の形態との組み合わせで実現される。第4の形態の寸法計測装置(10)は、前記座標値の前記着目面(21)に対する距離が基準値を超えており、かつ前記着目面(21)に付設されている領域を、ランド(24)として抽出するランド抽出部(16)をさらに備える。前記入力部(15)は、前記ランド(24)のうち前記物体(22)に相当するランド(24)を対話的に指定する入力を受け付ける機能を有する。前記領域抽出部(13)は、前記入力部(15)に指定された前記ランド(24)を前記候補領域(23)とする。
 本発明に係る第5の形態の寸法計測装置(10)は、第1又は第2の形態との組み合わせで実現される。第5の形態の寸法計測装置(10)は、前記座標値の前記着目面(21)に対する距離が基準値を超えており、かつ前記着目面(21)に付設されている領域を、ランド(24)として抽出するランド抽出部(16)をさらに備える。前記ランド抽出部(16)は、あらかじめ定められた複数種類の基準形状と前記ランド(24)との類似度を評価するように構成される。前記領域抽出部(13)は、前記ランド(24)のうち前記基準形状のいずれかがフィッティングするランド(24)を前記候補領域(23)とし、かつ前記ランド(24)にフィッティングした基準形状の輪郭線を前記エッジとするように構成される。
 本発明に係る第6の形態の寸法計測装置(10)は、第1~第5の形態のいずれか一つとの組み合わせで実現される。第6の形態の寸法計測装置(10)では、前記取得部(11)は、前記計測装置(30)が前記座標値ごとに色情報を出力する機能を有する場合に前記座標値に加えて前記色情報を取得する機能を有する。前記領域抽出部(13)は、あらかじめ定められた範囲の色情報が付随する前記座標値を前記候補領域(23)の座標値とみなす機能を有する。
 本発明に係る第7の形態の寸法計測方法は、コンピュータによって、対象物(20)の3次元計測を行う計測装置(30)から前記対象物(20)に関する3次元の座標値を取得し、前記コンピュータによって、前記対象物(20)を構成している着目面(21)を前記座標値に基づいて定め、かつ当該着目面(21)の境界線の位置を抽出し、前記コンピュータによって、前記着目面(21)に付設される特定の物体(22)に相当する候補領域(23)について、前記候補領域(23)を囲むエッジの位置を抽出し、前記コンピュータによって、前記境界線の位置と前記エッジの位置とから前記対象物(20)に関する寸法図の作成に必要な寸法データを生成する。
 換言すれば、本発明に係る第7の形態の寸法計測方法は、対象物(20)の3次元計測を行う計測装置(30)から前記対象物(20)に関する3次元の座標値を取得部(11)が取得し、面抽出部(12)が、前記対象物(20)を構成している着目面(21)を前記座標値に基づいて定め、かつ当該着目面(21)の境界線の位置を抽出し、前記着目面(21)に付設される特定の物体(22)に相当する候補領域(23)について、前記候補領域(23)を囲むエッジの位置を領域抽出部(13)が抽出し、前記境界線の位置と前記エッジの位置とから前記対象物(20)に関する寸法図の作成に必要な寸法データを寸法生成部(14)が生成する。
 本発明に係る第8の形態の寸法計測方法は、第7の形態との組み合わせで実現される。第8の形態の寸法計測方法は、前記コンピュータによって、前記物体(22)の種類を指定する入力を受け付ける。さらに、第8の形態の寸法計測方法は、前記コンピュータによって、前記指定された物体(22)の種類に関する情報を用いて前記エッジの位置に対する前記物体(22)の位置および寸法を補正する。
 本発明に係る第9の形態の寸法計測方法は、第8の形態との組み合わせで実現される。第8の形態の寸法計測方法は、前記コンピュータによって、前記候補領域(23)が存在する範囲を指定する入力を受け付ける。さらに、第9の形態の寸法計測方法は、前記コンピュータによって、前記指定された範囲から前記候補領域(23)を抽出する。
 本発明に係る第10の形態の寸法計測方法は、第8の形態との組み合わせで実現される。第10の形態の寸法計測方法は、前記コンピュータによって、前記座標値の前記着目面(21)に対する距離が基準値を超えており、かつ前記着目面(21)に付設されている領域を、ランド(24)として抽出する。さらに、第10の形態の寸法計測方法は、前記コンピュータによって、前記ランド(24)のうち前記物体(22)に相当するランド(24)を対話的に指定する入力を受け付ける。さらに、第10の形態の寸法計測方法は、前記コンピュータによって、前記指定されたランド(24)を前記候補領域(23)とする。
 本発明に係る第11の形態の寸法計測方法は、第7又は8の形態との組み合わせで実現される。第11の形態の寸法計測方法は、前記コンピュータによって、前記座標値の前記着目面(21)に対する距離が基準値を超えており、かつ前記着目面(21)に付設されている領域を、ランド(24)として抽出する。さらに、第11の形態の寸法計測方法は、前記コンピュータによって、あらかじめ定められた複数種類の基準形状と前記ランド(24)との類似度を評価する。さらに、第11の形態の寸法計測方法は、前記コンピュータによって、前記ランド(24)のうち前記基準形状のいずれかがフィッティングするランドを前記候補領域(23)とし、かつ前記ランド(24)にフィッティングした基準形状の輪郭線を前記エッジとする。
 本発明に係る第12の形態の寸法計測方法は、第7~第11の形態のいずれか一つとの組み合わせで実現される。第12の形態の寸法計測方法は、前記コンピュータによって、前記計測装置(30)が前記座標値ごとに色情報を出力する機能を有する場合に前記座標値に加えて前記色情報を取得する。さらに、第12の形態の寸法計測方法は、前記コンピュータによって、あらかじめ定められた範囲の色情報が付随する前記座標値を前記候補領域(23)の座標値とみなす。
 本発明に係る第13の形態の寸法計測システムは、第1~第6の形態のいずれか一つの寸法計測装置(10)と、前記計測装置(30)とを備える。つまり、寸法計測システムは、計測装置(30)と、前記計測装置(30)に接続される第1~第6の形態のいずれか一つの寸法計測装置(10)と、を備える。
 本発明に係る第14の形態のプログラムは、コンピュータを、寸法計測装置(10)として機能させるプログラムである。寸法計測装置(10)は、対象物(20)の3次元計測を行う計測装置(30)から前記対象物(20)に関する3次元の座標値を取得する取得部(11)と、前記対象物(20)を構成している着目面(21)を前記座標値に基づいて定め、かつ当該着目面(21)の境界線の位置を抽出する面抽出部(12)と、前記着目面(21)に付設される特定の物体(22)に相当する候補領域(23)について、前記候補領域(23)を囲むエッジの位置を抽出する領域抽出部(13)と、前記境界線の位置と前記エッジの位置とから前記対象物(20)に関する寸法図の作成に必要な寸法データを生成する寸法生成部(14)と、を備える。
 本発明に係る第15の形態のコンピュータ読み取り可能な記憶媒体は、コンピュータを、寸法計測装置(10)として機能させるプログラムが記録されたコンピュータ読み取り可能な記憶媒体である。寸法計測装置(10)は、対象物(20)の3次元計測を行う計測装置(30)から前記対象物(20)に関する3次元の座標値を取得する取得部(11)と、前記対象物(20)を構成している着目面(21)を前記座標値に基づいて定め、かつ当該着目面(21)の境界線の位置を抽出する面抽出部(12)と、前記着目面(21)に付設される特定の物体(22)に相当する候補領域(23)について、前記候補領域(23)を囲むエッジの位置を抽出する領域抽出部(13)と、前記境界線の位置と前記エッジの位置とから前記対象物(20)に関する寸法図の作成に必要な寸法データを生成する寸法生成部(14)と、を備える。

Claims (15)

  1.  対象物の3次元計測を行う計測装置から前記対象物に関する3次元の座標値を取得する取得部と、
     前記対象物を構成している着目面を前記座標値に基づいて定め、かつ当該着目面の境界線の位置を抽出する面抽出部と、
     前記着目面に付設されている特定の物体に相当する候補領域について、前記候補領域を囲むエッジの位置を抽出する領域抽出部と、
     前記境界線の位置と前記エッジの位置とから前記対象物に関する寸法図の作成に必要な寸法データを生成する寸法生成部と、
     を備える、
     寸法計測装置。
  2.  前記物体の種類を指定する入力を入力装置から受け付ける機能を有した入力部をさらに備え、
     前記寸法生成部は、前記物体の種類に関する情報を用いて前記エッジの位置に対する前記物体の位置および寸法を補正するように構成される、
     請求項1記載の寸法計測装置。
  3.  前記入力部は、前記候補領域が存在する範囲を指定する入力を受け付ける機能を有し、
     前記領域抽出部は、前記入力部に指定された範囲から前記候補領域を抽出するように構成される、
     請求項2記載の寸法計測装置。
  4.  前記座標値の前記着目面に対する距離が基準値を超えており、かつ前記着目面に付設されている領域を、ランドとして抽出するランド抽出部をさらに備え、
     前記入力部は、前記ランドのうち前記物体に相当するランドを対話的に指定する入力を受け付ける機能を有し、
     前記領域抽出部は、前記入力部に指定された前記ランドを前記候補領域とするように構成される、
     請求項2記載の寸法計測装置。
  5.  前記座標値の前記着目面に対する距離が基準値を超えており、かつ前記着目面に付設されている領域を、ランドとして抽出するランド抽出部をさらに備え、
     前記ランド抽出部は、あらかじめ定められた複数種類の基準形状と前記ランドとの類似度を評価するように構成され、
     前記領域抽出部は、前記ランドのうち前記基準形状のいずれかがフィッティングするランドを前記候補領域とし、かつ前記ランドにフィッティングした基準形状の輪郭線を前記エッジとするように構成される、
     請求項1又は2記載の寸法計測装置。
  6.  前記取得部は、前記計測装置が前記座標値ごとに色情報を出力する機能を有する場合に前記座標値に加えて前記色情報を取得する機能を有し、
     前記領域抽出部は、あらかじめ定められた範囲の色情報が付随する前記座標値を前記候補領域の座標値とみなす機能を有する、
     請求項1~5のいずれか1項に記載の寸法計測装置。
  7.  コンピュータによって、対象物の3次元計測を行う計測装置から前記対象物に関する3次元の座標値を取得し、
     前記コンピュータによって、前記対象物を構成している着目面を前記座標値に基づいて定め、かつ当該着目面の境界線の位置を抽出し、
     前記コンピュータによって、前記着目面に付設される特定の物体に相当する候補領域について、前記候補領域を囲むエッジの位置を抽出し、
     前記コンピュータによって、前記境界線の位置と前記エッジの位置とから前記対象物に関する寸法図の作成に必要な寸法データを生成する、
     寸法計測方法。
  8.  前記コンピュータによって、前記物体の種類を指定する入力を受け付け、
     前記コンピュータによって、前記指定された物体の種類に関する情報を用いて前記エッジの位置に対する前記物体の位置および寸法を補正する、
     請求項7記載の寸法計測方法。
  9.  前記コンピュータによって、前記候補領域が存在する範囲を指定する入力を受け付け、
     前記コンピュータによって、前記指定された範囲から前記候補領域を抽出する、
     請求項8記載の寸法計測方法。
  10.  前記コンピュータによって、前記座標値の前記着目面に対する距離が基準値を超えており、かつ前記着目面に付設されている領域を、ランドとして抽出し、
     前記コンピュータによって、前記ランドのうち前記物体に相当するランドを対話的に指定する入力を受け付け、
     前記コンピュータによって、前記指定されたランドを前記候補領域とする、
     請求項8記載の寸法計測方法。
  11.  前記コンピュータによって、前記座標値の前記着目面に対する距離が基準値を超えており、かつ前記着目面に付設されている領域を、ランドとして抽出し、
     前記コンピュータによって、あらかじめ定められた複数種類の基準形状と前記ランドとの類似度を評価し、
     前記コンピュータによって、前記ランドのうち前記基準形状のいずれかがフィッティングするランドを前記候補領域とし、かつ前記ランドにフィッティングした基準形状の輪郭線を前記エッジとする、
     請求項7又は8記載の寸法計測方法。
  12.  前記コンピュータによって、前記計測装置が前記座標値ごとに色情報を出力する機能を有する場合に前記座標値に加えて前記色情報を取得し、
     前記コンピュータによって、あらかじめ定められた範囲の色情報が付随する前記座標値を前記候補領域の座標値とみなす、
     請求項7~11のいずれか1項に記載の寸法計測方法。
  13.  計測装置と、
     前記計測装置に接続される、請求項1~6のいずれか1項に記載の寸法計測装置と、
     を備える、
     寸法計測システム。
  14.  コンピュータを、寸法計測装置として機能させるプログラムであって、
     前記寸法計測装置は、
      対象物の3次元計測を行う計測装置から前記対象物に関する3次元の座標値を取得する取得部と、
      前記対象物を構成している着目面を前記座標値に基づいて定め、かつ当該着目面の境界線の位置を抽出する面抽出部と、
      前記着目面に付設される特定の物体に相当する候補領域について、前記候補領域を囲むエッジの位置を抽出する領域抽出部と、
      前記境界線の位置と前記エッジの位置とから前記対象物に関する寸法図の作成に必要な寸法データを生成する寸法生成部と、
     を備える、
     プログラム。
  15.  コンピュータを寸法計測装置として機能させるプログラムが記録されたコンピュータ読み取り可能な記録媒体であって、
     前記寸法計測装置は、
      対象物の3次元計測を行う計測装置から前記対象物に関する3次元の座標値を取得する取得部と、
      前記対象物を構成している着目面を前記座標値に基づいて定め、かつ当該着目面の境界線の位置を抽出する面抽出部と、
      前記着目面に付設される特定の物体に相当する候補領域について、前記候補領域を囲むエッジの位置を抽出する領域抽出部と、
      前記境界線の位置と前記エッジの位置とから前記対象物に関する寸法図の作成に必要な寸法データを生成する寸法生成部と、
     を備える、
     コンピュータ読み取り可能な記録媒体。
PCT/JP2014/004938 2013-10-02 2014-09-26 寸法計測装置、寸法計測方法、寸法計測システム、プログラム WO2015049853A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201480054427.8A CN105593637B (zh) 2013-10-02 2014-09-26 尺寸测量装置、尺寸测量方法、尺寸测量系统和程序
US15/025,736 US10060734B2 (en) 2013-10-02 2014-09-26 Dimension measurement device, dimension measurement method, dimension measurement system, and program
EP14850643.9A EP3054263B1 (en) 2013-10-02 2014-09-26 Dimension measurement device and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-207635 2013-10-02
JP2013207635A JP5799273B2 (ja) 2013-10-02 2013-10-02 寸法計測装置、寸法計測方法、寸法計測システム、プログラム

Publications (1)

Publication Number Publication Date
WO2015049853A1 true WO2015049853A1 (ja) 2015-04-09

Family

ID=52778458

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/004938 WO2015049853A1 (ja) 2013-10-02 2014-09-26 寸法計測装置、寸法計測方法、寸法計測システム、プログラム

Country Status (5)

Country Link
US (1) US10060734B2 (ja)
EP (1) EP3054263B1 (ja)
JP (1) JP5799273B2 (ja)
CN (1) CN105593637B (ja)
WO (1) WO2015049853A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9761015B2 (en) * 2015-04-28 2017-09-12 Mitsubishi Electric Research Laboratories, Inc. Method for determining dimensions in an indoor scene from a single depth image
WO2017182952A1 (en) * 2016-04-18 2017-10-26 King Abdullah University Of Science And Technology System and method for free-boundary surface extraction
JP6771994B2 (ja) * 2016-08-17 2020-10-21 株式会社トプコン 測定方法及びレーザスキャナ
JP6602323B2 (ja) * 2017-01-13 2019-11-06 株式会社オプトエレクトロニクス 寸法測定装置、情報読取装置及び寸法測定方法
JP6918651B2 (ja) * 2017-09-05 2021-08-11 東芝テック株式会社 荷物管理システム
JP7138525B2 (ja) * 2018-09-25 2022-09-16 株式会社トプコン 測量装置及び測量装置システム
JP7361251B2 (ja) * 2018-09-28 2023-10-16 パナソニックIpマネジメント株式会社 採寸装置及び採寸方法
JP7187234B2 (ja) * 2018-09-28 2022-12-12 エーティーラボ株式会社 三次元形状作成装置、三次元形状作成方法および三次元形状作成プログラム
CN110470216B (zh) * 2019-07-10 2022-01-28 湖南交工智能技术有限公司 一种三镜头高精度视觉测量方法及装置
CN112082522A (zh) * 2020-09-01 2020-12-15 广船国际有限公司 一种沉管隧道钢壳外形尺寸测量方法
CN113217106B (zh) * 2021-05-28 2024-01-12 成都建工集团有限公司 一种斜切式隧道洞门的三维建模方法
CN114295081B (zh) * 2021-12-30 2024-04-02 上海精测半导体技术有限公司 关于线的关键尺寸的测量方法及带电粒子束设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203157A (ja) * 1992-10-14 1994-07-22 Fujitsu Ltd カラー画像処理方法および装置
JP2001282870A (ja) * 2000-03-30 2001-10-12 Hitachi Plant Eng & Constr Co Ltd 施工図作成支援方法
JP2004012221A (ja) * 2002-06-05 2004-01-15 Hitachi Eng Co Ltd 遺構遺物等の実測二次元図作成方法およびシステム
JP2008071076A (ja) * 2006-09-13 2008-03-27 Oki Electric Ind Co Ltd 画像抽出装置
JP2012037257A (ja) * 2010-08-04 2012-02-23 Keyence Corp 測定設定データ作成装置、測定設定データ作成方法及び測定設定データ作成装置用のプログラム
JP2012230594A (ja) 2011-04-27 2012-11-22 Topcon Corp 三次元点群位置データ処理装置、三次元点群位置データ処理方法、三次元点群位置データ処理システムおよびプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3081788B2 (ja) * 1995-04-25 2000-08-28 松下電器産業株式会社 局地的位置把握装置
JP3189870B2 (ja) * 1996-12-24 2001-07-16 シャープ株式会社 画像処理装置
US5974175A (en) * 1997-01-22 1999-10-26 Fujitsu Limited Image processing apparatus and method for detecting a contour of an object from images of a motion picture and extracting the object therefrom
JP2000076454A (ja) 1998-08-31 2000-03-14 Minolta Co Ltd 3次元形状データ処理装置
US6674905B1 (en) * 1999-01-22 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
JP4409035B2 (ja) 2000-03-22 2010-02-03 本田技研工業株式会社 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体
JP4482778B2 (ja) * 2000-09-11 2010-06-16 ソニー株式会社 画像処理装置および画像処理方法、並びに記録媒体
JP2002092646A (ja) * 2000-09-14 2002-03-29 Minolta Co Ltd 3次元形状データから面を抽出する方法および装置並びに記録媒体
WO2002035909A2 (en) * 2000-11-03 2002-05-10 Siemens Corporate Research, Inc. Video-supported planning and design with physical marker objects sign
US6734853B2 (en) * 2001-08-28 2004-05-11 Intel Corporation Method of using view frustrum culling for scaleable collision detection
JP2003141567A (ja) * 2001-11-07 2003-05-16 Japan Science & Technology Corp 3次元都市モデル生成装置及び3次元都市モデル生成方法
JP2003194530A (ja) 2001-12-28 2003-07-09 Mitsubishi Heavy Ind Ltd 既設配管の計測方法及び装置
WO2003088085A1 (en) * 2002-04-04 2003-10-23 Arizona Board Of Regents Three-dimensional digital library system
US7646896B2 (en) * 2005-08-02 2010-01-12 A4Vision Apparatus and method for performing enrollment of user biometric information
JP4809746B2 (ja) 2006-09-20 2011-11-09 株式会社中電工 画像処理装置および画像処理プログラム
JP4712659B2 (ja) * 2006-09-22 2011-06-29 富士フイルム株式会社 画像評価装置およびそのプログラム
JP4905285B2 (ja) * 2007-08-01 2012-03-28 トヨタ自動車株式会社 工具参照面を作成する装置と方法とプログラム
JP5335280B2 (ja) * 2008-05-13 2013-11-06 キヤノン株式会社 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体
US8265425B2 (en) * 2008-05-20 2012-09-11 Honda Motor Co., Ltd. Rectangular table detection using hybrid RGB and depth camera sensors
JP5602392B2 (ja) * 2009-06-25 2014-10-08 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP2011216080A (ja) * 2010-03-18 2011-10-27 Canon Inc 画像処理装置、画像処理方法、および記憶媒体
JP5018980B2 (ja) * 2010-04-08 2012-09-05 カシオ計算機株式会社 撮像装置、長さ測定方法、及びプログラム
EP2602761A4 (en) * 2010-08-03 2017-11-01 Panasonic Intellectual Property Management Co., Ltd. Object detection device, object detection method, and program
JP2014115109A (ja) * 2012-12-06 2014-06-26 Canon Inc 距離計測装置及び方法
JP6260353B2 (ja) * 2013-04-23 2018-01-17 株式会社リコー 情報処理装置、情報処理方法及び制御プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06203157A (ja) * 1992-10-14 1994-07-22 Fujitsu Ltd カラー画像処理方法および装置
JP2001282870A (ja) * 2000-03-30 2001-10-12 Hitachi Plant Eng & Constr Co Ltd 施工図作成支援方法
JP2004012221A (ja) * 2002-06-05 2004-01-15 Hitachi Eng Co Ltd 遺構遺物等の実測二次元図作成方法およびシステム
JP2008071076A (ja) * 2006-09-13 2008-03-27 Oki Electric Ind Co Ltd 画像抽出装置
JP2012037257A (ja) * 2010-08-04 2012-02-23 Keyence Corp 測定設定データ作成装置、測定設定データ作成方法及び測定設定データ作成装置用のプログラム
JP2012230594A (ja) 2011-04-27 2012-11-22 Topcon Corp 三次元点群位置データ処理装置、三次元点群位置データ処理方法、三次元点群位置データ処理システムおよびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3054263A4

Also Published As

Publication number Publication date
CN105593637A (zh) 2016-05-18
EP3054263A1 (en) 2016-08-10
JP5799273B2 (ja) 2015-10-21
JP2015072176A (ja) 2015-04-16
US20160245644A1 (en) 2016-08-25
EP3054263A4 (en) 2016-11-02
CN105593637B (zh) 2018-06-12
EP3054263B1 (en) 2017-08-02
US10060734B2 (en) 2018-08-28

Similar Documents

Publication Publication Date Title
JP5799273B2 (ja) 寸法計測装置、寸法計測方法、寸法計測システム、プログラム
US9984177B2 (en) Modeling device, three-dimensional model generation device, modeling method, program and layout simulator
JP5343042B2 (ja) 点群データ処理装置および点群データ処理プログラム
US9207069B2 (en) Device for generating a three-dimensional model based on point cloud data
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
CN108474653B (zh) 三维计测装置及其计测辅助处理方法
US9182220B2 (en) Image photographing device and method for three-dimensional measurement
TWI696906B (zh) 處理地板之方法
CN107025663A (zh) 视觉系统中用于3d点云匹配的杂波评分系统及方法
CN109840950B (zh) 得到真实尺寸3d模型的方法、勘测装置
WO2016084389A1 (ja) モデリング装置、3次元モデル生成装置、モデリング方法、プログラム
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
JP2017182695A (ja) 情報処理プログラム、情報処理方法および情報処理装置
JP2012063866A (ja) 点群位置データ処理装置、点群位置データ処理方法、点群位置データ処理システム、および点群位置データ処理プログラム
US10354447B2 (en) Image processing device, image processing method, and image processing program
JP2016217941A (ja) 3次元データ評価装置、3次元データ測定システム、および3次元計測方法
JP6132246B2 (ja) 寸法計測方法
JP2010249709A (ja) 断面計測装置、断面計測方法および断面計測プログラム
JP2007212187A (ja) ステレオ写真計測装置、ステレオ写真計測方法、及びステレオ写真計測プログラム
JP2015206654A (ja) 情報処理装置、情報処理方法、プログラム
JP4409924B2 (ja) 三次元画像表示装置及び方法
JP4427305B2 (ja) 三次元画像表示装置及び方法
JP2004252815A (ja) 画像表示装置、画像表示方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14850643

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2014850643

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014850643

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15025736

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE