WO2017098966A1 - 点群データ取得システム及びその方法 - Google Patents

点群データ取得システム及びその方法 Download PDF

Info

Publication number
WO2017098966A1
WO2017098966A1 PCT/JP2016/085397 JP2016085397W WO2017098966A1 WO 2017098966 A1 WO2017098966 A1 WO 2017098966A1 JP 2016085397 W JP2016085397 W JP 2016085397W WO 2017098966 A1 WO2017098966 A1 WO 2017098966A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
coordinate system
unit
point cloud
cloud data
Prior art date
Application number
PCT/JP2016/085397
Other languages
English (en)
French (fr)
Inventor
卓弥 澤口
秀樹 岩澤
Original Assignee
株式会社Hielero
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Hielero filed Critical 株式会社Hielero
Publication of WO2017098966A1 publication Critical patent/WO2017098966A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/14Determining absolute distances from a plurality of spaced points of known location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Definitions

  • the present invention relates to a system and method for acquiring point cloud data representing the outline of an object by non-contact measurement from a plurality of measurement positions.
  • 3D measurement device such as a laser scanner
  • measure the point cloud data representing the outline including the position and shape of the surface of the measurement object and create a panoramic image of the measurement object from this point cloud data
  • Data processing devices are known.
  • This 3D data processing device facilitates the display of point cloud data by creating a panoramic image of a virtual spherical surface with the measurement position of the 3D measurement device as the origin, for example, based on the point cloud data.
  • Is known to improve see, for example, Patent Document 1).
  • point cloud data that represents the contour of a non-planar measurement object having irregularities on an existing building (for example, a plant such as a nuclear power plant or a cultural property) It is known to measure point cloud data representing the contour of the measurement object from a plurality of viewpoints by varying the measurement position.
  • the position information of each point cloud data measured from a plurality of different measurement positions is represented by a coordinate system (hereinafter also referred to as “inherent coordinate system”) based on the position and orientation of each measurement position at which the point cloud data is measured. .
  • the position information represented by each unique coordinate system of each point cloud data measured from these different measurement positions is converted into the position information represented by the same coordinate system (hereinafter also referred to as “reference coordinate system”). Need to be converted.
  • reference coordinate system By converting the coordinate system, it is known that the position information of all point cloud data is represented by the reference coordinate system, and each point cloud data represented by the same coordinate system is partially matched and combined. Yes. By doing so, the blind spot is reduced, and three-dimensional data for grasping the contour of the measurement object is obtained (see, for example, Patent Document 2).
  • the term “matching” refers to the integration of the plurality of point cloud data obtained from different measurement positions by aligning the partially overlapping portions while maintaining the consistency.
  • the position and orientation of each three-dimensional measurement device when measuring point cloud data representing the outline of the measurement object from a plurality of measurement positions, the position and orientation of each three-dimensional measurement device must be set in advance. For this reason, for example, when a three-dimensional measurement device such as a laser scanner is changed from a preset measurement position to another measurement position and installed, the position, orientation, etc. It is necessary to measure accurately. Changing the position of the three-dimensional measuring device takes time and is not easy. Further, for example, if the measurement object is a non-stationary object whose outline changes dynamically with the passage of time such as, for example, the movement of a person or the movement of an object, a single measurement device can be used. It is impossible to capture from various directions.
  • the present invention relates to a system or method for acquiring point cloud data representing an outline of a measurement object from a plurality of measurement positions, when the three-dimensional measurement apparatus is moved to measure the measurement object.
  • the present invention includes a first electronic device group including a first electronic device and one or more movable second electronic devices, and has depth information for each point on the surface of the subject in units of pixels.
  • a point cloud data acquisition system for acquiring point cloud data wherein each of the second electronic devices has a second coordinate system (for example, “second coordinate system” described later),
  • the first electronic device 10 is installed with a program for causing the first electronic device 10 to function as the first functional unit such as the first communication unit 11 and the position information measuring unit 12 described above. It can be made to function as each functional unit such as the position information measuring unit 12.
  • the program may be installed in the first electronic device 10 in advance.
  • the program may be installed from a computer-readable recording medium as necessary or downloaded from a server set in advance as needed.
  • the “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system.
  • the measurement object is not only a non-planar shape measurement object having unevenness of an existing building (for example, a plant such as a nuclear power plant or a cultural property), but also a moving human, a moving animal, a moving An object such as an object whose shape changes over time can be included.
  • the three-dimensional measuring unit 22 included in the second electronic device 20 can be configured by combining a depth sensor with, for example, a normal image camera.
  • the three-dimensional measurement unit 22 configured by combining a depth sensor with a normal image camera is also referred to as a “depth camera” below.
  • a vector having a vertex C ′ 0 as a starting point and a vertex C ′ 1 as an end point (hereinafter referred to as “vector C ′ 0 C ′ 1 ”), and a vector having a vertex C ′ 0 as a starting point and a vertex C ′ 2 as an end point (
  • the end point when the outer product with “vector C ′ 0 C ′ 2 ” is expressed with the vertex C ′ 0 as the start point is C ′ 3 .
  • a marker coordinate system is defined in which C ′ 0 is the origin, vector C ′ 0 C ′ 1 is the X axis, vector C ′ 0 C ′ 2 is the Y axis, and vector C ′ 0 C ′ 3 is the Z axis.
  • the coordinate values in the marker coordinate system of the points C ′ 0 , C ′ 1 , C ′ 2 , and C ′ 3 are as follows.
  • C ′ 0 (0, 0, 0)
  • C ′ 1 (4i, 0, 0)
  • C ′ 2 (0, 3i, 0)
  • C ′ 3 (0, 0, 12i 2 )
  • First communication unit 11 A communication module using a wired or wireless line. It faces the second communication unit 21 of the second electronic device 20 and exchanges control signals and various data between the first electronic device 10 and the second electronic device 20.
  • the position information measuring unit 12 when there is only one position information measuring unit 12, when any object is interposed between the position information measuring unit 12 and the marker 23 of the second electronic device 20n, the position information measuring unit 12 is connected to the second electronic device. There is a possibility that the coordinate value of the 20n marker 23 cannot be measured.
  • the system may be configured to include a plurality of first electronic devices 10 including the position information measurement unit 12. Further, the first electronic device 10 may be configured to include a plurality of position information measurement units 12.
  • the position information measuring unit 12 of the index (identification number) i is This is referred to as the information measuring unit 12 (i).
  • a unique coordinate system (first measurement coordinate system) included in the position information measurement unit 12 (i) is referred to as a first measurement coordinate system (i).
  • the number M of the position information measuring units 12 is assumed to be 1 or more (1 ⁇ M) and includes one case.
  • the coordinate system calculation unit 30 includes a marker position information calculation unit 31 and a calibration processing unit 32.
  • the coordinate system calculation unit 30 can include a time synchronization unit 33.
  • the marker position information calculation unit 31 detects the marker 23 provided in the second electronic device 20 based on the measurement information measured by the position information measurement unit 12, and the constituent elements of the detected marker 23 (vertex of the marker 23, etc.) The coordinate value (marker position information) in the first measurement coordinate system is calculated.
  • i (1 ⁇ i ⁇ M) is the identification number of the position information measurement unit 12
  • n (1 ⁇ n ⁇ N) is the identification number of the second electronic device 20 (three-dimensional measurement unit 22)
  • t is the measurement time.
  • L represents the marker position information of the second electronic device 20
  • the marker position information of the second electronic device 20 n measured by the position information measurement unit 12 (i) at time t is expressed as i L n (t). be able to. Therefore, i L n (t) is at time t, according to the first measurement coordinate system (i), means marker position information of the second electronic device 20n.
  • the time synchronization unit 33 synchronizes the internal time of the first electronic device 10 with the reference time using, for example, a protocol defined in IEEE 1588.
  • the coordinate system calculation unit 30 can synchronize the internal time of the coordinate system calculation unit 30 with the reference time using, for example, a protocol defined in IEEE 1588.
  • the reference coordinate system marker 10A can be a structure having a triangular shape having three sides, each of which has a sphere with the same radius, for example, similarly to the marker 23 provided in the second electronic device 20.
  • the radius of the sphere, the color of the surface of the sphere, and the length of the sides of the triangle can be set as appropriate.
  • the reference coordinate system marker 10A is assumed to be a right triangle whose lengths of three sides are 3jcm, 4jcm, and 5jcm (j is an arbitrary integer of 1 or more), respectively.
  • the calibration can be similarly performed when the triangle has an arbitrary shape.
  • the marker position information calculating unit 31 detects the reference coordinate system marker 10A based on the measurement information measured by the position information measuring unit 12 (i), The coordinate values in the first measurement coordinate system (i) of the detected constituent elements of the reference coordinate system marker 10A (vertices W 0 , W 1 , W 2 of the reference coordinate system marker 10A) are calculated.
  • the coordinate value of W 3 is W 0 , W 1 , W 2 as follows: It can be expressed by coordinate values.
  • the marker position information calculation unit 31 extracts a portion having a color of RED within the measurement target range measured by the position information measurement unit 12 (i), and extracts the depth image data of the extracted portion of RED, that is, the extracted portion.
  • (R) which is RGB color information of each point on the partial surface of RED, and three-dimensional coordinates (x, y, z) in the first measurement coordinate system (i) representing the position of each point (pixel unit); Is obtained as measurement image data and stored in a storage unit (not shown).
  • the marker position information calculation unit 31 calculates the coordinate value in the first measurement coordinate system (i) of each vertex of the reference coordinate system marker 10A. Thereafter, the marker position information calculation unit 31 calculates the side length of each triangle based on the coordinate value in the first measurement coordinate system (i) of each vertex of the calculated reference coordinate system marker 10A, and calculates the calculated side It is possible to determine which of the vertices W 0 , W 1 , and W 2 of the reference coordinate system marker 10A corresponds to each of the vertices.
  • the marker position information calculation unit 31 can calculate the coordinate values in the first measurement coordinate system (i) representing the positions of the vertices W 0 , W 1 and W 2 of the reference coordinate system marker 10A.
  • the marker position information calculation unit 31 extracts the portion of the color A within the measurement target range, the RGB color information of each point on the extracted surface of the color A, and each point (pixel unit) A set of point data consisting of the three-dimensional coordinates (x, y, z) representing the position of the image may be extracted as measurement image data.
  • the marker position information calculation unit 31 generates an edge image, extracts a circle from the generated edge image by Hough transform, and calculates the radius of the circle, thereby calculating the center of the sphere with the radius A and the color A. It can be configured as desired.
  • the detection method of the reference coordinate system marker 10A by the marker position information calculation unit 31 has been described above.
  • the detection method of the reference coordinate system marker 10A is also applied to detection of a marker 23 (n) provided in the second electronic device 20n described later.
  • the length of the sides of the triangle constituting the marker 23 (n) is different for each second electronic device 20n, so that a plurality of second electronic devices 20n are included in the measurement target range of the position information measuring unit 12.
  • a plurality of measurement object ranges in the position information measurement unit 12 (i) are set.
  • the second electronic device 20n having the marker 23 (n) can be identified by the radius of the sphere.
  • the second electronic device 20n having the marker 23 (n) can be identified by the color of the sphere.
  • the marker position information calculation unit 31 included in the coordinate system calculation unit 30 is based on the measurement information measured by the position information measurement unit 12 (i), and the marker 23 (n ),
  • the coordinate value (marker position information) in the first measurement coordinate system (i) of the detected component 23 (n) (such as the vertex of the marker 23) is calculated, and based on the marker position information,
  • a coordinate transformation matrix for transforming coordinate values in the second coordinate system (n) included in the second electronic device 20n into coordinate values in the reference coordinate system is calculated.
  • n T M a marker coordinate transformation matrix
  • the marker coordinate transformation matrix n T M can be calculated by performing calibration in a state where the second electronic device 20n is placed in a fixed position in advance.
  • calibration using the marker 23 (n) will be described.
  • FIG. 3 shows a reference coordinate conversion matrix i T W for converting a coordinate value in the first measurement coordinate system (i) to a coordinate value in the reference coordinate system, in the second coordinate system (n) included in the three-dimensional measurement unit 22n.
  • a coordinate transformation matrix (hereinafter referred to as “ n T W ”) for transforming coordinate values into coordinate values in the reference coordinate system, and transforming coordinate values in the second coordinate system (n) into coordinate values in the marker coordinate system (n)
  • Marker coordinate transformation matrix n T M Marker coordinate transformation matrix n T M to perform, a first measurement coordinate transformation matrix (hereinafter referred to as “ Mn T i ”) for transforming coordinate values in the marker coordinate system (n) to coordinate values in the first measurement coordinate system (i).
  • Mn T i first measurement coordinate transformation matrix
  • the marker position information calculation unit 31 detects the reference coordinate system marker 10A based on the measurement information measured by the three-dimensional measurement unit 22n of the second electronic device 20n, and the vertexes W 0 , W 1 , W 2 thereof. A coordinate value in the second coordinate system (n) representing the position of is calculated. In doing so, the calibration processing unit 32 calculates the coordinate transformation matrix n T W for converting coordinates in the second coordinate system included in the three-dimensional measurement unit 22n (n) into coordinate values in the reference coordinate system be able to.
  • the marker coordinate system (n) by the marker 23 (n) means a coordinate system in which the vertices of the triangle in the marker 23 (n) are the origin, the point on the X axis, and the point on the Y axis, respectively. To do.
  • the triangle in the marker 23 (n) is a right triangle whose ratio of three sides is 3: 4: 5.
  • the coordinate values in the marker coordinate system (n) of the points C ′ 0 , C ′ 1 , C ′ 2 , C ′ 3 are as follows.
  • C ′ 0 (0, 0, 0)
  • C ′ 1 (4i, 0, 0)
  • C ′ 2 (0, 3i, 0)
  • C ′ 3 (0, 0, 12i 2 )
  • the marker position information calculation unit 31 detects the marker 23 (n) based on the measurement information obtained by the position information measurement unit 12 (i), and the component (marker 23) of the detected marker 23 (n).
  • the coordinate values in the first measurement coordinate system (i) of the vertices C ′ 0 , C ′ 1 , C ′ 2 ) of (n) are calculated.
  • the coordinate value of the C ′ 3 is expressed as C ′ It can be expressed by the coordinate values of 0 , C ′ 1 and C ′ 2 .
  • the calibration processing unit 32 calculates Formula 5 based on the coordinate values in the first measurement coordinate system (i) representing the positions of the vertices C ′ 0 , C ′ 1 , and C ′ 2 of the marker 23 (n). Accordingly, it is possible to calculate the first measurement coordinate transformation matrix Mn T i to transform the marker coordinate system (n) first measurement coordinate system (i).
  • the above formula is an example when the triangle in the marker 23 (n) is a right triangle having a ratio of three sides of 3: 4: 5, and when the marker 23 (n) is an arbitrary triangle, The coordinate values in the marker coordinate system (n) of each point C ′ 0 , C ′ 1 , C ′ 2 , C ′ 3 are calculated based on the triangle.
  • the unit matrix E is used to convert the coordinate values in the first measurement coordinate system into the coordinate values in the first measurement coordinate system.
  • the calibration processing unit 32 uses the expression 7 to calculate the coordinate values in the second coordinate system (n) included in the three-dimensional measurement unit 22n of the second electronic device 20n and the markers 23 (n) included in the second electronic device 20n. It is possible to calculate a marker coordinate conversion matrix n T M for converting into coordinate values in the marker coordinate system (n).
  • n T M Mn T i ⁇ 1 ⁇ i T W ⁇ 1 ⁇ n T W (Formula 7)
  • the calibration processing unit 32 converts the coordinate value in the first measurement coordinate system (i) in the position information measurement unit 12 (i) to the coordinate value in the reference coordinate system, i T W , And marker coordinate conversion for converting the coordinate value in the second coordinate system (n) included in the three-dimensional measuring unit 22n of the second electronic device 20n into the coordinate value in the marker coordinate system (n) included in the second electronic device 20n.
  • a matrix n T M is calculated.
  • the reference coordinate transformation matrix i T W and the marker coordinate transformation matrix n T M are fixed transformation matrices, respectively.
  • each position information measurement unit 12 (i) (1 ⁇ i ⁇ M) and each second electronic device 20n (1 ⁇ n ⁇ N) are calibrated, and the first measurement coordinate system (i)
  • the first electronic device 10 (calibration processing unit 32) may be stored in the storage unit of the three-dimensional data processing unit 40, for example. Thereafter, the reference coordinate system marker 10A can be removed from the real space.
  • the reference coordinate transformation matrix i T W for converting the coordinate values in the reference coordinate system coordinate values of the position information measurement unit 12 (i) (1 ⁇ i ⁇ M) of comprising first measurement coordinate system (i) Then, for example, when the reference coordinate system marker 10A is appropriately placed on the real space, each vertex W 0 , W 1 , W 2 of the reference coordinate system marker 10A, the vector W 0 W 1 and the vector W 0 W 2 The first measurement coordinate system (i) of the position information measurement unit 12 (i) (1 ⁇ i ⁇ M) of each point W 0 , W 1 , W 2 , W 3 when the outer product vector of W 0 is W 3.
  • the coordinate value in the first measurement coordinate system (i) in which i is 2 or more is used as a reference.
  • the value of W (W 3 (i)) ⁇ (i ⁇ 2) is a coordinate value ⁇ 1 obtained by converting the coordinate value in the first first measurement coordinate system (1) into the reference coordinate system.
  • T W (W 0 (i)), 1 T W (W 1 (i)), 1 T W (W 2 (i)), 1 T W (W 3 (i)) ⁇ 1 measurement coordinate system (i) (i ⁇ 2) reference coordinate conversion matrix for converting the coordinate values to coordinate values in the reference coordinate system at i T W (i 2) may be corrected.
  • the coordinate values ⁇ i T W (W 0 (i)) obtained by converting the coordinate values in the corrected first measurement coordinate system (i) (i ⁇ 2) into the reference coordinate system.
  • I TW (W 1 (i)), i TW (W 2 (i)), i TW (W 3 (i)) ⁇ (i ⁇ 2) is the first first measurement
  • the first functional unit included in the first electronic device 10 the second functional unit included in the second electronic device 20, and the coordinate system calculation functional unit included in the coordinate system calculation unit 30 have been described above.
  • the position information measuring unit 12 (i) and the coordinate system calculating unit 30 of the first electronic device 10 accurately calculate the marker position information (n) of the marker 23 (n) included in the second electronic device 10n. be able to. By doing so, the line-of-sight direction and the rotation angle around the line-of-sight of the three-dimensional measuring unit 22n are determined. Position information can be obtained. Next, the three-dimensional data processing unit 40 will be described.
  • the three-dimensional data processing unit 40 includes a point group data coordinate value conversion unit 41 and a synthesized point group data creation unit 42.
  • the composite point cloud data creation unit 42 further includes a first composite point cloud data creation unit 421 and a point cloud data matching unit 422.
  • the point cloud data coordinate value conversion unit 41 sets the point cloud data ⁇ Qn (t) ⁇ (1 ⁇ n ⁇ N) (t: time stamp) is converted into a coordinate transformation matrix ⁇ Fn (t) ⁇ (1 ⁇ i ⁇ M) (1 ⁇ n ⁇ N) for converting coordinates into the same coordinate system (reference coordinate system) ) (T: time stamp) is calculated, and coordinate conversion from the coordinate value in the second coordinate system representing each point of each point group data Qn (t) to the coordinate value in the reference coordinate system is performed.
  • the marker position information i L n (t) of the second electronic device 20n measured by the position information measurement unit 12 (i) at the time t is detected by the point cloud data coordinate value conversion unit 41 (where i is the position Based on the identification number (1 ⁇ i ⁇ M) of the information measuring unit 12, n is the identification number of the second electronic device 20, and t is a time stamp), the second point indicating each point of each point group data Qn (t). Processing for calculating a transformation matrix Fn (t) for transforming coordinate values in the coordinate system to coordinate values in the reference coordinate system will be described.
  • the reference for converting the coordinate value in the first measurement coordinate system (i) (1 ⁇ i ⁇ M) included in the position information measurement unit 12 (i) into the coordinate value in the reference coordinate system by calibration A coordinate transformation matrix i TW is stored in the storage unit of the three-dimensional data processing unit 40.
  • the marker 23 (n) provided in the second electronic device 20n uses the coordinate values in the second coordinate system (n) provided in the three-dimensional measuring unit 22n of the second electronic device 20n (1 ⁇ n ⁇ N). Is stored in the storage unit of the three-dimensional data processing unit 40.
  • the marker coordinate conversion matrix n T M for converting into coordinate values in the marker coordinate system (n) is stored.
  • the point cloud data coordinate value conversion unit 41 uses a set of marker position information ⁇ i L n (t) ⁇ (1 ⁇ n ⁇ N, 1 ⁇ i ⁇ M, t: time stamp) and a three-dimensional measurement unit 22n.
  • the measurement position of the point cloud data can be specified by matching the time stamp of the set ⁇ Qn (t) ⁇ (1 ⁇ n ⁇ N) (t: time stamp) of the measured point cloud data.
  • the point cloud data Qn (t) Linear interpolation can be performed using the marker position information of the marker 23 (n) at a time in the vicinity of the measurement time when.
  • the point group data coordinate value conversion unit 41 may associate each point group data Qn (t) with the marker position information i L n (t) based on the time t and the identification number n of the second electronic device 20. it can.
  • the point cloud data coordinate value conversion unit 41 associates i L n (t) with Qn (t).
  • the position information measuring unit 12 (i) and the position information measuring unit 12 (j) (i ⁇ j) are respectively calculated for Qn (t).
  • the position information i L n (t) and j L n (t) (i ⁇ j) may be associated with each other. Therefore, the point cloud data coordinate value conversion unit 41 selects one marker component position information i L n (t) satisfying a predetermined condition from a plurality of marker position information for Qn (t).
  • (i) that maximizes the number of sets ⁇ i L n (t) ⁇ may be selected for (i, t).
  • the position information measuring unit 12 (i) selects i that maximizes the number of second electronic devices 20 that have acquired the marker position information (n). By doing so, it is possible to increase the efficiency of coordinate value conversion described later.
  • the point cloud data coordinate value conversion unit 41 converts the coordinate value in the marker coordinate system (n) to the coordinate value in the first measurement coordinate system (i) based on the marker position information i L n (t).
  • a first measurement coordinate conversion matrix Mn T i (t) for conversion can be calculated (see Equation 5).
  • the marker coordinate conversion matrix n T M for converting the coordinate values in the second coordinate system (n) calculated in advance into the coordinate values in the marker coordinate system (n), the first measurement coordinate system (i) Assuming that the reference coordinate conversion matrix for converting the coordinate value in to the coordinate value in the reference coordinate system is i T W , the point cloud data coordinate value conversion unit 41 at the time stamp t, the point Qn (t) of the point cloud data
  • a marker coordinate transformation matrix n T M a first measurement coordinate transformation matrix Mn T i (t)
  • the coordinates of the reference coordinate system (x g, y g, z g) is calculated (see equation 8).
  • the point group data coordinate value conversion unit 41 can convert the coordinate value in the second coordinate system indicating each point of the point group data Qn (t) into the coordinate value in the reference coordinate system in real time.
  • the marker position information calculation unit 31 calculates the marker position information i L n (t) in real time, and performs a three-dimensional data processing unit 40 (point cloud data coordinate value conversion) via the network for each second electronic device 20n. It can be configured to be delivered to the unit 41) via an interface such as communication.
  • the marker position information calculation unit 31 calculates the marker position information i L n (t) in real time, and the second electronic device position of the three-dimensional data storage unit 60 via the network for each second electronic device 20n.
  • the information may be stored in the information storage unit 62 in real time and delivered to the three-dimensional data processing unit 40 (point cloud data coordinate value conversion unit 41) via the second electronic device position information storage unit 62.
  • the point cloud data acquisition system 100 of the present invention converts each point of the point cloud data Qn (t) into point cloud data ⁇ Q′n (t) ⁇ that is composed of coordinate values in the reference coordinate system. Can be converted in real time.
  • the composite point cloud data creation unit 42 includes a first composite point cloud data creation unit 421 and a point cloud data matching unit 422.
  • the first composite point group data creation unit 421 uses the point group data coordinate value conversion unit 41 to calculate the coordinate values in the second coordinate system of each point group data Qn (t) at time t in the reference coordinate system.
  • the points with the same coordinate value in the reference coordinate system between the point group data ⁇ Q′n (t) ⁇ (1 ⁇ n ⁇ N) converted into the coordinate values of Point cloud data Q ′ (t) can be created.
  • the position of the overlapping portion based on the characteristic parameter for example, curvature of the curved surface (Gaussian curvature)
  • the characteristic parameter for example, curvature of the curved surface (Gaussian curvature)
  • the characteristic parameter for example, curvature of the curved surface (Gaussian curvature)
  • the point cloud data Qn (t i ) and Qn (t i + 1 ) measured by the same three-dimensional measuring unit 22n may also be misaligned at adjacent measurement times (for example, t i , t i + 1 ). If necessary, the positional deviation can be corrected by aligning (matching) the overlapping portions. In addition, about correction
  • an ICP method For positioning (matching) of the point cloud data, for example, a well-known technique called an ICP method can be used.
  • ICP method alignment is performed by minimizing (converging) the square sum of the distances between nearest vertices for each point group data to be aligned.
  • the ICP method is a brute force method, an enormous amount of time is required when the amount of data increases.
  • color information As a determination index for alignment.
  • the point cloud data Qn (t) and Qm (t) (n ⁇ n) measured from different positions. Matching using m) as a determination index is unstable.
  • the point cloud data matching unit 422 first matches a plurality of point cloud data with coordinate values in the reference coordinate system, and obtains a product set thereof, thereby limiting the range of the point cloud data to be matched. To do. As a result, the amount of calculation required for the matching process can be greatly reduced, which can contribute to an improvement in the speed of the entire system. If the product set is an empty set, the matching process need not be performed in the first place.
  • the point cloud data matching unit 422 performs a point overlap of the point cloud data A and the point cloud data B on each point on the “surface with a certain extent” on the “both curved surfaces”. Curvatures are obtained and compared, and for example, an optimal conversion that minimizes the sum of the differences in curvatures is obtained while repeating a series of processes.
  • the point cloud data matching unit 422 can calculate the curvature as follows, for example. First, the point (x 0 , y 0 , z 0 ) of one point group data Qn (t) for obtaining the curvature of the curved surface is set as the origin, and is parallel to the planes X and Y of the reference coordinate system including the point, for example. , A local coordinate system (x ′, y ′, z ′) including the plane X′Y ′ is set. Next, determine the local coordinates of the "curved" in the neighborhood points of the point (x 0, y 0, z 0).
  • the local coordinate value of the “curved surface” can be calculated from the point (x, y, z) of the point group data in the vicinity of the point (x 0 , y 0 , z 0 ). By doing so, the relationship between the z value on the “curved surface” and (x, y) can be obtained.
  • the neighboring point represents the adjacent value of x 0 as , for example, x ⁇ 2 , x ⁇ 1 , x 0 , x +1 , x +2, etc., (X +1, y 0), (x +2, y 0), ⁇ (X ⁇ 1 , y 0 ), (x ⁇ 2 , y 0 ),... (X 0 , y +1 ), (x 0 , y +2 ), ... (X 0 , y ⁇ 1 ), (x 0 , y ⁇ 2 ),... And so on.
  • a quadratic curved surface patch p (u, v) (u, v, au 2 + bv 2 + cuv + du + ev + f) is locally applied to the measurement object surface by the least square method, and from the partial derivative of the two-dimensional curved surface patch, Calculate the curvature of a curved surface.
  • the accuracy of curvature calculation is improved by iterative calculation.
  • the method using this curvature is accurate, but requires a large amount of calculation. Or, depending on the location of the object (such as an edge portion), it may not be applied well. In that case, the conventional ICP method, a method using color information, and the like can be combined.
  • the two depth images are A and B, and the point cloud data in the reference coordinate system is A w and B w , respectively.
  • the point cloud data matching unit 422 generates an edge image in each of the depth image A and the depth image B, extracts a straight line from each of the generated edge images using the Hough transform, and extracts the straight line extracted from each of the first and second images. Convert to a straight line (3D) on a 2 coordinate system.
  • the point cloud data matching unit 422 converts straight lines extracted from the depth image A and the depth image B into straight lines on the reference coordinate system. Next, each straight line (three-dimensional straight line) on the reference coordinate system extracted from the depth image A and the depth image B is expressed as a four-dimensional point.
  • examples of transformation that represents a three-dimensional straight line L as a four-dimensional point include the following, but are not limited to this example.
  • the intersection point Q of the straight line drawn perpendicularly on the XZ plane from the end point P of the direction vector of the straight line L is the angle ⁇ between the OQ and the X axis
  • the side QO An angle between the side PO and the side PO is ⁇ .
  • the direction vector of the straight line L is determined.
  • the straight line L can be represented by a four-dimensional point ( ⁇ , ⁇ , l, m).
  • the point cloud data matching unit 422 makes the four-dimensional points A wi and B wj on the four dimensions for all i (0 ⁇ i ⁇ n 1 ) and j (0 ⁇ j ⁇ n 2 ). calculates the distance D ij of the above, extracted four combinations the value of the distance is a value close to 0. By doing so, four matching straight lines in the depth image A and the depth image B can be extracted.
  • the point cloud data matching unit 422 extracts four pairs (A wi , B wj ), and then converts each point A wi and B wj into a straight line in a three-dimensional space, thereby obtaining a straight line B wj to by calculating the matrix for transforming the linear a wi, can be obtained transformation matrix for matching the point cloud data B w in the point cloud data a w.
  • the point cloud data matching unit 422 performs a series of operations for each point cloud data and performs matching by combining a plurality of point cloud data while observing the degree of matching. be able to. Then, the result can be delivered to a three-dimensional data display control unit 50, which will be described later, via an interface such as communication.
  • the 3D data display control part 50 mentioned later you may make it store in the memory
  • the ICP matching process, the matching process using a curvature, and the matching process using a straight line were demonstrated as a matching process of the point cloud data matching part 422 mentioned above, it is not limited to these matching processes. A combination of these matching processes may be used. Another matching algorithm may be used.
  • the point cloud data matching unit 422 is a plurality of point cloud data (for example, ⁇ Qn (t) ⁇ (1 ⁇ n ⁇ N) measured by the point cloud data coordinate value conversion unit 41 at the same time. ), After aligning the overlapping portions based on the coordinate values in the reference coordinate system (first coordinate system) converted by the point cloud data coordinate value conversion unit 41, if necessary, due to measurement error or the like, Even if the coordinate values in the reference coordinate system between the respective point group data ⁇ Qn (t) ⁇ (1 ⁇ n ⁇ N) are the same, it is possible to perform more accurate correction by performing a correction when a positional deviation occurs.
  • One composite point cloud data with few missing parts can be acquired. By doing so, for example, it is possible to synthesize point cloud data at the same time of multiple viewpoints of a measurement object whose shape changes.
  • a plurality of point groups measured at the same position where the second electronic device 20n is not moved that is, the coordinate values in the reference coordinate system are the same.
  • the overlapping portions are aligned to create one composite point cloud data. be able to.
  • the time stamp can be omitted.
  • a plurality of point cloud data obtained by measuring one second electronic device 20 while moving around the measurement object is represented by point cloud data.
  • the overlapping portions are aligned, so that one composite point group data can be created.
  • the point cloud data can be rendered in the same format, but the data format is often not suitable for various three-dimensional processes. For this reason, the point cloud data can be converted into a surface format and can be handled as, for example, a polygon, an irregular triangular mesh, and a CAD model. Moreover, since each point data has a three-dimensional coordinate value, the point cloud data can realize data browsing and spatial reference from a free viewpoint. Specifically, the point cloud data can be projected from the 3D space to, for example, a panoramic space using the 3D coordinate values of the point cloud data itself.
  • the viewpoint operation unit 51 can receive input from the user such as the user's viewpoint direction and viewpoint coordinates. This enables operations similar to camera work such as zooming of the display image.
  • the data display method selection unit 52 can receive an instruction regarding the display method of the display image from the user. For example, it is possible to select on which projection plane the point cloud data in the three-dimensional space is projected.
  • a panoramic model can select a projection surface such as a spherical surface, a cylinder, or a cube.
  • the data reproduction / storage instruction unit 53 can receive an instruction regarding reproduction or storage of the three-dimensional model data generated from the point cloud data from the user.
  • the three-dimensional data storage unit 60 includes a source point group data storage unit 61 and a second electronic device position information storage unit 62.
  • the source point cloud data storage unit 61 stores, for each second electronic device 20n, point cloud data information in which the time stamp corresponding to the measurement time is associated with the point cloud data measured by each three-dimensional measurement unit 22. As described above, for example, when each point on the surface of the measurement object is acquired by each three-dimensional measurement unit 22n in a pixel unit at a preset time interval (for example, 30 frames per second), the source point group data is stored.
  • the unit 61 stores, for example, point group data ⁇ Qn (t) ⁇ generated every measurement time (t) in units of 1/30 seconds for each three-dimensional measurement unit 22n (1 ⁇ n ⁇ N) ( t: time stamp).
  • the second electronic device position information storage unit 62 stores the marker position information in which the time stamp is associated with the marker position information of the marker 23 included in the second electronic device 20 for each second electronic device 20n, and the position information measurement unit 12 (i).
  • the second electronic device position information storage unit 62 stores the set ⁇ i L n (t) ⁇ of the second electronic device position information measured at time t of all the second electronic devices 20n (1 ⁇ n ⁇ N) (1 ⁇ i ⁇ M) (t: time stamp) is stored.
  • the reference coordinate conversion matrix i T W for converting the coordinate values in the first measurement coordinate system (i) to the coordinate values in the reference coordinate system, and the second coordinate system (n) A marker coordinate conversion matrix n T M for converting the coordinate values into coordinate values in the marker coordinate system (n) is calculated and stored in the storage unit of the three-dimensional data processing unit 40.
  • the measurement operator starts measuring the measurement object by each second electronic device 20n (three-dimensional measurement unit 22n) while moving.
  • each second electronic device 20n acquires point cloud data Qn (t).
  • the marker position information calculation unit 31 determines the marker of each second electronic device 20n based on the measurement information measured by each position information measurement unit 12 (i) (1 ⁇ i ⁇ M). The position information i L n (t) is calculated.
  • the three-dimensional data processing unit 40 matches / combines (combines) the point group data Qn (t) at the same time t.
  • the 3D data display control unit 50 displays a 3D moving image viewed from the virtual viewpoint according to the user's designation of the virtual viewpoint.
  • each three-dimensional measurement unit 22 can be freely and dynamically moved, and even when a blind spot due to occlusion caused by deformation of the measurement object occurs, By changing the measurement position of the 3D measurement device immediately and responding. A three-dimensional image with few missing portions can be acquired.
  • the synthetic point cloud data is clipped as a measurement target viewed from the viewpoint position designated and input by the viewpoint operation unit 51, and a three-dimensional object with few missing portions is obtained. Can be viewed in real time from any viewpoint.
  • the state of the internal organs can be seen from the viewpoint of the outside of the patient's skin.
  • the present invention by moving the camera to the optimal position each time in sports live broadcasting etc., the blind spot is reduced, the missing part is reduced, the movement of the player from an impossible viewpoint, In various scenes, such as being able to display on each image device, it is possible to “can see an image display target object from a viewpoint different from the shooting position”.
  • the composite point cloud data is placed on a server, and this can be viewed from an arbitrary viewpoint by a plurality of users using, for example, a smartphone, a tablet terminal, or a laptop computer via a network.
  • Second Embodiment ⁇ Calculation of position information of second electronic device 20 using electromagnetic wave propagation time>
  • the position information measuring unit 12 included in the first electronic device 10 measures the position information of the marker 23 included in the second electronic device 20, thereby the three-dimensional measuring unit 22 included in the second electronic device 20.
  • a coordinate transformation matrix from the second coordinate system included in the first measurement coordinate system included in the first electronic device was calculated.
  • the radio wave reception included in the second electronic device 20 is received.
  • the radio wave transmission unit 12P j (1 ⁇ j ⁇ 4) and the radio wave reception unit 23C k (1 ⁇ k ⁇ 3) are simply referred to as P j (1 ⁇ j ⁇ 4) and C k ( It may be abbreviated as 1 ⁇ k ⁇ 3).
  • 5A, 5B, and 5C are diagrams each illustrating an example of functional blocks of the first electronic device 10, the second electronic device 20, and the coordinate system calculation unit 30 of the point cloud data acquisition system in the second embodiment. is there.
  • the second electronic device position information calculating unit 31A, C 3 of the reference coordinate system coordinate values in (the first coordinate system) and (x 3, y 3, z 3), the distance between P 1 and C 3, the distance between P 2 and C 3, the distance between P 3 and C 3, based on the distance between P 4 and C 3, the coordinate values at the C3 of the reference coordinate system (the first coordinate system) (x 3, y 3 , Z 3 ) is calculated by Equation 15.
  • x 3 (R 23 2 -R 13 2 +100) / 20
  • y 3 (R 33 2 ⁇ R 13 2 +100) / 20
  • z 3 (R 43 2 ⁇ R 13 2 +100) / 20 ... (Formula 15)
  • the second electronic device position information calculation unit 31A is configured to use the reference coordinate system (1 ⁇ k ⁇ 3) of each radio wave reception unit 23C k (1 ⁇ k ⁇ 3) that represents the position of the second electronic device 20 (three-dimensional measurement unit 22).
  • a coordinate value (second electronic device position measurement result) in the first coordinate system can be calculated.
  • the coordinate values in the reference coordinate system (first coordinate system) of each radio wave receiving unit 23C k (1 ⁇ k ⁇ 3) calculated by the second electronic device position information calculating unit 31A are each radio wave.
  • the second electronic device position information Ln (t) (where n is the second electronic device) is attached to each second electronic device 20n with a time stamp that is the transmission time of the transmitter 12P j (1 ⁇ j ⁇ 4).
  • the identification number of the device 20 and t is a time stamp
  • a series of processes of the distance measuring unit 16 and the second electronic device position information calculating unit 31A can be processed in real time.
  • the second electronic device 20n is Calibration can be performed in a state of being fixed in advance as in the first embodiment.
  • a coordinate system based on the radio wave receiver 23C k (1 ⁇ k ⁇ 3) of the second electronic device 20n is referred to as a radio wave receiver coordinate system.
  • the coordinate values in the radio wave receiver coordinate system of the radio wave receiver 23C k (1 ⁇ k ⁇ 3) are set as follows, for example (i is a predetermined natural number).
  • C 1 (0,0,0)
  • C 2 (4i, 0,0)
  • C 3 (0, 3i, 0)
  • the end point when the outer product of the vector C 1 C 2 and the vector C 1 C 3 is expressed with the vertex C 1 as the starting point is defined as C 4 .
  • C 4 (0,0,12i 2 )
  • a conversion matrix for converting the coordinate value in the second coordinate system of the second electronic device 20n to the coordinate value in the radio wave receiver coordinate system is defined as “ n T M ”.
  • the reference coordinate conversion matrix 1 T w and the second coordinate for converting the coordinate values in the first coordinate system into the coordinate values in the reference coordinate system are provided.
  • a conversion matrix (radio wave receiver coordinate conversion matrix n T M ) for converting the coordinate values in the second coordinate system of the electronic device 20n into coordinate values in the radio wave receiver coordinate system can be calculated.
  • the radio wave receiver (W 0 , W 1 , W 2 ) is installed at the center of the sphere of the reference coordinate system marker 10A.
  • the coordinates of the vertices W 0 , W 1 , W 2 of the reference system marker are set as follows, for example (j is a predetermined natural number).
  • W 0 (0,0,0)
  • W 1 (4j, 0, 0)
  • W 2 (0, 3j, 0)
  • the end point when the outer product of the vector W 0 W 1 and the vector W 0 W 2 is expressed with the vertex W 0 as the start point is defined as W 3 .
  • W 3 (0,0,12j 2 ) Is provided.
  • the coordinate value in the second coordinate system of the three-dimensional measurement unit 22n is converted into the coordinate value in the reference coordinate system with the second electronic device 20n placed in a previously fixed position.
  • a coordinate transformation matrix (hereinafter referred to as “ n T W ”) is calculated.
  • the coordinate system calculation unit 30 is configured to include a marker position information calculation unit 31, for example.
  • the coordinate values in the second coordinate system representing the positions of the vertices W 0 , W 1 , W 2 of the reference coordinate system marker 10A by the three-dimensional measurement unit 22 and the marker position information calculation unit 31 of the second electronic device 20n.
  • the calibration processing unit 32 is possible to calculate a coordinate transformation matrix n T W for converting coordinates in the second coordinate system included in the three-dimensional measurement unit 22n to the coordinate value in the reference coordinate system it can.
  • a first coordinate transformation matrix Mn T 1 is calculated.
  • the first electronic device 10 uses the radio wave receivers 23C k (1 ⁇ k ⁇ 3) and the first coordinates of C 4 of the second electronic device 20n based on radio waves. Calculate coordinate values in the system.
  • the calibration processing unit 32 converts the coordinate value of the second electronic device 20n by the radio wave receiving unit coordinate system into the coordinate value of the first electronic device 10 in the first coordinate system.
  • the first coordinate transformation matrix Mn T 1 can be calculated.
  • the reference coordinate system marker 10A can be removed from the real space.
  • the point cloud data coordinate value conversion unit 41 converts the coordinate value in the first coordinate system of the first electronic device 10 in the (n + 1) th layer in the first coordinate system of the first electronic device 10 in the nth layer. Can be converted to coordinate values. By iterating in this way, the coordinate value in the first measurement coordinate system of the first electronic device 10 and the coordinate value in the second coordinate system of the second electronic device 20 in the (n + 1) th layer or more (n ⁇ 1). Can be converted into coordinate values in the reference coordinate system of the first electronic device 10 in the first layer.
  • the position information measurement unit 10 included in the first electronic device 10 of the first embodiment and the marker position information calculation unit 31 included in the coordinate system calculation unit 30 are collectively referred to as a “position information calculation unit”.
  • the radio wave transmission unit 12P j (1 ⁇ j ⁇ 4) and the second electronic device position information calculation unit 31A included in the first electronic device 10 of the second embodiment are collectively referred to as a “position information calculation unit”.
  • the second electronic device 20 may, for example, wind a wire around a reel with a built-in rotation detector, measure the number of windings and the winding angle, and calculate the position. If possible, the position may be calculated autonomously.
  • the second electronic device 20 three-dimensional measuring unit 22
  • the tachometer is engaged with the roller, the roller is pressed against a rail or the like, and the rotation speed and angle of the roller are determined.
  • the position of the second electronic device 20 (three-dimensional measurement unit 22) can be calculated by measuring, the position may be calculated autonomously.
  • the depth camera is applied as the three-dimensional measurement unit 22, but the present invention is not limited to this.
  • the addition of special cameras other than depth sensors can be considered. Cameras that can acquire temperature data such as thermography, or that can acquire various image information such as water content, sugar content, separation of cancer cells from normal cells, enhancement of blood vessels, etc. by analyzing spectral graphs, such as spectral sensing cameras Is present. By combining such a special camera and the second electronic device 20, special information can be added to the point cloud data. This enables “segmentation (significant separation of images)” necessary for recognition of the outside world by a computer.
  • recognition processing such as separation of a machine and a human body
  • separation of normal cells and cancer cells can be performed using a realistic three-dimensional image.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

複数の移動可能な3次元計測部(22)による計測対象物の点群データを合成する点群データ取得システムを提供する。 点群データ取得システム1は、位置情報算出部及び第1座標系を備える第1電子機器(10)と、位置情報ユニット、3次元計測部(22)、及び第2座標系を備える第2電子機器(20)と、位置情報算出部により算出される位置情報ユニットの第1座標系における座標値に基づいて、移動可能な3次元計測部(22)が計測した各点群データの座標値を基準座標系における座標値に変換する点群データ座標値変換部(41)と、点群データ座標値変換部41により基準座標系における座標値に変換された複数の点群データから、重なる部分の位置合わせを行うことで、1つの合成点群データを作成する合成点群データ作成部(42)と、を備える。

Description

点群データ取得システム及びその方法
 本発明は、複数の計測位置からの非接触計測による対象物の外郭を表す点群データの取得に関するシステム及びその方法に関する。
 レーザースキャナ等の三次元計測装置を使用して、計測対象物の表面の位置及び形状を含む外郭を表す点群データを計測し、この点群データから計測対象物のパノラマ画像を作成する三次元データ処理装置が知られている。この三次元データ処理装置は、点群データに基づいて、例えば三次元計測装置の計測位置を原点とする仮想的な球面に対するパノラマ画像を作成することで、点群データの表示を容易化し操作性を向上することが知られている(例えば、特許文献1参照)。
 また、レーザースキャナ等の三次元計測装置を使用して、既設の建造物(例えば原子力発電所等のプラントや文化財等)の凹凸を有する非平面形状の計測対象物の輪郭を表す点群データを計測する場合、計測位置を様々に変えて複数の視点から当該計測対象物の輪郭を表す点群データを計測することが知られている。
 複数の異なる計測位置から計測された各点群データの位置情報は、当該点群データを計測した各計測位置の位置及び方位に基づく座標系(以下「固有座標系」ともいう)により表される。
 このため、これらの異なる計測位置から計測された各点群データの各固有座標系により表される位置情報を同一の座標系(以下、「基準座標系」ともいう)により表される位置情報に変換する必要がある。座標系の変換により、すべての点群データの位置情報を基準座標系により表し、同一座標系により表された各点群データを部分的に重なる部分のマッチングを行い、合成することが知られている。こうすることで、死角が減り、計測対象物の輪郭を把握する三次元データが得られる(例えば、特許文献2参照)。
 ここで、マッチングとは、異なる計測位置から得られた複数の点群データにおいて、部分的に重なる部分の位置合わせを行うことで、整合性を保持しつつ統合させることを言う。
 上記従来技術において、複数の計測位置から当該計測対象物の外郭を表す点群データを計測する場合に、各三次元計測装置の位置及び方位を予め設定しておく必要がある。このため、例えばレーザースキャナ等の三次元計測装置を予め設定した計測位置から別の計測位置に変更して設置する場合に、再度、変更先の計測位置における三次元計測装置の位置、方位等を正確に測定することが必要となる。3次元計測装置の位置の変更作業は、時間がかかり、簡単なものではない。さらには、例えば、当該計測対象物が、例えば、人の動作、物体の移動のように時間の経過に伴って、動的にその外郭が変化する非静止物体であれば、ひとつの計測装置で多方面からとらえることは、不可能である。
 また、マッチングのために、対象構造物やその周辺に複数のマーカーを設置(例えば接着又は塗布)して、その設置した複数のマーカーを基準にして計測データの合成を行うことが知られている(例えば、特許文献3)。しかしながら、複数のマーカーを基準にするためには、マーカーを設置する作業が必要となり、そのマーカーを適切な位置に合わせる等の作業に時間がかかり、計測作業のための前準備に時間が長くなるという課題があった。
特開2010-097419号公報 特開2013-161133号公報 特開2010-066169号公報
 上述した従来技術では、計測対象物の外郭を表す点群データを複数の計測位置から計測する場合に、3次元計測装置の位置、方位等を予め正確に測定しておくことが必要となっていた。
 このため、3次元計測装置の位置の設定作業に時間がかかるという課題があった。
 また、各3次元計測装置を予め正確に測定された位置に設置することが必要となるため、計測対象物の状況に合わせて、計測位置を即座に変更できないという課題があった。
 例えば、動く人間、動く動物、動く物等、時間の経過に伴って形状が変化する物体を計測対象とした場合には、複数の計測装置を使用していても、物体の変形に伴って生じるオクルージョン(手前にある物体が背後の物体をかくす状態)による死角が発生する場合に従来技術では、計測位置を即座に変更して、欠損部分の少ない3次元画像を取得することができないという課題があった。
 また、対象物やその周辺に複数のマーカーを設置する場合には、当該マーカーを設置する作業が必要になり、またマーカーを適切な位置に合わせる等の作業に時間がかかるという課題があった。
 なお、マーカー等を対象物に設置(例えば接着又は塗布)する作業において、計測対象物に損傷を与える恐れがある場合もあるという課題もあった。
 本発明は、複数の計測位置から計測対象物の外郭を表す点群データを取得するシステム又は方法において、計測対象物を計測するために、3次元計測装置を移動させたときに3次元計測装置の位置、方位をリアルタイムに取得することで、当該計測対象物の輪郭を表す複数の点群データを360度の角度から取得し、欠損部分の少ない3次元画像を取得するシステムを提供することを目的とする。
 (1)本願発明は、第1電子機器と1つ以上の移動可能な第2電子機器とを有する第1の電子機器群を備える、被写体の表面の各点までの深度情報を画素単位に有する点群データを取得する点群データ取得システムであって、前記第2電子機器は、それぞれが、第2座標系(例えば、後述の「第2座標系」)を有し、第2通信部と、複数の、視覚的特徴を有する所定の標識物であって、前記複数の標識物はそれぞれ第2座標系において線形独立となる位置にそれぞれ設けられる、前記複数の標識物(例えば、後述の「マーカー23」)と、被写体の点群データを前記第2座標系に基づいて計測する3次元計測部と、を備え、前記第1電子機器は、第1座標系(例えば、後述の「第1計測座標系」)を有し、被写体を前記第1座標系に基づいて計測する位置情報計測部(例えば、後述の「位置情報計測部12」)を備え、前記点群データ取得システムは、さらに基準座標系(例えば、後述の「基準座標系」)を有し、前記位置情報計測部により計測されたデータに基づいて、前記第2電子機器の備える前記複数の標識物の前記第1座標系における座標値である第2電子機器位置情報を算出するマーカー位置情報算出部(例えば、後述の「マーカー位置情報算出部31」)と、前記第2電子機器位置情報に基づいて、前記第2電子機器の備える前記3次元計測部により計測された前記点群データにおける各点のデータの前記第2座標系における座標値を、前記基準座標系における座標値に変換する点群データ座標値変換部と、前記第2電子機器の備える前記3次元計測部により計測された複数の点群データを、前記点群データ座標値変換部により変換された前記基準座標系における座標値に基づいて、1つの合成点群データを作成する合成点群データ作成部と、を備える、点群データ取得システムに関する。
 (2)前記第2電子機器の備える視覚的特徴を有する所定の標識物は、それぞれ表面が予め設定された色で着色された、所定の半径の球であって、前記球の中心がそれぞれ予め設定された三角形の頂点を形成するとともに、前記第2電子機器を一意的に識別できるように、前記複数の標識物の視覚的特徴を前記第2電子機器ごとに異なるように構成されたことを特徴とする、(1)に記載の点群データ取得システム。
 (3)前記第1の電子機器群は、2つ以上の第1電子機器を備え、1つの第1電子機器の備える位置情報計測部、及び別の第1電子機器の備える位置情報計測部が、それぞれの備える固有の第1座標系に基づいて、前記第2電子機器の備える前記複数の標識物を計測することを特徴とする(1)又は(2)に記載の点群データ取得システム。
 (4)前記点群データ取得システムは、さらに、複数の、視覚的特徴を有する所定の標識物(例えば、後述の「基準座標系マーカー10A」)であって、前記複数の標識物はそれぞれ基準座標系において線形独立となる座標位置にそれぞれ設けられる、前記複数の標識物を備え、前記点群データ座標値変換部は、前記マーカー位置情報算出部により算出された、前記複数の、視覚的特徴を有する所定の標識物の前記第1座標系における座標値、及び前記複数の、視覚的特徴を有する所定の標識物の前記基準座標系における座標値に基づいて、予め前記第1座標系における座標値を前記基準座標系における座標値に変換する基準座標変換行列を生成し、前記点群データ座標値変換部は、前記第2電子機器位置情報、前記点群データ、及び前記基準座標変換行列に基づいて、前記点群データにおける各点のデータの前記第2座標系における座標値を、前記基準座標系における座標値に変換する、(1)~(3)のいずれかに記載の点群データ取得システム。
 (5)前記点群データ取得システムは、さらに、前記第1の電子機器群に属さない、1つの第1電子機器と1つ以上の第2電子機器を備える第2の電子機器群を有し、前記第2の電子機器群に属する第1電子機器は、さらに、複数の、視覚的特徴を有する所定の標識物であって、前記複数の標識物はそれぞれ第1座標系において線形独立となる位置にそれぞれ設けられる、前記複数の標識物を備え、前記第1の電子機器群に属する前記第1電子機器の前記位置情報計測部は、第1座標系に基づいて前記第2の電子機器群に属する前記第1電子機器の備える前記複数の標識物を計測し、前記マーカー位置情報算出部は、前記第2の電子機器群に属する前記第1電子機器の備える前記複数の標識物の前記第1座標系における座標値である、前記第2の電子機器群に属する前記第1電子機器の位置情報を算出する、(1)~(4)のいずれかに記載の点群データ取得システム。
 (6)本願発明は、第1電子機器と1つ以上の移動可能な第2電子機器とを有する第1の電子機器群を備える、被写体の表面の各点までの深度情報を画素単位に有する点群データを取得する点群データ取得システムであって、前記第1電子機器は、第1座標系(例えば、後述の「第1座標系」)を有し、電磁波を発信する、複数の電磁波発信部であって、前記複数の電磁波発信部は、それぞれ第1座標系の線形独立である任意の位置に設けられる、前記複数の電磁波発信部と、を備え、前記第2電子機器は、それぞれが固有の第2座標系(例えば、後述の「第2座標系」)を有し、電磁波を受信又は反射する、複数の電磁波受信部であって、前記複数の電磁波受信部は、それぞれ前記第2座標系の線形独立である任意の位置に設けられる、前記複数の電磁波受信部と、前記点群データを前記第2座標系に基づいて計測する3次元計測部と、を備え、前記点群データ取得システムは、さらに基準座標系(例えば、後述の「基準座標系」)を有し、前記複数の電磁波受信部のそれぞれが、前記複数の電磁波発信部のそれぞれから発信された電磁波を受信するのに要した電磁波伝播時間、又は前記複数の電磁波発信部のそれぞれが、前記複数の電磁波受信部のそれぞれから反射された電磁波を受信するのに要した電磁波伝播時間に基づいて、前記複数の電磁波発信部のそれぞれと前記複数の電磁波受信部それぞれとの距離を測定する距離計測部と、前記距離計測部により測定された距離に基づいて、前記複数の電磁波受信部の前記第1座標系における座標値である第2電子機器位置情報をそれぞれ算出する第2電子機器位置情報算出部と、前記第2電子機器位置情報に基づいて、前記第2電子機器の備える前記3次元計測部により計測された前記点群データにおける各点のデータの前記第2座標系における座標値を、前記基準座標系における座標値に変換する点群データ座標値変換部と、前記第2電子機器の備える前記3次元計測部により計測された複数の点群データを、前記点群データ座標値変換部により変換された前記基準座標系における座標値に基づいて、1つの合成点群データを作成する合成点群データ作成部と、を備える、点群データ取得システムに関する。
 (7)前記点群データ取得システムは、さらに、前記第1の電子機器群に属さない、1つの第1電子機器と1つ以上の第2電子機器を備える第2の電子機器群を有し、前記第2の電子機器群に属する第1電子機器は、さらに、電磁波を受信又は反射する、複数の電磁波受信部を備え、前記距離計測部は、さらに前記第1の電子機器群に属する前記第1電子機器の前記複数の電磁波発信部のそれぞれから発信された電磁波を、前記複数の電磁波受信部のそれぞれが、前記複数の電磁波発信部のそれぞれから発信された電磁波を受信するのに要した電磁波伝播時間、又は前記複数の電磁波発信部のそれぞれが、前記複数の電磁波受信部のそれぞれから反射された電磁波を受信するのに要した電磁波伝播時間に基づいて、前記複数の電磁波発信部のそれぞれと前記第2の電子機器群に属する前記第1電子機器の備える前記複数の電磁波受信部それぞれとの距離を測定し、前記第2電子機器位置情報算出部は、さらに前記距離計測部により測定された前記距離に基づいて、前記第2の電子機器群に属する第1電子機器の複数の電磁波受信部の前記第1の電子機器群に属する第1電子機器における第1座標系における座標値をそれぞれ算出する、(6)に記載の点群データ取得システム。
 (8)前記合成点群データ作成部は、さらに、複数の点群データを、前記点群データ座標値変換部により変換された前記基準座標系における座標値に基づいて、重なる部分の位置合わせを行うことで、1つの合成点群データを作成する、(1)~(7)のいずれかに記載の点群データ取得システム。
 (9)前記合成点群データ作成部は、さらに、複数の点群データを、前記点群データ座標値変換部により変換された前記基準座標系における座標値に基づいて、重なる部分の位置合わせを行い、さらに前記基準座標系における同一座標値を有する部分を有する異なる複数の点群データを用いて、前記複数の点群データをマッチングする点群データマッチング部を備える、(1)~(8)のいずれかに記載の点群データ取得システム。
 (10)本願発明は、被写体の表面の各点までの深度情報を画素単位に有する点群データを取得する点群データ取得方法であって、第1座標系を有する第1電子機器の位置情報計測部により、第2座標系をそれぞれ有する1つ以上の第2電子機器がそれぞれ備える複数の標識物を計測する位置情報計測ステップと、前記位置情報計測ステップにより計測されたデータに基づいて、前記第2電子機器の備える前記複数の標識物の前記第1座標系における座標値である第2電子機器位置情報を算出する位置情報算出ステップと、前記1つ以上の第2電子機器の3次元計測部により、点群データを前記第2座標系に基づいて計測する3次元計測ステップと、前記第2電子機器位置情報に基づいて、前記3次元計測ステップにより計測された前記点群データにおける各点のデータの前記第2座標系における座標値を、基準座標系における座標値に変換する点群データ座標値変換ステップと、前記3次元計測ステップにより計測された複数の点群データを、前記点群データ座標値変換ステップにより変換された前記基準座標系における座標値に基づいて、1つの合成点群データを作成する合成点群データ作成ステップと、を備える点群データ取得方法に関する。
 (11)本願発明は、被写体の表面の各点までの深度情報を画素単位に有する点群データを取得する点群データ取得方法であって、第1座標系を有する第1電子機器の複数の電磁波発信部により複数の電磁波を発信する電磁波発信ステップと、第2座標系をそれぞれ有する1つ以上の第2電子機器の複数の電磁波受信部により、前記電磁波発信ステップにより発信された前記複数の電磁波のそれぞれを受信する超音波受信ステップと、前記複数の電磁波受信部のそれぞれが、前記複数の電磁波発信部のそれぞれから発信された電磁波を受信するのに要した電磁波伝播時間、又は前記複数の電磁波発信部のそれぞれが、前記複数の電磁波受信部のそれぞれから反射された電磁波を受信するのに要した電磁波伝播時間に基づいて、前記複数の電磁波発信部のそれぞれと前記複数の電磁波受信部それぞれとの距離を測定する距離計測ステップと、前記距離計測ステップにより測定された距離に基づいて、前記複数の電磁波受信部の前記第1座標系における座標値である第2電子機器位置情報をそれぞれ算出する第2電子機器位置情報算出ステップと、前記1つ以上の第2電子機器の3次元計測部により、点群データを前記第2座標系に基づいて計測する3次元計測ステップと、前記第2電子機器位置情報に基づいて、前記3次元計測ステップにより計測された前記点群データにおける各点のデータの前記第2座標系における座標値を、基準座標系における座標値に変換する点群データ座標値変換ステップと、前記3次元計測ステップにより計測された複数の点群データを、前記点群データ座標値変換ステップにより変換された前記基準座標系における座標値に基づいて、1つの合成点群データを作成する合成点群データ作成ステップと、を備える点群データ取得方法に関する。
 (12)本願発明は、コンピュータに、(10)又は(11)に記載の各ステップを実行させるためのコンピュータプログラムに関する。
 本発明の点群データ取得システムによれば、対象物を計測するために、3次元計測装置の位置、方位を予め設定した場所に設置することなく、3次元計測装置の計測位置を即座に変更することが必要になった場合に、3次元計測装置を移動させるとともに、3次元計測装置の位置及び方位をリアルタイムに取得することができる。
 そうすることで、例えば、動く人間、動く動物、動く物等、時間の経過に伴って形状が変化する物体を計測対象とした場合には、物体の変形に伴って生じるオクルージョン(手前にある物体が背後の物体をかくす状態)による死角が発生するときに、欠損部分を極力少なくするために、3次元計測装置の計測位置を即座に変更して対応することができ、360度の角度から計測対象物の輪郭を表す複数の点群データを取得することができる。
本発明の第1実施形態に係る点群データ取得システムの一例を示す概略図である。概略的に示すブロック図である。 本発明の第1実施形態に係る第1電子機器の概略ブロック図である。 本発明の第1実施形態に係る第2電子機器の概略ブロック図である。 本発明の第1実施形態に係る座標系算出部の概略ブロック図である。 本発明の第1実施形態に係る3次元データ処理部の概略ブロック図である。 本発明の第1実施形態に係る3次元データ表示制御部の概略ブロック図である。 本発明の第1実施形態に係る3次元データ保存部の概略ブロック図である。 本発明の第1実施形態に係るマーカーの一例を示す概略図である。 本発明の第1実施形態に係るキャリブレーションを説明する各座標系間の変換行列の関連を示す概略図である。 本発明の一実施形態における一連の処理の流れを示す図である。 本発明の第2実施形態に係る第1電子機器の概略ブロック図である。 本発明の第2実施形態に係る第2電子機器の概略ブロック図である。 本発明の第2実施形態に係る座標系算出部の概略ブロック図である。 本発明の第2実施形態に係る電波発信部と電波受信部間における電波伝播時間とそれに基づく直線距離の関係を示す概略図である。 第1電子機器及び1つ以上の第2電子機器から構成される電子機器群を階層的に配置して、階層化を示す概略図である。
 以下、本発明の点群データ取得システムの好ましい実施形態について、図面を参照しながら説明する。ここで、下記の実施形態はいずれも本発明の一例であり、これに限定されるものではない。
[第1実施形態]
 図1Aに示すように、点群データ取得システム100は、第1電子機器10と、1つ以上の移動可能な第2電子機器20と、座標系算出部30と、3次元データ処理部40と、3次元データ表示制御部50と、3次元データ保存部60と、を含んで構成される。これらは、有線及び/又は無線ネットワーク等を介して接続されている。
 後述するように、点群データ取得システム100は、システムに固有の座標系(以下、「基準座標系」又は「グローバル座標系」ともいう)を有するように構成される。例えば、後述する「基準座標系マーカー」を用いて、キャリブレーションを行うことで、基準座標系を設定することができる。詳細については後述する。
<第1電子機器10>
 第1電子機器10は、有線及び/又は無線通信機能を備える、例えばノートパソコンを含むパソコン、あるいはCPU、DSP等の演算チップを搭載した演算ボードで構成することができる。
 第1電子機器10は、第1通信部11と、被写体の表面の各点を画素単位で例えばRGBの色情報とともに位置情報を計測する位置情報計測部12と、を備える。第1電子機器10の備える位置情報計測部12は、当該位置情報計測部12に固有の座標系(以下、「第1計測座標系」という)を有する。
 また、第1電子機器10は、さらに時刻同期部15を備えることができる。以下、第1電子機器10の備える上記各機能部を総括して「第1機能部」ともいう。
 第1電子機器10には、当該第1電子機器10を、前述した第1通信部11、位置情報計測部12等、第1機能部として機能させるためのプログラムをインストールし、第1通信部11、位置情報計測部12等の各機能部として機能させるようにすることができる。なお、当該プログラムは、第1電子機器10に予めインストールされていてもよい。また、当該プログラムは、コンピュータ読み取り可能な記録媒体から必要に応じてインストール又は予め設定されたサーバから必要に応じて適宜ダウンロードされてもよい。以下、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
<第2電子機器20>
 第2電子機器20は、有線及び/又は無線通信機能と、を備える、例えばノートパソコンを含むパソコン、タブレット端末等の移動可能な電子機器、あるいはCPU、DSP等の演算チップを搭載した演算ボードで構成することができる。
 第2電子機器20は、第2通信部21と、3次元計測部22と、マーカー23と、を備える。3次元計測部22は、当該3次元計測部22に固有の座標系(以下、「第2座標系」という)を有する。同様に、マーカー23は、当該マーカー23に固有の座標系(以下、「マーカー座標系」という)を有する。詳細については後述する。
 なお、マーカー23を「位置情報ユニット」と称することができる。
 また、第2電子機器20は、さらに、時刻同期部25を備えることができる。
 以下、第2電子機器20の備える上記各機能部を総括して「第2機能部」ともいう。
 第2電子機器20には、当該第2電子機器20を、第2通信部21、3次元計測部22等、第2機能部として機能させるためのプログラムをインストールすることで、第2電子機器20を第2通信部21、3次元計測部22等の各機能部として機能させるようにすることができる。なお、当該プログラムは、予めインストールされていてもよい。また、当該プログラムは、コンピュータ読み取り可能な記録媒体から必要に応じてインストール又は予め設定されたサーバから必要に応じて適宜ダウンロードされてもよい。
<座標系算出部30>
 座標系算出部30は、マーカー位置情報算出部31と、キャリブレーション処理部32と、を備える。
 また、座標系算出部30は、時刻同期部33を備えることができる。
<3次元データ処理部40>
 3次元データ処理部40は、点群データ座標値変換部41と、合成点群データ作成部42と、を備える。
 合成点群データ作成部42は、さらに、第1合成点群データ作成部421と、点群データマッチング部422と、を備える。
<3次元データ表示制御部50>
 3次元データ表示制御部50は、視点操作部51と、データ表示方式選択部52と、データ再生・保存指示部53と、3次元データ表示処理部54と、を備える。
<3次元データ保存部60>
 3次元データ保存部60は、源点群データ記憶部61と、第2電子機器位置情報記憶部62と、を備える。
 座標系算出部30、3次元データ処理部40、3次元データ表示制御部50、及び3次元データ保存部60は、有線及び/又は無線通信機能を備える、例えば、1台又は複数のパソコン、タブレット端末、スマートフォン、サーバ等の電子機器、あるいはCPU、DSP等の演算チップを搭載した演算ボードで構成することができる。
 また、座標系算出部30、3次元データ処理部40、3次元データ表示制御部50、及び3次元データ保存部60をそれぞれ別のパソコン、タブレット端末、スマートフォン、サーバ等の電子機器により構成された、分散システムとすることができる。
 また、座標系算出部30、3次元データ処理部40、3次元データ表示制御部50、及び3次元データ保存部60の一部又は全てを第1電子機器10、又は第2電子機器20により構成することもできる。
 また、座標系算出部30、3次元データ処理部40、3次元データ表示制御部50、及び3次元データ保存部60をクラウド上の仮想サーバ上においてもよい。
 座標系算出部30、3次元データ処理部40、3次元データ表示制御部50、及び3次元データ保存部60を構成する電子機器には、当該電子機器を、座標系算出部30、3次元データ処理部40、3次元データ表示制御部50、及び3次元データ保存部60として機能させるためのプログラムをインストールすることで、当該電子機器を座標系算出部30、3次元データ処理部40、3次元データ表示制御部50、及び3次元データ保存部60として機能させるようにすることができる。なお、当該プログラムは、予め当該電子機器にインストールされていてもよい。また、当該プログラムは、コンピュータ読み取り可能な記録媒体から必要に応じてインストール又は予め設定されたサーバから必要に応じて適宜ダウンロードされてもよい。
 次に、点群データ取得システム100の備える各電子機器等について、詳細に説明する。
 最初に、第2電子機器20について説明する。
<第2電子機器20について>
 図1Cに示すように、第2電子機器20は、第2通信部21と、3次元計測部22、マーカー23と、を備える。また、第2電子機器20は、さらに、時刻同期部25を備えることができる。
[第2通信部21]
 有線、又は無線回線による通信モジュール。第1電子機器10の第1通信部11と対向し、第1電子機器10、第2電子機器20間の制御信号、各種データをやり取りする。
[3次元計測部22]
 3次元デジタイザ、レーザースキャナ等と同様の3次元計測手段として、「深度センサ」がある。「深度センサ」には主に、(1)Time-of-flight方式、(2)三角測量方式、(3)Depth of Deforce方式等があるが、(1)のTime-of-flight方式は、レーザや赤外線等の光を計測対象物に対して照射して反射させ、センサに届くまでの飛行時間をもとに計算し、計測対象物表面の各点までの深度センサのからの距離等(以下、「深度」ともいう)を瞬時に得ることができるセンサである。深度センサは計測対象物各点の深度を画素単位で把握することができる。
 ここで、計測対象物とは、例えば、既設の建造物(例えば原子力発電所等のプラントや文化財等)の凹凸を有する非平面形状の計測対象物のみならず、動く人間、動く動物、動く物等、時間の経過に伴って形状が変化する物体を含むことができる。
 第2電子機器20の有する3次元計測部22は、深度センサを、例えば通常の画像カメラと組み合わせて構成することができる。深度センサを通常の画像カメラと組み合わせて構成される3次元計測部22を、以下「深度カメラ」ともいう。
 3次元計測部22は、例えば深度カメラを用いて計測対象物を計測することで、計測対象物表面の各点を画素単位で例えばRGBの色情報とともに深度カメラの備える3次元の座標系における座標値(以下「深度情報」ともいう)を併せ持つ、計測対象物の画像データを生成することができる。
 3次元計測部22は、固有の基準位置に基づく3次元の固有座標系(以下、「第2座標系」ともいう)を備えている。3次元計測部22により計測された計測対象物表面の各点(画素単位)の位置は、第2座標系により、3次元座標(x、y、z)により表される。
 したがって、3次元計測部22により計測する場合には、計測対象物表面の各点(画素単位)の位置を表す3次元座標(x、y、z)と、その3次元座標位置における計測対象物表面のRGBの色情報と、からなる点データの集合を計測データとして取得することができる。
 3次元計測部22は、第2電子機器20を移動させることで、3次元空間内を移動することができる。ユーザ(例えば、計測作業者、カメラマン)は、計測対象物の状況に応じて、第2電子機器20を移動させることで、3次元計測部22の計測位置を変更して、計測対象物の計測を行うことができる。なお、第2電子機器20の移動については、例えば、第2電子機器20を搭載した移動装置を自走式又は遠隔操作により、移動させることもできる。例えば、第2電子機器20を搭載したクアッドコプターを遠隔操作することにより、移動させることもできる。
 3次元計測部22は、計測対象物表面の各点の情報を画素単位で取得することができる。また、3次元計測部22は、計測対象物の表面の各点の情報を画素単位で、予め設定した時間間隔で取得することができる。例えば、時間間隔として1/30秒を設定することで、3次元計測部22は、1秒間に30コマの画像データ(30fps)を取得することができる。3次元計測部22により計測された各計測データには、それぞれ計測時刻となるタイムスタンプを付すことができ、当該タイムスタンプに基づいて計測データ間で関連付けが可能となっている。
 すなわち、N個(1≦N)の第2電子機器20及び3次元計測部22をインデックス1、2、3、・・・Nにより識別する場合、tを計測時刻とすると、インデックス(識別番号)n(1≦n≦N)の3次元計測部22(以下「3次元計測部22n」ともいう)により取得した点群データをQn(t)と表現することができる。なお、インデックス(識別番号)nの第2電子機器20は、第2電子機器20nという。
<3次元計測部22による測定時刻の同期制御>
 例えば、第2電子機器20が複数個ある場合(すなわち3次元計測部22が複数個ある場合)、例えば、第1電子機器10又は座標系算出部30のトリガーによる同期制御により、複数個あるすべての3次元計測部22に対して計測動作を同期させることにより、同時刻に計測対象物を計測させるように構成することができる。トリガーとしては、例えば、第1電子機器10又は座標系算出部30から3次元計測部22nに対して計測指示信号を出すことができる。
 以下、Nは1以上(すなわち、第2電子機器20は1以上)とする。
 ここで、各3次元計測部22nにより計測対象物の画像データを予め設定した時間間隔(例えば、1秒間に30コマ)で取得する場合、当該点群データは、第2電子機器20nの備える3次元計測部22n(1≦n≦N)毎に、1/30秒単位の計測時刻(t)毎に生成され、通信ネットワークを介して、3次元データ保存部60の源点群データ記憶部61にリアルタイムに記憶される。
 すなわち、源点群データ記憶部61には、すべての3次元計測部22nにより計測される、点群データの集合{Qn(t)}(1≦n≦N)(t:タイムスタンプ)が記憶される。
 点群データQn(t)は、計測対象物の表面の各点を、例えばデータ形式{3次元計測部22の識別番号n、各点の第2座標系における座標値(x、y、z)、点群取得時刻t、R(赤成分)、G(緑成分)、B(青成分)等}で表した点データの集合であるといえる。
[マーカー23]
 第2電子機器20は、3次元計測部22の備える第2座標系において、線形独立となる座標値が既知である位置に設けられる複数の視覚的特徴を有する所定の標識物(以下、「マーカー23」という)を備える。なお、インデックス(識別番号)nの第2電子機器20nの備えるマーカー23をマーカー23(n)という。
 第1実施形態は、後述するように、座標系算出部30の備えるマーカー位置情報算出部31が位置情報計測部12による計測情報に基づいて、第2電子機器20nの備えるマーカー23(n)を検出し、検出したマーカー23(n)の構成要素(マーカー23(n)の頂点等)の第1計測座標系における座標値(以下「マーカー位置情報(n)」という)を算出する。
 そうすることで、3次元データ処理部40の備える点群データ座標値変換部41は、第2電子機器20nの備えるマーカー座標系における座標値を第1電子機器10の備える位置情報計測部12における第1計測座標系又は第1計測座標系とは独立した基準座標系(グローバル座標系)における座標値に変換することができる。
 なお、測定時刻tにおける位置情報計測部12による計測情報に基づいて算出されるマーカー位置情報(n)を算出する際に用いた位置情報計測部12による測定時刻tと、点群データQn(t)の測定時刻tと、を突合せすることで、点群データQn(t)が計測されたときの第2電子機器20nのマーカー位置情報(n)を特定することができる。
 測定時刻が必ずしも一致しない場合には、例えば当該時刻の近傍のマーカー位置情報(n)により、線形補完することができる。
 図2に、マーカー23の一例を示す。図2に示すように、マーカー23は、例えば、各頂点を同一の半径の球体とした3辺を有する三角形の形状をした構造体とすることができる。より具体的には、三角形の各頂点は、各球体の中心と一致するように構成されることが好ましい。また、三角形は直角三角形とすることが好ましいが、直角三角形に限定されるものではなく、任意の三角形でもよい。
 球体とすることでどの角度から計測されても計測画像データが円となることから、マーカー位置情報算出部31は、位置情報計測部12による計測結果に基づいて、球体を検出することが容易となる。なお、球体の半径、球体の表面の色、及び三角形の辺の長さは、適宜設定することができる。
 なお、第1実施形態においては、マーカー23を所定の色で着色された所定の半径の球の形状をしたものと仮定するが、視覚的特徴を有する所定の標識物であるマーカーの形状は、球体に限定されるものではない。位置情報計測部12により、マーカーを計測することができ、マーカー位置情報算出部31により当該マーカーを検出することができる任意の形状であればよい。例えば、色、柄、模様、特別な形状等により識別できるようにしてもよい。
 例えば、マーカー23を構成する三角形を全て相似形となる直角三角形とし、辺の長さを各第2電子機器20n毎に異なる長さにすることで、辺の長さにより、当該マーカー23を有する第2電子機器20を識別するように構成することができる。また、球体の半径を各第2電子機器20毎に異なる長さにすることで、球体の半径により、当該マーカー23を有する第2電子機器20nを識別するように構成することができる。また、球体の表面の色を各第2電子機器20毎に異なる色にすることで、球体の表面の色により、当該マーカー23を有する第2電子機器20nを識別するように構成することができる。
 なお、直角三角形を作成するに際して、3辺の長さの比を3:4:5とすることが、実用上、また直角三角形の作成上、好ましい。マーカー23の一例として、例えば、球の半径を5cm、球の表面の色をRED、3辺の長さをそれぞれ3icm、4icm、5icm(iは、1以上の任意の整数)とすることができる。
[マーカー座標系]
 ここで、マーカー23によるマーカー座標系とは、一例として、例えば、マーカー23を直角三角形とした場合、当該直角三角形の直角に対応する頂点を原点とする座標系を意味する。
 より具体的には、マーカー23は、前述したように各頂点を同一の半径の球体とした3辺を有する三角形の形状をした構造体と仮定する。例えば、マーカー23の3辺の長さをそれぞれ3icm、4icm、5icm(iは、1以上の任意の整数)となる直角三角形を仮定する。
 マーカー23における直角三角形の直角に対応する頂点をC´、辺の長さが4icmとなる辺のC´以外の頂点をC´、辺の長さが3icmとなる辺のC´以外の頂点をC´とする。C´、C´、C´は、それぞれ、各球体の中心と一致する。
 そして、頂点C´を始点として頂点C´を終点とするベクトル(以下「ベクトルC´C´」という)と、頂点C´を始点として頂点C´を終点とするベクトル(以下「ベクトルC´C´」という)との外積を頂点C´を始点として表現した場合における終点をC´とする。
 ここで、C´を原点、ベクトルC´C´をX軸、ベクトルC´C´をY軸、ベクトルC´C´をZ軸とする、マーカー座標系を規定することができる。
 具体的には、各点C´、C´、C´、C´のマーカー座標系における座標値は、次のとおりである。
 C´=(0,0,0)
 C´=(4i,0,0)
 C´=(0,3i,0)
 C´=(0,0,12i
 なお、マーカー23が直角三角形でない場合においても、例えば、C´を原点として、ベクトルC´C´をX軸とし、三角形をXY平面とすることで、マーカー23によりマーカー座標系を規定することができる。
 なお、上記座標値は、一例であって、マーカー23は任意の三角形とすることができ、その場合の座標値は、当該三角形に基づいて算出される。
[時刻同期部25]
 時刻同期部25は、例えば、IEEE1588に規定されたプロトコルを用いて、第2電子機器20の内部時刻を基準時刻に同期させる。後述するように、第1電子機器10、及び/又は座標系算出部30も、同様に時刻同期部15を有することができる。そうすることで、例えば、IEEE1588に規定されたプロトコルを用いて、第1電子機器10及び/又は座標系算出部30の内部時刻を基準時刻に同期させる。
 そうすることで、第1電子機器10及び/又は座標系算出部30の内部時刻並びに1つ以上の第2電子機器20の各内部時刻を、同期させることができる。
<第1電子機器10について>
 図1Bに示すように、第1電子機器10は、第1通信部11と、被写体の表面の各点を画素単位で例えばRGBの色情報とともに位置情報を計測する位置情報計測部12と、を備える。また、第1電子機器10は、さらに時刻同期部15を備えるようにしてもよい。
 [第1通信部11]
 有線、又は無線回線による通信モジュール。第2電子機器20の第2通信部21と対向し、第1電子機器10、第2電子機器20間の制御信号、各種データをやり取りする。
[位置情報計測部12]
 位置情報計測部12は、第2電子機器20の備える3次元計測部22と同様に被写体の表面の各点を画素単位で例えばRGBの色情報とともに位置情報を計測する。位置情報計測部12は、固有の座標系(第1計測座標系)を有する。
 位置情報計測部12は、第2電子機器20の備えるマーカー23を検出するための計測情報を、後述するマーカー位置情報算出部31に提供するものである。
 したがって、位置情報計測部12は、前述したように第1計測座標系を有することから、例えば、位置情報計測部12が1台しかない場合、当該位置情報計測部12の有する第1計測座標系を基準座標系とすることができる。しかしながら、位置情報計測部12が1台しかない場合、何らかの物体が、位置情報計測部12と第2電子機器20nのマーカー23との間に介在した場合、位置情報計測部12から第2電子機器20nのマーカー23の座標値を計測できなくなる可能性がある。
 第1実施形態においては、このようなオクルージョンによる死角を生じないように、複数の位置情報計測部12を備えることが好ましい。
 その場合、位置情報計測部12を備える第1電子機器10を複数備えるようにシステムを構成してもよい。また、第1電子機器10が複数の位置情報計測部12を備えるように構成してもよい。
 ここで、i(1≦i≦M)(Mは位置情報計測部12の個数)を位置情報計測部12の識別番号とした場合、インデックス(識別番号)iの位置情報計測部12は、位置情報計測部12(i)という。同様に、位置情報計測部12(i)の備える固有の座標系(第1計測座標系)を第1計測座標系(i)という。
 なお、第1実施形態では、位置情報計測部12の個数Mは、1以上(1≦M)として、1個の場合を含むものとする。
[時刻同期部15]
 時刻同期部15は、例えば、IEEE1588に規定されたプロトコルを用いて、第1電子機器10の内部時刻を基準時刻に同期させる。前述したように、第2電子機器20も、同様に時刻同期部25を有し、例えば、IEEE1588に規定されたプロトコルを用いて、第1電子機器10の内部時刻を基準時刻に同期させる。
 そうすることで、第1電子機器10の内部時刻及び座標系算出部30、複数の第2電子機器20の各内部時刻の同期をとることができる。
<座標系算出部30>
 図1Dに示すように、座標系算出部30は、マーカー位置情報算出部31と、キャリブレーション処理部32と、を備える。また、座標系算出部30は、時刻同期部33を備えることができる。
[マーカー位置情報算出部31]
 マーカー位置情報算出部31は、位置情報計測部12により計測された計測情報に基づいて、第2電子機器20の備えるマーカー23を検出し、検出したマーカー23の構成要素(マーカー23の頂点等)の第1計測座標系における座標値(マーカー位置情報)を算出する。
 ここで、i(1≦i≦M)を位置情報計測部12の識別番号、n(1≦n≦N)を第2電子機器20(3次元計測部22)の識別番号、tを計測時刻、Lを第2電子機器20のマーカー位置情報を表す場合、時刻tにおいて位置情報計測部12(i)により計測される第2電子機器20nのマーカー位置情報を(t)と表現することができる。
 したがって、(t)は、時刻tにおける、第1計測座標系(i)による、第2電子機器20nのマーカー位置情報を意味する。
 マーカー位置情報算出部31は、第2電子機器20n毎に、第1計測座標系(i)による、第2電子機器20nのマーカー位置情報(t)を、ネットワークを介して3次元データ保存部60の第2電子機器位置情報記憶部62にリアルタイムに記憶するようにしてもよい。
 そうすることで、第2電子機器位置情報記憶部62には、すべてのマーカー構成要素位置情報の集合{(t)}(1≦n≦N,1≦i≦M,t:タイムスタンプ)がリアルタイムに記憶される。
[キャリブレーション処理部32]
 キャリブレーション処理部32は、計測対象物の点群データ取得に際して、予めキャリブレーションを行うことで、第1計測座標系における座標値を基準座標系における座標値に変換するための基準座標変換行列T、及び第2電子機器20の3次元計測部22の備える第2座標系における座標値を第2電子機器20の備えるマーカー座標系における座標値に変換するためのマーカー座標変換行列Tを算出する。詳細については、後述する。
[時刻同期部33]
 時刻同期部33は、例えば、IEEE1588に規定されたプロトコルを用いて、第1電子機器10の内部時刻を基準時刻に同期させる。座標系算出部30は、例えば、IEEE1588に規定されたプロトコルを用いて、座標系算出部30の内部時刻を基準時刻に同期させることができる。
[位置情報計測部12の基準座標系のキャリブレーションについて]
 位置情報計測部12は、前述したように第1計測座標系を有することから、第1計測座標系を基準座標系とすることができる。しかしながら、位置情報計測部12が1台しかない場合、何らかの物体が、位置情報計測部12と第2電子機器20nのマーカー23(n)との間に介在した場合、位置情報計測部12から第2電子機器20nのマーカー23(n)の座標値を計測できなくなる可能性がある。
 第1実施形態においては、このようなオクルージョンによる死角を生じないように、複数の位置情報計測部12(i)(1≦i≦M)を備えることが好ましい。ただし、M=1の場合を含む。
 その場合、位置情報計測部12を備える第1電子機器10を複数備えるようにシステムを構成してもよい。また、第1電子機器10が複数の位置情報計測部12(i)を備えるように構成してもよい。
 第1実施形態においては、複数の第1計測座標系(i)が存在する場合に対応できるように、第1計測座標系(i)とは独立した基準座標系を備えるように構成する。
 この場合、各位置情報計測部12(i)を基準座標系における座標値が既知となる場所に設置することで、各第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列(以下、「」ともいう)を予め算出することができる。
 これに対して、基準座標系を設定するための基準座標系マーカーを用いて、各第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列を予め算出するように、キャリブレーションを行うようにしてもよい。
 以下、キャリブレーションについて説明する。
 基準座標系を設定するために、基準座標系マーカーを現実空間中に設置する。なお、基準座標系マーカー10Aは、キャリブレーションを行った後に、現実空間から撤去される。
 基準座標系マーカー10Aは、例えば第2電子機器20の備えるマーカー23と同様に、各頂点を同一の半径の球体とした3辺を有する三角形の形状をした構造体とすることができる。球体の半径、球体の表面の色、及び三角形の辺の長さは、適宜設定することができる。ここでは、計算式を簡単にするために、例えば、基準座標系マーカー10Aは、3辺の長さがそれぞれ3jcm、4jcm、5jcm(jは、1以上の任意の整数)となる直角三角形と仮定するが、三角形を任意の形状とした場合も同様に、キャリブレーションをすることができる。
 基準座標系マーカー10Aにおける直角三角形の直角に対応する頂点をW、辺の長さが4jcmとなる辺のW以外の頂点をW、辺の長さが3jcmとなる辺のW以外の頂点をWとする。W、W、Wは、それぞれ、各球体の中心と一致する。
 そして、頂点Wを始点として頂点Wを終点とするベクトル(以下「ベクトルW」という)と、頂点Wを始点として頂点Wを終点とするベクトル(以下「ベクトルW」という)との外積ベクトルを頂点Wを始点として表現した場合の終点をWとする。
 このようにして、一例として、基準座標系マーカー10Aにより、Wを原点、ベクトルWoWをX軸、ベクトルWをY軸、ベクトルWをZ軸とする、基準座標系を規定することができる。
 具体的には、各点W、W、W、Wの基準座標系における座標値は、次のとおりである。
 W=(0,0,0)
 W=(4j,0,0)
 W=(0,3j,0)
 W=(0,0,12j
 なお、上記座標値は、一例であって、マーカー23が直角三角形でない任意の三角形とした場合、一例として、例えば、Wを原点として、ベクトルWをX軸とし、三角形WをXY平面とすることで、基準座標系を規定することができる。その場合の座標値は、当該三角形に基づいて算出される。
 基準座標系は、基準座標系マーカー10Aにより任意に設定することができる。
 位置情報計測部12(i)のキャリブレーションのために、マーカー位置情報算出部31は、位置情報計測部12(i)により計測された計測情報に基づいて、基準座標系マーカー10Aを検出し、検出した基準座標系マーカー10Aの構成要素(基準座標系マーカー10Aの頂点W、W、W)の第1計測座標系(i)における座標値を算出する。
 算出された基準座標系マーカー10Aの頂点W、W、Wの第1計測座標系(i)における座標値をそれぞれ
=(a,b,c
=(a,b,c
=(a,b,c
=(a,b,c)とする。
 ここで、ベクトルWは、ベクトルWとベクトルWとの外積であることから、Wの座標値は、次のように、W、W、Wの座標値で表すことができる。
 a=(b-b)・(c-c)-(c-c)(b-b)+a
 b=(c-c)・(a-a)-(a-a)・(c-c)+b
 c=(a-a)・(b-b)-(b-b)・(a-a)+c
 第1電子機器10の位置情報計測部12(i)の備える第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列をとすると、以下の式1が成立する。
Figure JPOXMLDOC01-appb-M000001
 キャリブレーション処理部32は、基準座標系マーカー10Aの頂点W、W、Wの位置を表す第1計測座標系における座標値に基づいて、式2によって、位置情報計測部12(i)における第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列を算出することができる。
Figure JPOXMLDOC01-appb-M000002
 第1電子機器10は、キャリブレーション処理部32により算出した基準座標変換行列を、例えば3次元データ処理部40の記憶部(図示せず)に記憶するようにしてもよい。
 なお、三角形を任意の形状とした場合に、各点W、W、W、Wの基準座標系における座標値を以下の値、
 W=(0,0,0)
 W=(x,0,0)
 W=(x,y,0)
 W=(x,y,z
 とすると、
 式2´によって、位置情報計測部12における第1計測座標系における座標値を基準座標系における座標値に変換するための基準座標変換行列を算出することができる。
Figure JPOXMLDOC01-appb-M000003
[基準座標系マーカー10Aの検出方法について]
 マーカー位置情報算出部31による基準座標系マーカー10Aの検出方法の一例について説明する。なお、ここで説明する検出方法は、マーカー位置情報算出部31が第2電子機器20nの備えるマーカー23(n)を検出する際にも適用される。
 ここでは、説明を簡単にするために、基準座標系マーカー10Aに対応する球体の表面の色をRED、球体の半径を5cm、直角三角形の各辺の長さを30cm、40cm、50cmと仮定する。
 また、キャリブレーションに際しては、計測対象範囲内には、基準座標系マーカー10A以外に(特に、半径5cm、色がREDとなる)球体を設置しないようにすることが好ましい。
 マーカー位置情報算出部31は、位置情報計測部12(i)により計測された計測対象範囲内において色がREDの部分を抽出して、当該抽出したREDの部分の深度画像データ、すなわち当該抽出したREDの部分表面の各点のRGBの色情報である(R)と、各点(画素単位)の位置を表す第1計測座標系(i)における3次元座標(x、y、z)と、からなる点データの集合を計測画像データとして取得し、記憶部(図示せず)に記憶する。
 マーカー位置情報算出部31は、位置情報計測部12(i)により計測された計測画像データ及び記憶部に格納された色がREDである計測画像データの位置情報に基づいて、基準座標系マーカー10Aを構成する球体を示す円を抽出する。
 具体的には、マーカー位置情報算出部31は、計測画像データから例えば公知のラプラシアン変換、Sobel法又はCanny法等により、物体の輪郭部分の抽出を行い、エッジ画像を生成する。この際、マーカー位置情報算出部31は、記憶部に格納された色がREDである計測画像データとその周辺を含む画像データを対象として、エッジ画像を生成するようにしてもよい。マーカー位置情報算出部31は、エッジ画像から公知のHough変換により円を抽出する。マーカー位置情報算出部31は、抽出された円の座標が記憶部に格納された色がREDである計測画像データに含まれるものを抽出する。マーカー位置情報算出部31は、さらに、抽出された円の半径を計算することにより、半径が5cmとなる円のみを抽出するように構成される。こうすることで、マーカー位置情報算出部31は、基準座標系マーカー10Aの直角三角形の各頂点に対応する各球体に対応する円を抽出する。
[基準座標系マーカー10Aの頂点W、W、Wの第1計測座標系における座標値]
 マーカー位置情報算出部31は、抽出された円の深度データの中から最も小さな値となる点、すなわち最も視平面、すなわち位置情報計測部12(i)(深度カメラ)の平面に近い点の座標を(a,b,c)とした場合に、Z軸方向に垂直に(球体の半径となる)5cmプラスした点の座標(a,b,c+5)を球の中心として求めることができる。
 また、円上の直径を形成する任意の2点の中心となる座標値を求めることで、各球体の中心の座標値を算出するようにしてもよい。
 例えば、抽出された円の直径を形成する円上の任意の2点A1及びA2の座標値をそれぞれ、(x、y、z)及び(x、y、z)とした場合、球体の中心の座標値(a´、b´、c´)は、式3のように算出することができる。
 a´=(x+x)/2
 b´=(y+y)/2
 c´=(z+z)/2                  (式3)
 マーカー位置情報算出部31は、このようにして基準座標系マーカー10Aの各頂点の第1計測座標系(i)における座標値を算出する。その後、マーカー位置情報算出部31は、算出した基準座標系マーカー10Aの各頂点の第1計測座標系(i)における座標値に基づいて、各三角形の辺の長さを算出し、算出した辺の長さに基づいて、各頂点が基準座標系マーカー10Aの頂点W、W、Wのいずれに対応するか、を判定することができる。
 このように、マーカー位置情報算出部31は、基準座標系マーカー10Aの頂点W、W、Wの位置を表す第1計測座標系(i)における座標値を算出することができる。
 上記の例においては、基準座標系マーカー10Aに対応する球体の表面の色をRED、球体の半径を5cmと仮定したが、球体の色をRED以外の色(例えば、色A)、球体の半径を5cm以外の長さ(例えば、半径Rcm)とすることができる。
 この場合、マーカー位置情報算出部31は、計測対象範囲内の色が色Aの部分を抽出して、抽出した色Aの部分表面の各点のRGBの色情報と、各点(画素単位)の位置を表す3次元座標(x、y、z)と、からなる点データの集合を計測画像データとして抽出すればよい。
 そうした上で、マーカー位置情報算出部31は、エッジ画像を生成し、生成したエッジ画像からHough変換により円を抽出し、円の半径を計算することにより、色Aで半径Rの球体の中心を求めるように構成することができる。
 以上、マーカー位置情報算出部31による、基準座標系マーカー10Aの検出方法について説明した。
[マーカー23の検出]
 基準座標系マーカー10Aの検出方法は、後述する第2電子機器20nの備えるマーカー23(n)の検出にも適用される。
 なお、マーカー23(n)を構成する三角形の辺の長さを各第2電子機器20n毎に異なる長さにすることで、位置情報計測部12の計測対象範囲に複数の第2電子機器20nが計測される場合において、辺の長さにより、当該マーカー23(n)を有する第2電子機器20を識別するように構成することができる。
 同様に、マーカー23(n)を構成する球体の半径を各第2電子機器20n毎に異なる長さに予め設定しておくことで、位置情報計測部12(i)の計測対象範囲に複数の第2電子機器20nが計測される場合において、球体の半径により、当該マーカー23(n)を有する第2電子機器20nを識別するように構成することができる。
 同様に、マーカー23(n)を構成する球体の表面の色を各第2電子機器20n毎に異なる色に予め設定しておくことで、位置情報計測部12(i)の計測対象範囲に複数の第2電子機器20nが計測される場合において、球体の色により、当該マーカー23(n)を有する第2電子機器20nを識別するように構成することができる。
[マーカー座標系と第2座標系との間の座標変換]
 第1実施形態は、座標系算出部30の備えるマーカー位置情報算出部31が、位置情報計測部12(i)により計測された計測情報に基づいて、第2電子機器20nの備えるマーカー23(n)を検出し、検出したマーカー23(n)の構成要素(マーカー23の頂点等)の第1計測座標系(i)における座標値(マーカー位置情報)を算出し、マーカー位置情報に基づいて、第2電子機器20nの備える第2座標系(n)における座標値を基準座標系における座標値に変換するための座標変換行列を算出するというものである。
 このためには、第2電子機器20nの3次元計測部22nの備える第2座標系(n)における座標値を第2電子機器20nの備えるマーカー23(n)によるマーカー座標系による座標値に変換するためのマーカー座標変換行列(以下、「」という)を予め算出しておく必要がある。
 この場合、マーカー23(n)における三角形の頂点(C´、C´、C´)を第2座標系(n)における座標値が既知となる位置に取り付けることで、第2座標系(n)における座標値をマーカー座標系(n)における座標値に変換するためのマーカー座標変換行列を予め算出することができる。
 これに対して、マーカー23(n)における三角形の頂点(C´、C´、C´)の第2座標系(n)における座標値が必ずしも既知でない場合又は取り付け時に誤差が生じる場合、第2電子機器20nを予め固定した位置においた状態で、キャリブレーションを行うことで、マーカー座標変換行列を算出することができる。
 以下、マーカー23(n)によるキャリブレーションについて説明する。
 図3に、第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列、3次元計測部22nの備える第2座標系(n)における座標値を基準座標系における座標値に変換するための座標変換行列(以下、「」という)、第2座標系(n)における座標値をマーカー座標系(n)における座標値に変換するためのマーカー座標変換行列、マーカー座標系(n)における座標値を第1計測座標系(i)における座標値に変換するための第1計測座標変換行列(以下、「Mn」という)間の関連を示す。
 マーカー座標変換行列を算出するために、第2電子機器20nを予め固定した位置においた状態で、3次元計測部22nの備える第2座標系(n)における座標値を基準座標系における座標値に変換するための座標変換行列を算出する。
 これと同時に、第2電子機器20nを予め固定した位置においた状態で、第2電子機器20nの備えるマーカー23(n)によるマーカー座標系(n)による座標値を第1電子機器10の位置情報計測部12(i)の備える第1計測座標系(i)における座標値に変換するための第1計測座標変換行列Mnを算出する。
[第2座標系を基準座標系に変換するための座標変換行列
 まず、第2電子機器20nを予め固定した位置においた状態で、3次元計測部22nの備える第2座標系(n)における座標値を基準座標系における座標値に変換するための座標変換行列を算出するための構成について説明する。
 ここで、第2電子機器20nの備える3次元計測部22nによる、基準座標系マーカー10Aの検出については、第1電子機器10の位置情報計測部12(i)による基準座標系マーカー10Aの検出方法と同様の方法が適用できる。
 すなわち、マーカー位置情報算出部31は、第2電子機器20nの3次元計測部22nにより計測された計測情報に基づいて、基準座標系マーカー10Aを検出し、その頂点W、W、Wの位置を表す第2座標系(n)における座標値を算出する。そうすることで、キャリブレーション処理部32は、3次元計測部22nの備える第2座標系(n)における座標値を基準座標系における座標値に変換するための座標変換行列を算出することができる。
 なお、上記の例では、座標系算出部30の備えるマーカー位置情報算出部31が、3次元計測部22nにより計測した計測画像データに基づいて、基準座標系マーカー10Aを検出し、検出した基準座標系マーカー10Aの構成要素(基準座標系マーカー10Aの頂点W、W、W)の第2座標系(n)における座標値を算出した。
 しかしながら、第2電子機器20nにそれぞれマーカー位置情報算出部(図示せず)を設けて、第2電子機器20nのマーカー位置情報算出部により、基準座標系マーカー10Aの構成要素(基準座標系マーカー10Aの頂点W、W、W)の第2座標系(n)における座標値を算出するように構成してもよい。
[マーカー座標系を第1計測座標系に変換するための第1計測座標変換行列T
 次に、第2電子機器20nを予め固定した位置においた状態で、マーカー座標系(n)における座標値を第1計測座標系(i)における座標値に変換するための第1計測座標変換行列Mnを算出するための構成について説明する。
 マーカー23(n)によるマーカー座標系(n)とは、前述したとおり、マーカー23(n)における三角形の頂点をそれぞれ、原点、X軸上の点、Y軸上の点とする座標系を意味する。
 なお、説明を簡単にするため、マーカー23(n)における三角形を3辺の比が3:4:5となる直角三角形とする。
 具体的には、各点C´、C´、C´、C´のマーカー座標系(n)における座標値は、次のとおりである。
 C´=(0,0,0)
 C´=(4i,0,0)
 C´=(0,3i,0)
 C´=(0,0,12i
 前述したように、マーカー位置情報算出部31は、位置情報計測部12(i)による計測情報に基づいて、マーカー23(n)を検出し、検出したマーカー23(n)の構成要素(マーカー23(n)の頂点C´、C´、C´)の第1計測座標系(i)における座標値を算出する。
 このようにして、算出されたマーカー23(n)の頂点C´、C´、C´の第1計測座標系(i)における座標値を
C´=(p,q,r
C´=(p,q,r
C´=(p,q,r
C´=(p,q,r)とする。
 ここで、ベクトルC´C´は、ベクトルC´C´とベクトルC´C´との外積であることから、C´の座標値は、次のように、C´、C´、C´の座標値で表すことができる。
 p=(q-q)・(r-r)-(r-r)(q-q)+p
 q=(r-r)・(p-p)-(p-p)・(r-r)+q
 r=(p-p)・(q-q)-(q-q)・(p-p)+r
 こうすると、以下の式4が成立する。
Figure JPOXMLDOC01-appb-M000004
 このように、キャリブレーション処理部32は、マーカー23(n)の頂点C´、C´、C´の位置を表す第1計測座標系(i)における座標値に基づいて、式5によって、マーカー座標系(n)を第1計測座標系(i)に変換するための第1計測座標変換行列Mnを算出することができる。
Figure JPOXMLDOC01-appb-M000005
 なお、上記式は、マーカー23(n)における三角形を3辺の比が3:4:5となる直角三角形とした場合の一例であって、マーカー23(n)を任意の三角形とした場合、各点C´、C´、C´、C´のマーカー座標系(n)における座標値は、当該三角形に基づいて、算出される。
[第2座標系をマーカー座標系に変換するためのマーカー座標変換行列
 第2電子機器20nの3次元計測部22nの備える第2座標系(n)における座標値を第2電子機器20nの備えるマーカー23(n)によるマーカー座標系(n)による座標値に変換するためのマーカー座標変換行列とする。
 図3を参照すると、第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列、基準座標系における座標値を第2座標系(n)における座標値に変換するための第2座標変換行列 -1、第2座標系(n)における座標値をマーカー座標系(n)における座標値に変換するためのマーカー座標変換行列、マーカー座標系(n)における座標値を第1計測座標系(i)における座標値に変換するための第1計測座標変換行列Mnの順番に掛け合わせることにより、式6に示すように、第1計測座標系における座標値を第1計測座標系における座標値に変換する単位行列Eとなる。
 Mn -1=E    (式6)
 以上から、キャリブレーション処理部32は、式7によって、第2電子機器20nの3次元計測部22nの備える第2座標系(n)における座標値を第2電子機器20nの備えるマーカー23(n)によるマーカー座標系(n)における座標値に変換するためのマーカー座標変換行列を算出することができる。
 Mn -1 -1    (式7)
 このように、キャリブレーション処理部32は、位置情報計測部12(i)における第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列、及び第2電子機器20nの3次元計測部22nの備える第2座標系(n)における座標値を第2電子機器20nの備えるマーカー座標系(n)における座標値に変換するためのマーカー座標変換行列を算出する。
 ここで、基準座標変換行列、及びマーカー座標変換行列は、それぞれ固定の変換行列である。
 以上のように、各位置情報計測部12(i)(1≦i≦M)、及び各第2電子機器20n(1≦n≦N)のキャリブレーションを行い、第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列、及び第2座標系(n)における座標値をマーカー座標系(n)における座標値に変換するためのマーカー座標変換行列を算出した後、第1電子機器10(キャリブレーション処理部32)は、例えば3次元データ処理部40の記憶部に記憶するようにしてもよい。その後、基準座標系マーカー10Aを現実空間から撤去することができる。
[基準座標変換行列の補正について]
 なお、位置情報計測部12(i)(1≦i≦M)の備える第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列とすると、現実空間上に例えば、基準座標系マーカー10Aを適当に置いた場合、当該基準座標系マーカー10Aの各頂点W、W、W及びベクトルWとベクトルWとの外積ベクトルをWとした場合の、各点W、W、W、Wの位置情報計測部12(i)(1≦i≦M)の第1計測座標系(i)における座標値をそれぞれ、W(i)、W(i)、W(i)、W(i)とする。
 そうすると、これらの座標値を第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列で変換して得られる基準座標系における座標値(W(i))、(W(i))、(W(i))、(W(i))は、全て同一の座標値となるはずである。
 しかしながら、仮に、位置情報計測部12(i)(1≦i≦M)による測定誤差により、座標値がずれる場合、例えば、iが2以上の第1計測座標系(i)における座標値を基準座標系における座標値を基準座標系に変換した座標値{(W(i))、(W(i))、(W(i))、(W(i))}(i≧2)の値が、1番目の第1計測座標系(1)における座標値を基準座標系における座標値を基準座標系に変換した座標値{(W(i))、(W(i))、(W(i))、(W(i))}に一致するように、第1計測座標系(i)(i≧2)における座標値を基準座標系における座標値に変換するための基準座標変換行列(i≧2)を補正するようにしてもよい。
 そうすることで、補正後の第1計測座標系(i)(i≧2)における座標値を基準座標系における座標値を基準座標系に変換した座標値{(W(i))、(W(i))、(W(i))、(W(i))}(i≧2)の値は、1番目の第1計測座標系(1)における座標値を基準座標系における座標値を基準座標系に変換した座標値{(W(i))、(W(i))、(W(i))、(W(i))}に一致するようにできる。
 以上、第1電子機器10の備える第1機能部、第2電子機器20の備える第2機能部、及び座標系算出部30の備える座標系算出機能部について説明した。
 このように、第1電子機器10の位置情報計測部12(i)及び座標系算出部30は、第2電子機器10nの備えるマーカー23(n)のマーカー位置情報(n)を正確に算出することができる。そうすることで、3次元計測部22nの視線方向及び視線周りの回転角が決まり、例えば従来のように例えば加速度センサやジャイロセンサ等により視線方向及び視線周りの回転角を算出するよりも、正確な位置情報を得ることができる。
 次に、3次元データ処理部40について説明する。
<3次元データ処理部40について>
 図1Eに示すように、3次元データ処理部40は、点群データ座標値変換部41と、合成点群データ作成部42と、を含む。また、合成点群データ作成部42は、さらに、第1合成点群データ作成部421と、点群データマッチング部422と、を備える。
[点群データ座標値変換部41]
 nを第2電子機器20(3次元計測部22)のインデックス(識別番号)、計測時刻をtとしたとき、点群データ座標値変換部41は、点群データ{Qn(t)}(1≦n≦N)(t:タイムスタンプ)を、同一座標系(基準座標系)の座標に変換するための座標変換行列{Fn(t)}(1≦i≦M)(1≦n≦N)(t:タイムスタンプ)を算出し、各点群データQn(t)の各点を表す第2座標系における座標値から基準座標系における座標値への座標変換を行う。
 以下に、点群データ座標値変換部41が、時刻tにおいて位置情報計測部12(i)により計測される第2電子機器20nのマーカー位置情報(t)(ここで、iは位置情報計測部12の識別番号(1≦i≦M)、nは第2電子機器20の識別番号、tはタイムスタンプ)に基づいて、各点群データQn(t)の各点を示す第2座標系における座標値を基準座標系における座標値に変換するための変換行列Fn(t)を算出する処理について、説明する。
 前述したように、キャリブレーションにより、位置情報計測部12(i)の備える第1計測座標系(i)(1≦i≦M)における座標値を基準座標系における座標値に変換するための基準座標変換行列が、3次元データ処理部40の記憶部に記憶されている。
 同様に、キャリブレーションにより、第2電子機器20n(1≦n≦N)の3次元計測部22nの備える第2座標系(n)における座標値を第2電子機器20nの備えるマーカー23(n)によるマーカー座標系(n)における座標値に変換するためのマーカー座標変換行列が、3次元データ処理部40の記憶部に記憶されている。
 まず、点群データ座標値変換部41は、マーカー位置情報の集合{(t)}(1≦n≦N,1≦i≦M,t:タイムスタンプ)と3次元計測部22nにより計測された点群データの集合{Qn(t)}(1≦n≦N)(t:タイムスタンプ)のタイムスタンプとを突合せすることで、点群データの計測位置を特定することができる。
 なお、点群データQn(t)を測定したときの測定時刻とマーカー位置情報(t)を測定したときの測定時刻とが必ずしも一致しない場合には、例えば点群データQn(t)を測定したときの測定時刻の近傍の時刻におけるマーカー23(n)のマーカー位置情報を用いて、線形補完することができる。
 点群データ座標値変換部41は、時刻t及び第2電子機器20の識別番号nに基づいて、各点群データQn(t)とマーカー位置情報(t)とを対応づけることができる。
 点群データ座標値変換部41は、Qn(t)に対して、(t)を対応付ける。
 なお、位置情報計測部12(i)を複数備える場合、Qn(t)に対して、異なる位置情報計測部12(i)及び位置情報計測部12(j)(i≠j)によりそれぞれ算出された位置情報(t)及び(t)(i≠j)が対応付けられる可能性がある。
 そこで、点群データ座標値変換部41は、Qn(t)に対して、複数のマーカー位置情報から、所定の条件を満たす1つのマーカー構成要素位置情報(t)を選択する。
 例えば、選択するための条件としては、(i、t)に対して、集合{(t)}の個数が最大となる(i)を選択するようにしてもよい。すなわち、位置情報計測部12(i)により、マーカー位置情報(n)を取得することができた第2電子機器20の個数が最大となるiを選択する。
 こうすることで、後述する座標値変換の効率をあげることが可能となる。
 そこで、Qn(t)に対して(t)が選択されたとする。
 前述したように、点群データ座標値変換部41は、マーカー位置情報(t)に基づいて、マーカー座標系(n)における座標値を第1計測座標系(i)における座標値に変換するための第1計測座標変換行列Mn(t)を算出することができる(式5参照)。
 他方、予めキャリブレーションによって算出された第2座標系(n)における座標値をマーカー座標系(n)における座標値に変換するためのマーカー座標変換行列、第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列をとすると、点群データ座標値変換部41は、タイムスタンプtにおいて、点群データの点Qn(t)の第2座標系(n)での座標が(x,y,z)で表される点に対して、マーカー座標変換行列、第1計測座標変換行列Mn(t)、及び基準座標変換行列による座標変換を行うことで、基準座標系での座標(x,y,z)を算出する(式8参照)。
 すなわち、Fn(t)=Mn(t)・となる。
Figure JPOXMLDOC01-appb-M000006
 このようにして、点群データ座標値変換部41は、点群データQn(t)の各点を示す第2座標系における座標値を基準座標系における座標値にリアルタイムに変換することができる。
 マーカー位置情報算出部31は、マーカー位置情報(t)をリアルタイムに算出して、第2電子機器20n毎に、ネットワークを介して、3次元データ処理部40(点群データ座標値変換部41)に、例えば通信等のインターフェースを介して引き渡すように構成することができる。
 なお、マーカー位置情報算出部31は、マーカー位置情報(t)をリアルタイムに算出して、第2電子機器20n毎に、ネットワークを介して3次元データ保存部60の第2電子機器位置情報記憶部62にリアルタイムに記憶し、第2電子機器位置情報記憶部62を介して3次元データ処理部40(点群データ座標値変換部41)に引き渡すようにしてもよい。
 このようにして、本発明の点群データ取得システム100は、点群データQn(t)の各点を基準座標系での座標値で構成される点群データ{Q´n(t)}にリアルタイムに変換することができる。
[合成点群データ作成部42]
 合成点群データ作成部42は、第1合成点群データ作成部421と、点群データマッチング部422と、を備える。
[第1合成点群データ作成部421]
 第1合成点群データ作成部421は、点群データ座標値変換部41により、時刻tにおける各点群データQn(t)の各点の第2座標系での座標値を、基準座標系での座標値に変換した各点群データ{Q´n(t)} (1≦n≦N)間の基準座標系での座標値が同じ点については、同一点として、重ね合わせることで、合成点群データQ´(t)を作成することができる。
[点群データマッチング部422]
 しかし、各点群データ{Q´n(t)}(1≦n≦N)間の基準座標系での座標値が同じ点であっても、測定誤差等により、位置ずれが発生する可能性がある。
 このため、点群データマッチング部422は、点群データ座標値変換部41により、基準座標系での座標に変換した各点群データ{Q´n(t)}の各点の座標値に基づいて、それぞれの点群データ{Q´n(t)}(1≦n≦N)から抽出した3次元形状に係る特徴パラメータ(例えば、曲面の曲率(ガウス曲率))に基づいて重なる部分の位置合わせ(マッチング)を、行うことで、位置ずれを補正することができる。
 そうすることで、同一の基準座標系での座標で表される複数の点群データ{Q´n(t)}(1≦n≦N)を用いて、より正確な欠損部分の少ない3次元立体となる合成点群データ(以下、「Q(t)」と表す)を取得することができる。
 なお、隣り合う計測時刻(例えば、t、ti+1)に、同じ3次元計測部22nにより計測された点群データQn(t)及びQn(ti+1)について、位置ずれがある場合にも、必要に応じて、重なる部分の位置合わせ(マッチング)を行うことで、位置ずれを補正することができる。
 なお、位置ずれの補正については、バックグラウンド処理として、例えば、1秒1回程度のサンプリングとしてもよい。
 点群データの位置合わせ(マッチング)は、例えば周知の技術であるICP法と呼ばれる位置合わせ手法を用いることもできる。ICP法は、位置合わせを行うそれぞれの点群データについて、最近傍頂点間距離の二乗和を反復計算により最小化(収束)させることで位置合わせを行うものである。
 しかしながら、ICP法は総当たり方式であるため、データ量が多くなると、膨大な時間を要していた。
 また、位置合わせのための判定指標として、色情報を用いる方法もある。しかしながら、色は、同一個所であっても、見る角度や光の当たり具合によって違って見えることもあり、したがって、異なる位置から測定された点群データQn(t)とQm(t)(n≠m)とを、色を判定指標とするマッチングは不安定であった。
 点群データマッチング部422では、判定指標として、各点の形状面での特性を示す「曲面の曲率」を用いるようにしてもよい。点群データ間において、頂点や尖った点等の特徴点ではなく、「ある程度の広がりを持った面」を考え、曲面の曲率を用いることで、それらの「凹凸具合の一致度」を見ることで、判定指標とする。
 曲面の曲率は、座標系に依存しない物理的数学的特性であって、同じ曲面の同一箇所の凸凹度合いは、どの位置(すなわち、どの3次元計測部22)から見ても同じになることから、マッチングの判定指標として使用することができる。「曲面の曲率」を用いることで、どの3次元計測部22から測定されても、「曲面」の曲率は同一の値をとることが想定されることから、位置合わせ時のエラー発生を減少させることができる。また、マーカー設置の手間が無く、色情報と違って光が不要なため、光源(太陽等)の具合に左右されることがない。
 なお、曲面の曲率としては、例えばガウス曲率、平均曲率等があるが、第1実施形態では、ガウス曲率を適用することができる。
 また、マッチング処理の前処理もまた重要である。
 具体的には、点群データマッチング部422は、まず複数の点群データを基準座標系での座標値を突き合わせ、その積集合を得ることで、マッチング処理対象となる点群データの範囲を限定する。このことにより、マッチング処理に要する計算量を大幅に減らすことができ、システム全体の速度向上に寄与することができる。また、積集合が空集合の場合は、そもそもマッチング処理をしなくてよい。
 次に、点群データマッチング部422は、部分的に重なる、点群データA及び点群データBの重なる部分において、「両曲面」上の「ある程度の広がりをもった面」上の各点の曲率を求め、それらを比較して、例えば曲率の差の合計が最小となるような最適な変換を、これら一連の処理を繰り返しながら求める。
 ここで、点群データマッチング部422は、曲率の計算を、例えば次のように行うことができる。まず、曲面の曲率を求める1つの点群データQn(t)の点(x、y、z)を原点とし、その点を含む、例えば基準座標系の平面X及びYに平行となる、平面X’Y’を含む局所座標系(x´、y´、z´)を設定する。次に、その点(x、y、z)の近傍点における「曲面」の局所座標を求める。この「曲面」の局所座標値は、点(x、y、z)の近傍にある点群データの点(x、y、z)により算出できる。そうすることで、「曲面」上のz値と(x、y)との関係を得ることができる。
 例えば近傍点は、xの隣り合う値を例えばx-2、x-1、x、x+1、x+2等として表すと、
(x+1、y)、(x+2、y)、・・・
(x-1、y)、(x-2、y)、・・・
(x、y+1)、(x、y+2)、・・・
(x、y-1)、(x、y-2)、・・・
等として求めることができる。
 次に2次曲面パッチp(u、v)=(u、v、au+bv+cuv+du+ev+f)を計測対象物表面に最小二乗法によって局所的に当てはめて、2次元曲面パッチの偏導関数から、曲面の曲率を計算する。
 最後に、対象物の曲面が滑らかであることを制約条件として用いて曲率計算の精度を反復計算によって向上させて、算出する。
 しかし、この曲率を用いる方法は、正確ではあるが計算量が多くなる。あるいは、物体の場所によっては(エッジ部分等)、うまく適用できない場合がある。その場合は、従来のICP法、色情報を用いる方法等を組み合わせることで、対応することができる。
[直線のHough変換を用いた、マッチング方法]
 以上、曲率を用いる方法について、説明したが、直線のHough変換を用いた点群データのマッチング方法について説明する。
 2つの深度画像をA,Bとし、基準座標系におけるその点群データをそれぞれA,Bとする。
 点群データマッチング部422は、深度画像A及び深度画像Bのそれぞれにおいて、エッジ画像を生成し、生成した各エッジ画像からHogh変換を用いて、それぞれ直線を抽出し、それぞれから抽出した直線を第2座標系上の直線(3次元)に変換する。
 点群データマッチング部422は、深度画像A及び深度画像Bそれぞれから抽出した直線を基準座標系上の直線に変換する。
 次に、深度画像A及び深度画像Bから抽出された基準座標系上の直線(3次元直線)をそれぞれ、4次元上の点として表現する。
 より具体的には、点群データマッチング部422は、深度画像Aから得られた3次元直線をAwi(0≦i≦n)、深度画像Bから得られた3次元直線をBwj(0≦j≦n)とした場合、3次元直線Awi(0≦i≦n)及び3次元直線Bwj(0≦j≦n)をそれぞれ4次元空間上の点として以下のように表わすことができる。
     Awi=(αAi,βAi,lAi,mAi) (0≦i≦n
     Bwj=(αBj,βBj,lBj,mBj) (0≦j≦n
 一般に、3次元直線Lを4次元上の点として表す変換としては、例えば次の例が挙げられるが、この例に限定されるものではない。
 直線Lの方向ベクトル(原点Oを始点とする方向ベクトル)の終点Pから、XZ平面上に垂直に引いた直線のXZ平面との交点Qとすると、OQとX軸との角度α、辺QOと辺POとの角度をβとする。こうすることで、直線Lの方向ベクトルが決定される。
 次に、方向ベクトルの法平面上と直線Lとの交点の座標を(m、l)とすると、直線Lは、4次元上の点(α,β,l,m)で表すことができる。
 そうすることで、点群データマッチング部422は、全てのi(0≦i≦n)とj(0≦j≦n)について、4次元上の点AwiとBwjとの4次元上の距離Dijを算出し、その距離の値が0に近い値となる組み合わせを4個を抽出する。
 こうすることで、深度画像A及び深度画像Bにおいてマッチングする直線を4個抽出することができる。
 このようにして、点群データマッチング部422は、4個のペア(Awi,Bwj)を抽出した後、各点Awi及びBwjを3次元空間上の直線に変換して、直線Bwjを直線Awiに変換するための行列を算出することで、点群データBを点群データAとにマッチングするための変換行列を得ることができる。
 このように、点群データマッチング部422は、これら一連の作業を、各点群データ毎に行い、それぞれの一致度合いを見ながら、複数の点群データを合成していくことで、マッチングを行うことができる。そして、その結果は、後述する3次元データ表示制御部50に、例えば通信等のインターフェースを介して、引き渡すように構成することができる。なお、後述する3次元データ表示制御部50に引き渡すに際して、例えば、3次元データ保存部60の記憶部(図示せず)に格納し、当該記憶部を介して引き渡すようにしてもよい。
 なお、上述した点群データマッチング部422のマッチング処理として、ICPマッチング処理、曲率を用いたマッチング処理、及び直線を用いたマッチング処理について説明したが、これらのマッチング処理に限定されるものではない。これらのマッチング処理を組み合わせて使用してもよい。また、別のマッチングアルゴリズムを使用してもよい。
 このようにして、点群データマッチング部422は、点群データ座標値変換部41により、同時刻に計測された複数の点群データ(例えば、{Qn(t)}(1≦n≦N))を、点群データ座標値変換部41により変換された基準座標系(第1座標系)における座標値に基づいて重なる部分の位置合わせを行った後に、必要に応じて、測定誤差等により、各点群データ{Qn(t)}(1≦n≦N)間の基準座標系での座標値が同じであっても、位置ずれの発生した場合の補正を行うことで、より正確な、欠損部分の少ない1つの合成点群データを取得することができる。
 こうすることで、例えば、形状の変化する計測対象物の多視点同時刻の点群データの合成を行うことができる。
 なお、形状の変化しない静止した計測対象物の場合には、第2電子機器20nを移動させないで、すなわち、基準座標系における座標値が同じ値となる、同一位置において計測された複数の点群データを、点群データ座標値変換部41により変換された基準座標系(第1座標系)における座標値に基づいて、重なる部分の位置合わせを行うことで、1つの合成点群データを作成することができる。
 この場合は、タイムスタンプを省略することができる。
 また、形状の変化しない静止した計測対象物の場合には、1つの第2電子機器20を当該計測対象物の周りを移動しながら計測することで得られる複数の点群データを、点群データ座標値変換部41により変換された基準座標系における座標値に基づいて、重なる部分の位置合わせを行うことで、1つの合成点群データを作成することができる。
<3次元データ表示制御部50>
 次に、3次元データ表示制御部50について説明する。
 図1Fに示すように、3次元データ表示制御部50は、視点操作部51と、データ表示方式選択部52と、データ再生・保存指示部53と、3次元データ表示処理部54と、を備える。
 点群データは、そのままの形式でレンダリングすることは可能であるが、そのデータ形式のままでは、各種の3次元処理には適さないことが多い。
 このため、点群データを面形式に変換し、例えばポリゴン、不整三角網のメッシュ、及びCADモデルとして扱うことができる。
 また、点群データは、各点データが三次元座標値を持つため、自由視点からのデータ閲覧及び空間参照を実現できる。具体的には、点群データ自体が有する3次元座標値を用いて、点群データを3次元空間から、例えばパノラマ空間への投影が可能となる。
[視点操作部51]
 視点操作部51は、利用者の視点方向、視点座標等の入力を利用者から受け取ることができる。このことにより、表示画像のズーム等のカメラワークと同様の操作が可能となる。
[データ表示方式選択部52]
 データ表示方式選択部52は、表示画像の表示方式に関する指示を利用者から受け取ることができる。例えば、3次元空間上の点群データをどのような投影面に投影するか、を選択することができる。例えばパノラマモデルは、球面、円柱、立方体等の投影面を選択できる。
[データ再生・保存指示部53]
 データ再生・保存指示部53は、点群データから生成された3次元モデルデータの再生又は保存に関する指示を利用者から受け取ることができる。
[3次元データ表示処理部54]
 3次元データ表示処理部54は、合成点群データ作成部42により作成された合成点群データを、視点操作部51により入力された利用者の仮想視点に基づいて、マッピング加工を行い、その結果の表示画像をディスプレイ画面に3次元表示する。
 また、3次元データ表示処理部54は、動的な3次元モデルを用いて、視点操作部51から指定された視点パラメータで3次元空間を眺めた動画像を描画することができる。
 次に、3次元データ保存部60について説明する。
 図1Gに示すように、3次元データ保存部60は、源点群データ記憶部61と、第2電子機器位置情報記憶部62と、を備える。
[源点群データ記憶部61]
 源点群データ記憶部61は、各3次元計測部22により計測された点群データに、当該計測時刻となるタイムスタンプを関連付けた点群データ情報を、第2電子機器20n毎に記憶する。
 前述したように、例えば、各3次元計測部22nにより計測対象物表面の各点を画素単位で、予め設定した時間間隔(例えば、1秒間に30コマ)で取得する場合、源点群データ記憶部61は、3次元計測部22n毎に、例えば、1/30秒単位の計測時刻(t)毎に生成される点群データ{Qn(t)}を記憶する(1≦n≦N)(t:タイムスタンプ)。
[第2電子機器位置情報記憶部62]
 第2電子機器位置情報記憶部62は、第2電子機器20の備えるマーカー23のマーカー位置情報にタイムスタンプを関連付けたマーカー位置情報を、第2電子機器20n毎、位置情報計測部12(i)毎に記憶する。
 前述したように、第2電子機器位置情報記憶部62は、すべての第2電子機器20nの、時刻tに測定される第2電子機器位置情報の集合{(t)}(1≦n≦N)(1≦i≦M)(t:タイムスタンプ)を記憶する。
 以上、これまで説明した本発明の実施形態における、一連の処理の流れを簡単に図示したものが図4である。
 図4を参照すると、ST1において、基準座標系マーカー10Aを所定の場所に設定される。各位置情報計測部12(i)(1≦i≦M)が所定の場所に設定される。同様に、第2電子機器20n(1≦n≦N)が所定の場所に設定される。
 ST2において、キャリブレーションを行うことで、第1計測座標系(i)における座標値を基準座標系における座標値に変換するための基準座標変換行列、及び第2座標系(n)における座標値をマーカー座標系(n)における座標値に変換するためのマーカー座標変換行列を算出し、3次元データ処理部40の記憶部に記憶する。
 ST3において、基準座標系マーカー10Aを現実空間から撤去する。
 ST4において、例えば、計測作業者が、移動しながら、各第2電子機器20n(3次元計測部22n)により、計測対象物の計測を開始する。
 ST5において、測定時刻t毎に、各第2電子機器20n(3次元計測部22n)は点群データQn(t)を取得する。
 ST6において、測定時刻t毎に、マーカー位置情報算出部31は、各位置情報計測部12(i)(1≦i≦M)の計測した計測情報に基づいて、各第2電子機器20nのマーカー位置情報(t)を算出する。
 ST7において、3次元データ処理部40により、3次元計測部22nの取得した点群データQn(t)と、各位置情報計測部12(i)の算出した各第2電子機器20nのマーカー位置情報(t)との対応付けがなされる。
 ST8において、3次元データ処理部40(点群データ座標値変換部41)により、点群データQn(t)の各点の第2座標系(n)における座標値を基準座標系における座標値に変換する。
 ST9において、3次元データ処理部40(合成点群データ作成部42)により、同時刻tにおける各点群データQn(t)のマッチング・結合(合成)がなされる。
 ST10において、3次元データ表示制御部50により、ユーザの仮想的な視点の指定にしたがい、当該仮想的な視点から見た3次元動画が表示される。
 以上のように、第1実施形態によれば、各3次元計測部22を自由かつダイナミックに移動させることが可能となり、計測対象物の変形に伴って生じるオクルージョンによる死角が発生する場合においても、3次元計測装置の計測位置を即座に変更して対応することで。欠損部分の少ない3次元画像を取得することができる。
 また、本発明は、このような一連の処理により、合成点群データを視点操作部51によって指定入力された視点の位置から計測対象物を見たものとしてクリッピングし、欠損部分の少ない三次元物体の画像を、任意の視点からリアルタイムで見ることができる。
 例えば、医療分野において、資料映像として残すために、手術中の患部の状況を画像撮影することがある。その際、カメラが手術の邪魔になるからと、他の位置に移動させたとしても、見る側は、実際のカメラの位置とは無関係に、常に同じ視点からの映像を見ることが可能になる。それゆえ、この方式で資料化された映像は、きわめて有用性の高いものとなる。
 また、手術者の体で隠れる視点からの映像として表示することができる。また、腹腔鏡手術においては、内臓の状況を患者の皮膚の外側からの視点で見ることもできる。
 また、本発明を撮影カメラに応用することで、スポーツ実況中継等において、その都度最適な位置にカメラを移動することで、死角を少なく、欠損部分を少なくし、ありえない視点から選手の動きを、各々の画像装置で表示することができるようになること等、様々なシーンにおいて、「撮影位置とは異なった視点からの画像表示対象物体を見ることができる」ができるようになる。
 また、合成点群データをサーバ上におき、これをネットワーク経由で例えば、スマートフォン、タブレット端末、ノートパソコン等を用いて、複数のユーザが同一の物体を任意の視点から閲覧することができる。
<第2実施形態>
<電磁波伝播時間を用いた第2電子機器20の位置情報の算出>
 第1実施形態では、第1電子機器10の備える位置情報計測部12により、第2電子機器20の備えるマーカー23の位置情報を計測することで、第2電子機器20の備える3次元計測部22の備える第2座標系から第1電子機器の備える第1計測座標系への座標変換行列を算出した。
 これに対して、第2実施形態では、電磁波(電波)が第1電子機器10の備える電波発信部12P(1≦j≦4)から発信されてから、第2電子機器20の備える電波受信部23C(1≦k≦3)により受信されるまでの12個の電波伝播時間測定値(Tjk)を測定し、各電波発信部12Pと各電波受信部23C間の直線距離Rjk(1≦j≦4,1≦k≦3)を算出し、直線距離Rjk(1≦j≦4,1≦k≦3)を用いて三角測量の原理に基づいて、第2電子機器20の備える電波受信部23C(1≦k≦3)の位置情報を算出する。
 なお、以下、簡単のため、電波発信部12P(1≦j≦4)及び電波受信部23C(1≦k≦3)を、それぞれ単にP(1≦j≦4)とC(1≦k≦3)と略して説明することもある。
 図5A、図5B、図5Cは、それぞれ、第2実施形態における点群データ取得システムの第1電子機器10、第2電子機器20、及び座標系算出部30の機能ブロックの一例を示す図である。
 図5Aに示すように、第1電子機器10は、位置情報計測部12に換えて、複数(例えば4つ)の電波発信部12P(1≦j≦4)及び距離計測部16を備える。
 図5Bに示すように、第2電子機器20は、マーカー23に換えて、複数(例えば3つ)の電波受信部23C(1≦k≦3)を備える。複数(例えば3つ)の電波受信部23C(1≦k≦3)を「位置情報ユニット」ともいう。
 ここで、第1電子機器10は基準座標系(第1座標系)を備えており、電波発信部P(1≦j≦4)は、例えば、基準座標系(第1座標系)のX軸、Y軸、Z軸上、線形独立となる位置に設定されるものとする。同様に、電波受信部23C(1≦k≦3)は、第2電子機器20側の3次元計測部22の備える第2座標系の固有座標系のX軸、Y軸、Z軸上、線形独立となる位置に設定されるものとする。
 図5Cに示すように、座標系算出部30は、第2電子機器位置情報算出部31Aを備える。
 電波発信部12P(1≦j≦4)、距離計測部16、及び第2電子機器位置情報算出部31Aを総称して、「位置情報算出部」という。
 第1電子機器10は、距離計測部16を備える。距離計測部16は、各電波発信部12P(1≦j≦4)から送信された電波を各電波受信部23C(1≦k≦3)が受信することにより、送信、受信の時間間隔(伝播時間)を算出し、その距離を計測する。
 より、具体的には、第2電子機器20の備える電波受信部23C(1≦k≦3)は、第1電子機器10の電波発信部12P(1≦j≦4)から信号を受信すると、例えば、電波受信部23C(1≦k≦3)の各識別信号(電波受信部23C(1≦k≦3)の各ID)を付加して反射させる。
 こうすることで、第1電子機器10が、距離計測部16を備えることで、電波発信部12P(1≦j≦4)から送信された電波を各電波受信部23C(1≦k≦3)が反射した反射波を受信することにより、送信、受信の時間間隔(伝播時間)が算出され、その距離を計測することができる。
 距離計測部16により、各電波発信部12P(1≦j≦4)と各電波受信部23C(1≦k≦3)間の直線距離Rjk(1≦j≦4,1≦k≦3)を算出した後は、第2電子機器位置情報算出部31Aは、三角測量の原理に基づいて、第2電子機器20の備える電波受信部23C(1≦k≦3)の第1電子機器の備える第1座標系(基準座標系)における位置情報を算出することができる。
 なお、タイムスタンプについては、各電波発信部12P(1≦j≦4)の送信時刻となるタイムスタンプを付して、第2電子機器20n毎に、第2電子機器位置情報Ln(t)(ここで、nは第2電子機器20の識別番号、tはタイムスタンプ)を3次元データ保存部60の第2電子機器位置情報記憶部62にリアルタイムに記憶することができる。
[変形例]
 前述のように、電波受信部23C(1≦k≦3)が受信した電波を反射させる方式に換えて、各電波発信部12P(1≦j≦4)から送信された電波を各電波受信部23C(1≦k≦3)が受信することにより、送信、受信の時間間隔(伝播時間)を算出し、その距離を計測するようにしてもよい。
 この場合、第1電子機器10の備える電波発信部12P(1≦j≦4)は、電波発信部12Pj(1≦j≦4)の各識別信号(電波発信部12P(1≦j≦4)の各ID)を付加して送信させるようにしてもよい。
 このようにして、距離計測部16は、第1電子機器10側の基準座標系(例えば、X軸、Y軸、Z軸上の線形独立となる4点P(1≦j≦4)から、第2電子機器20側の第2座標系(例えば、X軸、Y軸、Z軸上の線形独立となる3点C(1≦k≦3)へのそれぞれの距離Rjk(1≦j≦4,1≦k≦3)を計測することができる。
 距離計測部16により、各電波発信部12P(1≦j≦4)と各電波受信部23C(1≦k≦3)間の直線距離Rjk(1≦j≦4,1≦k≦3)を算出した後は、三角測量の原理に基づいて、第2電子機器位置情報算出部31Aは、第2電子機器20の有する各3次元計測部22の第1座標系における位置情報を算出することができる。
 次に、各第2電子機器20の第2電子機器位置情報の算出方法について説明する。
 まず、図6を参照して、距離計測部16により、電波が第1電子機器10の各電波発信部12P(1≦j≦4)から発信されてから、各第2電子機器20の各電波受信部23C(1≦k≦3)により受信されるまでの時間を計測することにより2点間の距離を算出する処理について簡単に説明する。
 ここでは、計算式を簡単にするため、各電波受信部23C(1≦k≦3)を3次元計測部22の備える第2座標軸に一致して、第2座標軸の原点Cから10cmの距離に設置していると仮定する。
 なお、図6を参照すると、例えば、レンズの焦点(あるいは、カメラの重心)を原点Cとし、光軸方向をZ’軸、水平方向をX’軸、垂直方向をY’軸とすると、C、C、Cはそれぞれ、Z’軸、X’軸、Y’軸に一致して、原点C0から一定の距離例えば10cm離れた点に設置する。
 すなわち、C,C,C,Cの第2座標系における座標値は、以下のとおりとする(単位cm)。
  Cの座標値=(0,0,0)、
  Cの座標値=(0,0,10)、
  Cの座標値=(10,0,0)
  Cの座標値=(0,10,0)
 同様に、計算式を簡単にするため、4つの電波発信部12P(1≦j≦4)のうち、Pを基準座標系(第1座標系)の原点に設置し、P、P、Pをそれぞれ基準座標軸(第1座標軸)に一致して、基準座標軸(第1座標軸)の原点Pからそれぞれ10cmの距離に設置していると仮定する。
 図6を参照すると、例えば、4つの電波発信部12P(1≦j≦4)は、それぞれ基準座標系(第1座標系)の原点、X軸、Y軸、及びZ軸に一致して設置され、各P~Pは、原点Pから一定の距離例えば10cm離れた点に設置する。
 すなわち、P、P、P、Pの基準座標系(第1座標系)における座標値は、以下のとおりとする(単位cm)。
  Pの座標値=(0,0,0)、
  Pの座標値=(10,0,0)、
  Pの座標値=(0,10,0)、
  Pの座標値=(0,0,10)
 図6には、各電波発信部12P(1≦j≦4)、及び各電波受信部23C(1≦k≦3)の位置関係を示している。
 図6に示すように、点C、C、C、及びCの基準座標系(第1座標系)における座標値をそれぞれ(x,y,z)、(x,y,z)、(x,y,z)、及び(x,y,z)と表す。
 図6に示すように、各電波発信部12P(1≦j≦4)と各電波受信部23C(1≦k≦3)間の直線距離は全部で12本あり、これらをRjk(1≦j≦4、1≦k≦3)で表す。これらの距離Rjkは、その二点間の電波の伝播時間Tjk(1≦j≦4、1≦k≦3)及び電波の速度から算出することができる。
 第1電子機器10は、各電波発信部12P(1≦j≦4)から順次、予め設定された時間間隔(例えば、6ミリ秒間隔)で、電波を発信する。各電波受信部23C(1≦k≦3)は、各電波発信部12P(1≦j≦4)の発信した電波を反射させることで、各電波発信部12P(1≦j≦4)は、反射された電波を受信する。
 このようにして、距離計測部16は、各電波発信部12P(1≦j≦4)から発信されて、各電波受信部23C(1≦k≦3)により受信されるまでのそれぞれの電波伝播時間測定値Tjk(1≦j≦4、1≦k≦3)に基づいて、各電波発信部12P(1≦j≦4)と各電波受信部23C(1≦k≦3)間の直線距離Rjk(1≦j≦4、1≦k≦3)を算出することができる。
 この際、前述したように、各電波発信部12P(1≦j≦4)の電波送信時刻となるタイムスタンプを直線距離{Rjk}(1≦j≦4,1≦k≦3)に付すことができ、当該タイムスタンプに基づいて第2電子機器位置計測結果間で関連付けが可能となる。
<3次元計測部22の位置情報の算出について>
 次に、第2電子機器位置情報算出部31Aが、各電波発信部12P(1≦j≦4)と各電波受信部23C(1≦k≦3)間の各直線距離Rjk(1≦j≦4、1≦k≦3)に基づいて、各点C、C、C、Cの基準座標系(第1座標系)における座標値を算出する処理について、前述の例に基づいて説明する。
 ここで、各点C、C、C、Cの基準座標系(第1座標系)における座標値を(x,y,z)、(x,y,z)、(x,y,z)、及び(x,y,z)とする。
 そうすると、三平方の定理に基づき、PとC間の距離、PとC間の距離、PとC間の距離、PとC間の距離は、以下の式9~式12が成り立つ。
   x 2+y 2+z 2 = R11              (式9)
   (x-10)2+y 2+z 2 = R21         (式10)
   x 2+(y-10)2+z 2 = R31         (式11)
   x 2+y 2+(z-10)2 = R41         (式12)
 第2電子機器位置情報算出部31Aは、式9~式12に基づいて、Cの基準座標系(第1座標系)における座標値(x、y、z1)を式13により算出する。
  x=(R21  - R11  +100)/20     
  y=(R31  - R11  +100)/20     
  z=(R41  - R11  +100)/20     
                          ・・・(式13)
 同様に、第2電子機器位置情報算出部31Aは、Cの基準座標系(第1座標系)における座標値(x、y、z)を、PとC間の距離、PとC間の距離、PとC間の距離、PとC間の距離に基づいて、Cの基準座標系(第1座標系)における座標値(x、y、z)を式14により算出する。
  x=(R22  - R12  +100)/20     
  y=(R32  - R12  +100)/20     
  z=(R42  - R12  +100)/20     
                          ・・・(式14)
 同様に、第2電子機器位置情報算出部31Aは、Cの基準座標系(第1座標系)における座標値(x、y、z)を、PとC間の距離、PとC間の距離、PとC間の距離、PとC間の距離に基づいて、C3の基準座標系(第1座標系)における座標値(x、y、z)を式15により算出する。
  x=(R23  - R13  +100)/20     
  y=(R33  - R13  +100)/20     
  z=(R43  - R13  +100)/20     
                          ・・・(式15)
 次に、第2電子機器位置情報算出部31Aは、Cの基準座標系(第1座標系)における座標値(x,y,z)を(式16)~(式18)に基づいて算出する。
 (x-x2+(y-y2+(z-z2 = 10  (式16)
 (x-x2+(y-y2+(z-z2 = 10  (式17)
 (x-x2+(y-y2+(z-z2 = 10  (式18)
 こうすることで、第2電子機器位置情報算出部31Aは、第2電子機器20の3次元計測部22の固有座標系(第2座標系)における原点C(0,0,0)、Z´軸上の点C(0,0,10)、X´軸上の点C(10,0,0)、及びY´軸上の点C(0,10,0)の基準座標系(第1座標系)における座標値を各々算出することができる。
 なお、C、C、Cの位置を計測するためには、第1電子機器10側の超音波発信部12は3つあればよいが、本実施形態ではP、P、P、Pの4つとした。そうすることで、計算を簡単にするとともに、測定精度を向上させることができる。
 以上のようにして、第2電子機器位置情報算出部31Aは、三角測量の原理に基づいて、第2電子機器20の有する各3次元計測部22の基準座標系(第1座標系)における位置情報を算出することができる。
 なお、4つの電波発信部12P(1≦j≦4)の位置は、線形独立である任意の位置とすることができる。また、3つの電波受信部23C(1≦k≦3)の位置についても、第2座標系の原点Cとした場合に、始点をC、終点をそれぞれC、C、Cとする3つのベクトルが、線形独立であれば、C、C、Cの位置は、任意の位置とすることができる。
 この場合においても、第2電子機器位置情報算出部31Aは、上記と同様に、三角測量の原理により、各C(1≦j≦3)の基準座標系(第1座標系)における座標値を、PとC(1≦j≦3)間の距離、PとC(1≦j≦3)間の距離、PとC(1≦j≦3)間の距離、PとC(1≦j≦3)間の距離と、P、P、P、Pの基準座標系(第1座標系)における座標値に基づいて、求めることができる。
 そして、第2電子機器位置情報算出部31Aは、上記と同様に、第2座標系の原点Cの基準座標系(第1座標系)における座標値を、各C(1≦j≦3)の基準座標系(第1座標系)における座標値と各C(1≦j≦3)の第2座標系における座標値とに基づいて、算出することができる。
 以上のように、第2電子機器位置情報算出部31Aは、第2電子機器20(3次元計測部22)の位置を表す各電波受信部23C(1≦k≦3)の基準座標系(第1座標系)における座標値(第2電子機器位置計測結果)を算出することができる。
 なお、前述したように、第2電子機器位置情報算出部31Aにより算出された各電波受信部23C(1≦k≦3)の基準座標系(第1座標系)における座標値は、各電波発信部12P(1≦j≦4)の送信時刻となるタイムスタンプを付して、第2電子機器20n毎に、第2電子機器位置情報Ln(t)(ここで、nは第2電子機器20の識別番号、tはタイムスタンプ)を3次元データ保存部60の第2電子機器位置情報記憶部62にリアルタイムに記憶することができる。
 距離計測部16及び第2電子機器位置情報算出部31Aの一連の処理はリアルタイムに処理することができる。
[第2実施形態におけるキャリブレーションの適用]
 第2実施形態においては、第1電子機器10の電波発信部12P(1≦j≦4)に基づく座標系を基準座標系(第1座標系)とし、第2電子機器20nの3次元計測部22の備える第2座標系とした場合に、第2電子機器20nの電波受信部23C(1≦k≦3)を第2座標系における座標値が既知となる位置に取り付けることを前提とした。
 これに対して、第2電子機器20nの電波受信部23C(1≦k≦3)の第2座標系における座標値が必ずしも既知でない場合又は取り付け時に誤差が生じる場合、第2電子機器20nを予め固定した位置においた状態で、第1実施形態と同様に、キャリブレーションを行うことができる。
 説明を簡単にするため、第2電子機器20nの電波受信部23C(1≦k≦3)に基づく座標系を電波受信部座標系という。
 ここで、説明を簡単にするため、電波受信部23C(1≦k≦3)の電波受信部座標系における座標値を、例えば、次のようにする(iは、所定の自然数)。
 C=(0,0,0)
 C=(4i,0,0)
 C=(0,3i,0)
 そして、ベクトルCとベクトルCとの外積を頂点Cを始点として表現した場合における終点をCとする。
 C=(0,0,12i
 また、第2電子機器20nの第2座標系における座標値を電波受信部座標系における座標値に変換するための変換行列を電波受信部座標変換行列を、「」とする。
 第1実施形態の場合と同様に、基準座標系マーカー10Aを用意することで、第1座標系における座標値を基準座標系における座標値に変換するための基準座標変換行列及び第2電子機器20nの第2座標系における座標値を電波受信部座標系における座標値に変換するための変換行列(電波受信部座標変換行列)を算出することができる。
 例えば、基準座標系マーカー10Aの球体の中心に電波受信部(W、W、W)を設置する。そして、基準系マーカーの各頂点W、W、Wの座標を簡単のため、例えば次のようにする(jは、所定の自然数)。
 W=(0,0,0)
 W=(4j,0,0)
 W=(0,3j,0)
 そして、ベクトルWとベクトルWとの外積を頂点Wを始点として表現した場合における終点をWとする。
 W=(0,0,12j
を設ける。
[第1電子機器10のキャリブレーション]
 第1実施形態と同様に、第1電子機器10及び座標系算出部30は、電磁波に基づいて、基準座標系マーカー10Aの有する電波受信部(W、W、W)及びWの第1座標系における座標値を算出する。
 そうすることで、第1実施形態と同様に、キャリブレーション処理部32は、式2と同様に、第1座標系における座標値を基準座標系における座標値に変換するための基準座標変換行列を算出することができる。
 次に、第1実施形態と同様に、第2電子機器20nを予め固定した位置においた状態で、3次元計測部22nの備える第2座標系における座標値を基準座標系における座標値に変換するための座標変換行列(以下、「」という)を算出する。
 このため、座標系算出部30は、例えば、マーカー位置情報算出部31を備えるように構成する。
 そうすることで、第2電子機器20nの3次元計測部22及びマーカー位置情報算出部31により基準座標系マーカー10Aの頂点W、W、Wの位置を表す第2座標系における座標値を算出することにより、キャリブレーション処理部32は、3次元計測部22nの備える第2座標系における座標値を基準座標系における座標値に変換するための座標変換行列を算出することができる。
 次に、第2電子機器20nを固定した位置においた状態のままで、第2電子機器20nの備える電波受信部座標系による座標値を第1電子機器10の第1座標系における座標値に変換するための第1座標変換行列Mnを算出する。
 具体的には、第1実施形態と同様に、第1電子機器10は、電波に基づいて、第2電子機器20nの電波受信部23C(1≦k≦3)及びCの第1座標系における座標値を算出する。
 そうすることで、第1実施形態と同様に、キャリブレーション処理部32は、第2電子機器20nの電波受信部座標系による座標値を第1電子機器10の第1座標系における座標値に変換するための第1座標変換行列Mnを算出することができる。
 以上から、第1実施形態と同様に、キャリブレーション処理部32は、基準座標変換行列、第1座標変換行列Mn、及び第2座標系における座標値を基準座標系における座標値に変換するための座標変換行列に基づいて、式7と同様に、第2電子機器20nの3次元計測部22の備える第2座標系における座標値を第2電子機器20nの備える電波受信部23C(1≦k≦3)による電波受信部座標系における座標値に変換するための電波受信部座標変換行列を算出することができる。
 第1実施形態の場合と同様に、基準座標変換行列、及び電波受信部座標変換行列は、それぞれ固定の変換行列である。
 以上のようにキャリブレーションを行い、基準座標変換行列、及び電波受信部座標変換行列を算出した後、例えば3次元データ処理部40の記憶部(図示せず)に記憶するように構成する。その後、基準座標系マーカー10Aを現実空間から撤去することができる。
 その後、点群データ座標値変換部41は、タイムスタンプtにおいて、点群データの点Qn(t)の第2座標系(n)での座標が(x,y,z)で表される点に対して、電波受信部座標変換行列、第2電子機器20nの電波受信部座標系による座標値を第1電子機器10の第1座標系における座標値に変換するための第1座標変換行列Mn(t)、及び第1座標系における座標値を基準座標系における座標値に変換するための基準座標変換行列による座標変換を行うことで、基準座標系での座標(x,y,z)を算出する(式19参照)。
Figure JPOXMLDOC01-appb-M000007
  ここで、Fn(t)=Mn(t)・である。
 このようにして、点群データ座標値変換部41は、タイムスタンプtにおける、点群データQn(t)の各点を基準座標系での座標値に変換した点群データ{Q´n(t)}を算出することができる。
[第3実施形態]
 第1実施形態又は第2実施形態では、点群データ取得システム100は、第1電子機器10と、当該第1電子機器10の備える位置情報計測部12が、その計測対象とする、第2電子機器20とからなる1つのグループ(以下、「電子機器群」という)から構成される。
 これに対して、第1電子機器10と第2電子機器20とを有する電子機器群が、階層構造を構成するようにすることができる。
 図7に、電子機器群を階層構造とする場合の一例を示す。図7を参照すると、第(n+1)層(n≧1)に第1電子機器10を備え、第(n+1)層の第1電子機器10は、第n層の第1電子機器10からみると、第2電子機器20のように作用する。
 例えば、第1実施形態において、第(n+1)層(n≧1)の第1電子機器10は、マーカー23を備えることにより、第n層の第1電子機器10が、第(n+1)層(n≧1)の第1電子機器10の位置情報を取得することができる。
 そうすることで、点群データ座標値変換部41は、第(n+1)層の第1電子機器10の第1計測座標系における座標値を第n層の第1電子機器10の第1計測座標系における座標値に変換することができる。
 このように反復処理することにより、第(n+1)層以上(n≧1)にある第1電子機器10の第1計測座標系における座標値及び第2電子機器20の第2座標系における座標値を、第1層にある第1電子機器10の基準座標系における座標値に変換することができる。
 第2実施形態において、電磁波伝播時間を用いて第2電子機器20の位置情報の算出を測定することにより、第1電子機器10が第2電子機器20の位置情報を取得する場合、第(n+1)層(n≧1)の第1電子機器10は、電波発信部12P(1≦j≦4)に加えて、電波受信部23C(1≦k≦3)を備えることで、第n層の第1電子機器10の電波発信部12P(1≦j≦4)から送信された電波を、第(n+1)層(n≧1)の第1電子機器10の電波受信部23C(1≦k≦3)が受信することにより、第n層の第1電子機器10から、第(n+1)層の第1電子機器10の位置情報を算出するように構成することができる。
 こうすることで、点群データ座標値変換部41は、第(n+1)層の第1電子機器10の第1座標系における座標値を第n層の第1電子機器10の第1座標系における座標値に変換することができる。
 このように反復処理することにより、第(n+1)層以上(n≧1)にある第1電子機器10の第1計測座標系における座標値及び第2電子機器20の第2座標系における座標値を、第1層にある第1電子機器10の基準座標系における座標値に変換することができる。
 以上のように、点群データ取得システム100において、複数の電子機器群を階層的に構成することにより、3次元計測部22の個数及び計測位置を柔軟に拡張することができる。すなわち、電子機器群の階層を増やすことにより、3次元計測部22による測定可能な領域を広げることができる。
 以上、本発明の点群データ取得システム100の好ましい実施形態について説明したが、本発明は上述の実施形態に制限されるものではなく、適宜変更が可能である。
[システム構成の自由度]
 本発明の点群データ取得システム100において、第1電子機器10、第2電子機器20、座標系算出部30、3次元データ処理部40、及び3次元データ表示制御部50、及び3次元データ保存部60、の有する各機能部をそれぞれ、適宜特定のコンピュータに集中させるか、又は分散させることは、ユーザにとって適宜成しえる設計事項である。
 例えば、第1実施形態において、座標系算出部30、3次元データ処理部40、3次元データ表示制御部50、3次元データ保存部60の機能の一部、一部の組み合わせ、又は全部を、例えば、第1電子機器10の機能としてもよい。
 また、座標系算出部30、3次元データ処理部40、3次元データ表示制御部50、3次元データ保存部60の機能を1つのコンピュータ又は複数のコンピュータで実装することも当業者が適宜設計できる事項である。
[位置情報算出部と位置情報ユニット]
 前述したように、第1実施形態の第1電子機器10の備える位置情報計測部10、座標系算出部30の備えるマーカー位置情報算出部31を総称して、「位置情報算出部」といい、第2実施形態の第1電子機器10の備える電波発信部12P(1≦j≦4)、第2電子機器位置情報算出部31Aを総称して、「位置情報算出部」ということとする。
 第1実施形態の第2電子機器20の備えるマーカー23を総称して、「位置情報ユニット」といい、第2実施形態の第2電子機器20の備える電波受信部23C(1≦k≦3)を総称して、「位置情報ユニット」ということとする。
 そうすると、本願発明は、「位置情報算出部」が、第2電子機器20の備える「位置情報ユニット」の位置情報を算出することにより、第2電子機器20の備える3次元計測部12による計測した各点群データを共通の基準座標系における座標に変換することを可能とするものであるといえる。
[自律計測]
 上記実施形態においては、第2電子機器20(3次元計測部22)は、例えば、カメラマン等により自由に移動可能とされた。しかし、第2電子機器20(3次元計測部22)が、例えば、予め設定された直線レールの上を動く場合等所定の直線の上に限定して移動する場合、特に、レールが直線かつ起伏のない場合に走行距離計によりある地点からの走行距離を計測できる場合、電磁波伝播時間、又は位置情報計測部12等に基づいて位置を算出する替わりに、自律的に位置を算出するように構成してもよい。
 同様に、第2電子機器20(3次元計測部22)が、例えば、回転検出器を内蔵したリールにワイヤを巻き付け、ワイヤの巻き取り回数と巻き取り角度を計測して位置を算出することができる場合、自律的に位置を算出するように構成してもよい。
 同様に、例えば、第2電子機器20(3次元計測部22)をコロにより移動させる場合において、回転計をコロに係合し、当該コロをレール等に押圧してコロの回転数及び角度を計測することで、第2電子機器20(3次元計測部22)の位置を算出することができる場合、自律的に位置を算出するように構成してもよい。
 上記実施形態では、深度カメラを3次元計測部22として適用することを前提としたが、本発明はこれに限定されない。レーザースキャナやデジタイザや電子カメラ等であっても、同様に適用できる。
 また、第1実施形態においては、第1電子機器10又は座標系算出部30のトリガーによる同期制御により、複数個あるすべての3次元計測部22に対して計測動作を同期させることにより、同時刻に計測対象物を計測させるように構成するものとしているが、各3次元計測部22は、各々別の時刻に計測対象物を計測させるように構成してもよい。
 複数の3次元計測部22は、各々自分のタイミングで対象物を計測して点群データを取り込み、その結果をリアルタイムに、源点群データ記憶部61内の割り当てられた領域に格納することができる。その際、点群データにタイムスタンプは付与されるが、その時刻は3次元計測部22毎に付与される。3次元計測部22によって性能が違うかもしれないし、同じ性能の3次元計測部22で同じ対象物を見ても、見る角度によって取得する点群データの量が異なれば、データ取り込みのタイミングもずれることもあるからである。
 しかし、複数の点群データを使ってデータ合成、マッチング処理を行う段階になると、データ同士の時刻合わせが必要になる。具体的には、測定時刻が必ずしも一致しない場合には、例えば当該時刻の近傍の3次元計測部22nの計測位置により、線形補完することができる。また、複数の点群データ間において、時刻の近いもの同士を取り出して合成、マッチング処理することもできる。
 このように構成することで、3次元計測部22は、第1電子機器10のトリガーによる同期制御なしに、各々自分のタイミングで計測対象物を計測することができる。
 また、本システムの自然な拡張として、深度センサ以外の特殊カメラの追加が考えられる。サーモグラフィーのように温度データを取得できるもの、あるいは分光センシングカメラ等、スペクトルグラフを解析して、水分量、糖度、癌細胞と正常細胞の分離、血管の強調等、様々な画像情報を取得できるカメラが存在している。そのような特殊なカメラと第2電子機器20とを組み合わせることによって、点群データに特殊な情報を付加することができる。これは、コンピュータによる外界の認識に必要な「セグメント化(画像の有意味な分離)」を可能にする。
 これらにより、例えば、機械と人体の分離、正常細胞と癌細胞の分離等の認識処理が、リアルな3次元画像を用いて行うことができるようになる。これらは、ロボットによる手術を行う場合等に有用な技術である。
10 第1電子機器
10A 基準座標系マーカー
11 第1通信部
12 位置情報計測部
12P 電波発信部
15 時刻同期部
16 距離計測部
20 第2電子機器
21 第2通信部
22 3次元計測部
23 マーカー
23C 電波受信部
25 時刻同期部
30 座標系算出部
31 マーカー位置情報算出部
31A 第2電子機器位置情報算出部
32 キャリブレーション処理部
33 時刻同期部
40 3次元データ処理部
41 点群データ座標値変換部
42 合成点群データ作成部
421 第1合成点群データ作成部
422 点群データマッチング部
50 3次元データ表示制御部
51 視点操作部
52 データ表示方式選択部
53 データ再生・保存指示部
54 3次元データ表示処理部
60 3次元データ保存部
61 源点群データ記憶部
62 第2電子機器位置情報記憶部
100 点群データ取得システム

Claims (12)

  1.  第1電子機器と1つ以上の移動可能な第2電子機器とを有する第1の電子機器群を備える、被写体の表面の各点までの深度情報を画素単位に有する点群データを取得する点群データ取得システムであって、
     前記第2電子機器は、
      第2座標系を有し、
      複数の、視覚的特徴を有する所定の標識物であって、前記複数の標識物はそれぞれ第2座標系において線形独立となる位置にそれぞれ設けられる、前記複数の標識物と、
      被写体の点群データを前記第2座標系に基づいて計測する3次元計測部と、
     を備え、
     前記第1電子機器は、
      第1座標系を有し、
      被写体を前記第1座標系に基づいて計測する位置情報計測部を備え、
     前記点群データ取得システムは、さらに
      基準座標系を有し、
      前記位置情報計測部により計測されたデータに基づいて、前記第2電子機器の備える前記複数の標識物の前記第1座標系における座標値である第2電子機器位置情報を算出するマーカー位置情報算出部と、
      前記第2電子機器位置情報に基づいて、前記第2電子機器の備える前記3次元計測部により計測された前記点群データにおける各点のデータの前記第2座標系における座標値を、前記基準座標系における座標値に変換する点群データ座標値変換部と、
      前記第2電子機器の備える前記3次元計測部により計測された複数の点群データを、前記点群データ座標値変換部により変換された前記基準座標系における座標値に基づいて、1つの合成点群データを作成する合成点群データ作成部と、
     を備える、点群データ取得システム。
  2.  前記第2電子機器の備える視覚的特徴を有する所定の標識物は、それぞれ表面が予め設定された色で着色された、所定の半径の球であって、前記球の中心がそれぞれ予め設定された三角形の頂点を形成するとともに、前記第2電子機器を一意的に識別できるように、前記複数の標識物の視覚的特徴を前記第2電子機器ごとに異なるように構成されたことを特徴とする、請求項1に記載の点群データ取得システム。
  3.  前記第1の電子機器群は、2つ以上の第1電子機器を備え、
     1つの第1電子機器の備える位置情報計測部、及び別の第1電子機器の備える位置情報計測部が、それぞれの備える固有の第1座標系に基づいて、前記第2電子機器の備える前記複数の標識物を計測することを特徴とする請求項1又は請求項2に記載の点群データ取得システム。
  4.  前記点群データ取得システムは、さらに、複数の、視覚的特徴を有する所定の標識物であって、前記複数の標識物はそれぞれ基準座標系において線形独立となる座標位置にそれぞれ設けられる、前記複数の標識物を備え、
     前記点群データ座標値変換部は、前記マーカー位置情報算出部により算出された、前記複数の、視覚的特徴を有する所定の標識物の前記第1座標系における座標値、及び前記複数の、視覚的特徴を有する所定の標識物の前記基準座標系における座標値に基づいて、予め前記第1座標系における座標値を前記基準座標系における座標値に変換する基準座標変換行列を生成し、
      前記点群データ座標値変換部は、前記第2電子機器位置情報、前記点群データ、及び前記基準座標変換行列に基づいて、前記点群データにおける各点のデータの前記第2座標系における座標値を、前記基準座標系における座標値に変換する、
     請求項1乃至請求項3のいずれか1項に記載の点群データ取得システム。
  5.  前記点群データ取得システムは、さらに、
      前記第1の電子機器群に属さない、1つの第1電子機器と1つ以上の第2電子機器を備える第2の電子機器群を有し、
      前記第2の電子機器群に属する第1電子機器は、さらに、
      複数の、視覚的特徴を有する所定の標識物であって、前記複数の標識物はそれぞれ第1座標系において線形独立となる位置にそれぞれ設けられる、前記複数の標識物を備え、
     前記第1の電子機器群に属する前記第1電子機器の前記位置情報計測部は、第1座標系に基づいて前記第2の電子機器群に属する前記第1電子機器の備える前記複数の標識物を計測し、
     前記マーカー位置情報算出部は、前記第2の電子機器群に属する前記第1電子機器の備える前記複数の標識物の前記第1座標系における座標値である、前記第2の電子機器群に属する前記第1電子機器の位置情報を算出する、請求項1乃至請求項4のいずれか1項に記載の点群データ取得システム。
  6.  第1電子機器と1つ以上の移動可能な第2電子機器とを有する第1の電子機器群を備える、被写体の表面の各点までの深度情報を画素単位に有する点群データを取得する点群データ取得システムであって、
     前記第1電子機器は、
      第1座標系を有し、
      電磁波を発信する、複数の電磁波発信部であって、前記複数の電磁波発信部は、それぞれ第1座標系の線形独立である任意の位置に設けられる、前記複数の電磁波発信部と、
     を備え、
     前記第2電子機器は、
      それぞれが固有の第2座標系を有し、
      電磁波を受信又は反射する、複数の電磁波受信部であって、前記複数の電磁波受信部は、それぞれ前記第2座標系の線形独立である任意の位置に設けられる、前記複数の電磁波受信部と、
      前記点群データを前記第2座標系に基づいて計測する3次元計測部と、
     を備え、
     前記点群データ取得システムは、さらに
      基準座標系を有し、
      前記複数の電磁波受信部のそれぞれが、前記複数の電磁波発信部のそれぞれから発信された電磁波を受信するのに要した電磁波伝播時間、又は前記複数の電磁波発信部のそれぞれが、前記複数の電磁波受信部のそれぞれから反射された電磁波を受信するのに要した電磁波伝播時間に基づいて、前記複数の電磁波発信部のそれぞれと前記複数の電磁波受信部それぞれとの距離を測定する距離計測部と、
      前記距離計測部により測定された距離に基づいて、前記複数の電磁波受信部の前記第1座標系における座標値である第2電子機器位置情報をそれぞれ算出する第2電子機器位置情報算出部と、
      前記第2電子機器位置情報に基づいて、前記第2電子機器の備える前記3次元計測部により計測された前記点群データにおける各点のデータの前記第2座標系における座標値を、前記基準座標系における座標値に変換する点群データ座標値変換部と、
      前記第2電子機器の備える前記3次元計測部により計測された複数の点群データを、前記点群データ座標値変換部により変換された前記基準座標系における座標値に基づいて、1つの合成点群データを作成する合成点群データ作成部と、
     を備える、点群データ取得システム。
  7.  前記点群データ取得システムは、さらに、
      前記第1の電子機器群に属さない、1つの第1電子機器と1つ以上の第2電子機器を備える第2の電子機器群を有し、
      前記第2の電子機器群に属する第1電子機器は、さらに、
       電磁波を受信又は反射する、複数の電磁波受信部を備え、
      前記距離計測部は、さらに前記第1の電子機器群に属する前記第1電子機器の前記複数の電磁波発信部のそれぞれから発信された電磁波を、前記複数の電磁波受信部のそれぞれが、前記複数の電磁波発信部のそれぞれから発信された電磁波を受信するのに要した電磁波伝播時間、又は前記複数の電磁波発信部のそれぞれが、前記複数の電磁波受信部のそれぞれから反射された電磁波を受信するのに要した電磁波伝播時間に基づいて、前記複数の電磁波発信部のそれぞれと前記第2の電子機器群に属する前記第1電子機器の備える前記複数の電磁波受信部それぞれとの距離を測定し、
      前記第2電子機器位置情報算出部は、さらに前記距離計測部により測定された前記距離に基づいて、前記第2の電子機器群に属する第1電子機器の複数の電磁波受信部の前記第1の電子機器群に属する第1電子機器における第1座標系における座標値をそれぞれ算出する、請求項6に記載の点群データ取得システム。
  8.  前記合成点群データ作成部は、さらに、
      複数の点群データを、前記点群データ座標値変換部により変換された前記基準座標系における座標値に基づいて、重なる部分の位置合わせを行うことで、1つの合成点群データを作成する、請求項1乃至請求項7のいずれか1項に記載の点群データ取得システム。
  9.  前記合成点群データ作成部は、さらに、
      複数の点群データを、前記点群データ座標値変換部により変換された前記基準座標系における座標値に基づいて、重なる部分の位置合わせを行い、さらに前記基準座標系における同一座標値を有する部分を有する異なる複数の点群データを用いて、前記複数の点群データをマッチングする点群データマッチング部を備える請求項1乃至請求項8のいずれか1項に記載の点群データ取得システム。
  10.  被写体の表面の各点までの深度情報を画素単位に有する点群データを取得する点群データ取得方法であって、
     第1座標系を有する第1電子機器の位置情報計測部により、第2座標系をそれぞれ有する1つ以上の第2電子機器がそれぞれ備える複数の標識物を計測する位置情報計測ステップと、
     前記位置情報計測ステップにより計測されたデータに基づいて、前記第2電子機器の備える前記複数の標識物の前記第1座標系における座標値である第2電子機器位置情報を算出する位置情報算出ステップと、
     前記1つ以上の第2電子機器の3次元計測部により、点群データを前記第2座標系に基づいて計測する3次元計測ステップと、
     前記第2電子機器位置情報に基づいて、前記3次元計測ステップにより計測された前記点群データにおける各点のデータの前記第2座標系における座標値を、基準座標系における座標値に変換する点群データ座標値変換ステップと、
     前記3次元計測ステップにより計測された複数の点群データを、前記点群データ座標値変換ステップにより変換された前記基準座標系における座標値に基づいて、1つの合成点群データを作成する合成点群データ作成ステップと、
     を備える点群データ取得方法。
  11.  被写体の表面の各点までの深度情報を画素単位に有する点群データを取得する点群データ取得方法であって、
     第1座標系を有する第1電子機器の複数の電磁波発信部により複数の電磁波を発信する電磁波発信ステップと、
     第2座標系をそれぞれ有する1つ以上の第2電子機器の複数の電磁波受信部により、前記電磁波発信ステップにより発信された前記複数の電磁波のそれぞれを受信する超音波受信ステップと、
     前記複数の電磁波受信部のそれぞれが、前記複数の電磁波発信部のそれぞれから発信された電磁波を受信するのに要した電磁波伝播時間、又は前記複数の電磁波発信部のそれぞれが、前記複数の電磁波受信部のそれぞれから反射された電磁波を受信するのに要した電磁波伝播時間に基づいて、前記複数の電磁波発信部のそれぞれと前記複数の電磁波受信部それぞれとの距離を測定する距離計測ステップと、
     前記距離計測ステップにより測定された距離に基づいて、前記複数の電磁波受信部の前記第1座標系における座標値である第2電子機器位置情報をそれぞれ算出する第2電子機器位置情報算出ステップと、
     前記1つ以上の第2電子機器の3次元計測部により、点群データを前記第2座標系に基づいて計測する3次元計測ステップと、
     前記第2電子機器位置情報に基づいて、前記3次元計測ステップにより計測された前記点群データにおける各点のデータの前記第2座標系における座標値を、基準座標系における座標値に変換する点群データ座標値変換ステップと、
      前記3次元計測ステップにより計測された複数の点群データを、前記点群データ座標値変換ステップにより変換された前記基準座標系における座標値に基づいて、1つの合成点群データを作成する合成点群データ作成ステップと、
     を備える点群データ取得方法。
  12.  コンピュータに、請求項10又は請求項11に記載の方法の各ステップを実行させるためのコンピュータプログラム。
PCT/JP2016/085397 2015-12-07 2016-11-29 点群データ取得システム及びその方法 WO2017098966A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-238724 2015-12-07
JP2015238724A JP6293110B2 (ja) 2015-12-07 2015-12-07 点群データ取得システム及びその方法

Publications (1)

Publication Number Publication Date
WO2017098966A1 true WO2017098966A1 (ja) 2017-06-15

Family

ID=59013071

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/085397 WO2017098966A1 (ja) 2015-12-07 2016-11-29 点群データ取得システム及びその方法

Country Status (2)

Country Link
JP (1) JP6293110B2 (ja)
WO (1) WO2017098966A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111862215A (zh) * 2020-07-29 2020-10-30 上海高仙自动化科技发展有限公司 一种计算机设备定位方法、装置、计算机设备和存储介质
WO2021019906A1 (ja) * 2019-07-26 2021-02-04 パナソニックIpマネジメント株式会社 測距装置、情報処理方法、および情報処理装置
CN113671513A (zh) * 2020-05-14 2021-11-19 日立乐金光科技株式会社 测距系统以及测距传感器的校准方法
WO2023204105A1 (ja) * 2022-04-21 2023-10-26 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法、データ製造方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109212540A (zh) * 2018-09-12 2019-01-15 百度在线网络技术(北京)有限公司 基于激光雷达系统的测距方法、装置及可读存储介质
JP7078127B2 (ja) 2018-10-18 2022-05-31 富士通株式会社 算出方法、算出プログラムおよび情報処理装置
JP2021060666A (ja) * 2019-10-03 2021-04-15 デンカ株式会社 三次元画像の生成方法、三次元画像生成装置、ガイダンス装置、およびプログラム
WO2021112107A1 (ja) * 2019-12-04 2021-06-10 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
CN117501315A (zh) 2021-06-29 2024-02-02 富士胶片株式会社 图像处理装置、图像处理方法及程序
JP2023022517A (ja) 2021-08-03 2023-02-15 株式会社東芝 計測システム及び計測プログラム
WO2023223437A1 (ja) * 2022-05-17 2023-11-23 日本電信電話株式会社 レジストレーション装置、レジストレーション方法、及びプログラム
JP7228070B1 (ja) * 2022-07-20 2023-02-22 株式会社ダイヘン 点群データ合成装置、点群データ合成プログラム、点群データ合成方法及び点群データ合成システム
WO2024047785A1 (ja) * 2022-08-31 2024-03-07 クオリカ株式会社 測量システムおよび測量方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11513495A (ja) * 1995-10-12 1999-11-16 メトロノール・エイ・エス・エイ 空間座標の点から点への測定システム
JP2001051593A (ja) * 1999-08-10 2001-02-23 Morita Mfg Co Ltd 再構成画像による歯科実習方法、歯科実習システム、この方法を実現するプログラムを記録した記録媒体、及び、再構成画像による歯科表示システム、このシステムを実現するプログラムを記録した記録媒体
JP2015034711A (ja) * 2013-08-07 2015-02-19 株式会社東芝 3次元データの処理装置、その処理方法及びその処理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080243416A1 (en) * 2007-03-30 2008-10-02 Mitutoyo Corporation Global calibration for stereo vision probe
JP5200582B2 (ja) * 2008-02-27 2013-06-05 国立大学法人浜松医科大学 長軸部を有する物体の長軸部の先端座標と該物体の位置姿勢を定義する手段との3次元相対関係測定方法およびシステム
JP6181388B2 (ja) * 2013-03-08 2017-08-16 株式会社トプコン 計測装置
WO2015021173A1 (en) * 2013-08-06 2015-02-12 Laser Projection Technologies, Inc. Virtual laser projection system and method
JP6293049B2 (ja) * 2014-12-26 2018-03-14 株式会社Hielero 点群データ取得システム及びその方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11513495A (ja) * 1995-10-12 1999-11-16 メトロノール・エイ・エス・エイ 空間座標の点から点への測定システム
JP2001051593A (ja) * 1999-08-10 2001-02-23 Morita Mfg Co Ltd 再構成画像による歯科実習方法、歯科実習システム、この方法を実現するプログラムを記録した記録媒体、及び、再構成画像による歯科表示システム、このシステムを実現するプログラムを記録した記録媒体
JP2015034711A (ja) * 2013-08-07 2015-02-19 株式会社東芝 3次元データの処理装置、その処理方法及びその処理プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021019906A1 (ja) * 2019-07-26 2021-02-04 パナソニックIpマネジメント株式会社 測距装置、情報処理方法、および情報処理装置
CN113671513A (zh) * 2020-05-14 2021-11-19 日立乐金光科技株式会社 测距系统以及测距传感器的校准方法
CN113671513B (zh) * 2020-05-14 2024-02-23 日立乐金光科技株式会社 测距系统以及测距传感器的校准方法
CN111862215A (zh) * 2020-07-29 2020-10-30 上海高仙自动化科技发展有限公司 一种计算机设备定位方法、装置、计算机设备和存储介质
CN111862215B (zh) * 2020-07-29 2023-10-03 上海高仙自动化科技发展有限公司 一种计算机设备定位方法、装置、计算机设备和存储介质
WO2023204105A1 (ja) * 2022-04-21 2023-10-26 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理方法、データ製造方法

Also Published As

Publication number Publication date
JP2017106749A (ja) 2017-06-15
JP6293110B2 (ja) 2018-03-14

Similar Documents

Publication Publication Date Title
JP6293110B2 (ja) 点群データ取得システム及びその方法
JP6293049B2 (ja) 点群データ取得システム及びその方法
US11928838B2 (en) Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display
CN110383343B (zh) 不一致检测系统、混合现实系统、程序和不一致检测方法
JP5538667B2 (ja) 位置姿勢計測装置及びその制御方法
WO2021203883A1 (zh) 三维扫描方法、三维扫描系统和计算机可读存储介质
WO2016184255A1 (zh) 一种视觉定位装置及基于该装置的三维测绘系统及方法
JP2021530821A (ja) 三次元無線モデル構築を実行するための方法、装置およびコンピュータプログラム
JP2004062758A (ja) 情報処理装置および方法
WO2019100219A1 (zh) 输出影像生成方法、设备及无人机
CN110889873A (zh) 一种目标定位方法、装置、电子设备及存储介质
CN111238368A (zh) 三维扫描方法及装置
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018106661A (ja) 不整合検出システム、複合現実システム、プログラム及び不整合検出方法
CN112270702A (zh) 体积测量方法及装置、计算机可读介质和电子设备
US20070076096A1 (en) System and method for calibrating a set of imaging devices and calculating 3D coordinates of detected features in a laboratory coordinate system
CN116824067B (zh) 一种室内三维重建方法及其装置
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
WO2022228461A1 (zh) 一种基于激光雷达的三维超声成像方法和系统
CA3142001C (en) Spherical image based registration and self-localization for onsite and offsite viewing
CN113888702A (zh) 基于多tof激光雷达和rgb摄像头的室内高精度实时建模和空间定位的装置和方法
JP2008203991A (ja) 画像処理装置
CN116136408A (zh) 室内导航方法、服务器、装置和终端
Kim et al. Pose initialization method of mixed reality system for inspection using convolutional neural network
CN114723923B (zh) 一种传动解决方案模拟展示系统和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16872866

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16872866

Country of ref document: EP

Kind code of ref document: A1