WO2024071413A1 - 点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラム - Google Patents

点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラム Download PDF

Info

Publication number
WO2024071413A1
WO2024071413A1 PCT/JP2023/035759 JP2023035759W WO2024071413A1 WO 2024071413 A1 WO2024071413 A1 WO 2024071413A1 JP 2023035759 W JP2023035759 W JP 2023035759W WO 2024071413 A1 WO2024071413 A1 WO 2024071413A1
Authority
WO
WIPO (PCT)
Prior art keywords
point cloud
cloud information
information
information generating
unit
Prior art date
Application number
PCT/JP2023/035759
Other languages
English (en)
French (fr)
Inventor
剛 佐々木
光晴 山田
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Publication of WO2024071413A1 publication Critical patent/WO2024071413A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Definitions

  • the present invention relates to a point cloud information generation system that acquires point cloud information of an object, a control method for the point cloud information generation system, and a control program for the point cloud information generation system.
  • the present invention aims to provide a point cloud information generation system that can easily and quickly generate point cloud information for a desired object, and that can easily and quickly modify the point cloud information, a control method for the point cloud information generation system, and a control program for the point cloud information generation system.
  • a point cloud information generation system comprising a point cloud information generation device that generates three-dimensional point cloud information of an object, and an XR (cross reality) generation device that can be worn by a user, the XR generation device comprising an imaging unit that acquires imaging information corresponding to at least the line of sight of the user, and a display unit, the point cloud information generation device generating three-dimensional point cloud information for the object specified by the execution instruction information based on execution instruction information for the object displayed on the display unit, and displaying the generated three-dimensional point cloud information for the object on the display unit together with the object.
  • XR cross reality
  • the point cloud information generating device can automatically generate point cloud information for the object. Therefore, point cloud information for a desired object can be generated easily and quickly. Furthermore, according to the above configuration, the generated three-dimensional point cloud information for the object is displayed on the display unit together with the object, so that a user of the XR generating device can modify the three-dimensional point cloud information of the object displayed on the display unit while comparing it with the object, thereby enabling a user to obtain more accurate three-dimensional point cloud information.
  • the method is characterized in that the three-dimensional point cloud information is generated for the portion of the object identified based on the execution instruction information of the point cloud information system, and the three-dimensional point cloud information generated based on the execution information is modified.
  • the three-dimensional point cloud information generated based on the execution information is modified, making it possible to perform modifications such as partial deletion or addition of the three-dimensional point cloud information with high accuracy.
  • the point cloud information generating device emits distance measuring light for generating point cloud information and has an optical axis deflection unit that deflects the emission direction of the distance measuring light, and is configured to irradiate the distance measuring light only onto a portion of the object by deflecting the distance measuring light with the optical axis deflection unit.
  • the optical axis deflection unit of the point cloud information generating device deflects and irradiates the distance measurement light toward the part of the object identified based on the execution instruction information, making it possible to generate 3D point cloud information with high accuracy only for that part of the object.
  • the display unit is configured to display design drawing information related to the point cloud information system.
  • the above object is achieved by the present invention, which is a control method for a point cloud information generating system including a point cloud information generating device that generates three-dimensional point cloud information of an object and an XR generating device that can be worn by a user, characterized in that an imaging unit of the XR generating device acquires imaging information corresponding to the line of sight of the user, and based on execution instruction information for the object displayed on the display unit, the point cloud information generating device generates three-dimensional point cloud information for the object specified by the execution instruction information, and displays the generated three-dimensional point cloud information for the object on the display unit together with the object.
  • a control program for a point cloud information generating system including a point cloud information generating device that generates three-dimensional point cloud information of an object and an XR reality generating device that can be worn by a user, the control program being characterized in that the control program realizes the following functions: an imaging unit of the XR generating device acquires imaging information corresponding to the line of sight of the user, and based on execution instruction information for the object displayed on the display unit, the point cloud information generating device generates three-dimensional point cloud information for the object specified by the execution instruction information, and displays the generated three-dimensional point cloud information for the object on the display unit together with the object.
  • the present invention has the advantage of being able to provide a point cloud information generation system, a control method for a point cloud information generation system, and a control program for a point cloud information generation system that can easily and quickly generate point cloud information for a desired object and can easily and quickly modify the point cloud information.
  • FIG. 5 is a schematic diagram showing the main configuration of a point cloud information generating system 500 according to the present embodiment.
  • FIG. 2 is a schematic diagram showing the main configuration of the laser scanner 3 of FIG. 1 .
  • 3 is a schematic diagram showing a main configuration of an optical axis deflection unit 35 in FIG. 2.
  • 2 is a schematic block diagram showing the main configuration of the head mounted display 100 of FIG. 1.
  • 4 is a schematic block diagram showing the main contents of the "HMD-side various information storage unit 120" in FIG. 3.
  • 2 is a schematic block diagram showing the main configuration of the laser scanner 3 of FIG. 1.
  • FIG. 6 is a schematic block diagram showing the main configuration of the “laser scanner side various information storage unit 310” in FIG. 5 .
  • 11 is a schematic flowchart showing an example of the operation of the point cloud information generating system 500.
  • 13 is a schematic flowchart showing an example of the operation of the point cloud information generating system 500.
  • 11 is a schematic explanatory diagram showing an example of a scan pattern when the optical axis deflection unit 35 etc. performs a local scan.
  • FIG. 13 is another schematic explanatory diagram showing an example of a scan pattern when the optical axis deflection unit 35 etc. performs a local scan.
  • FIG. This is a schematic explanatory diagram showing a pillar 600 visible through the HDM side display 113 and three-dimensional point cloud data of points A and B superimposed on each other.
  • FIG. 13 is a schematic explanatory diagram showing a case where three-dimensional point cloud data is generated by mistake, including a protrusion C other than points A and B of a pillar 600.
  • FIG. 13 is a schematic explanatory diagram showing a case where a worker P is unable to sufficiently specify the distance between points A and B on a pillar 600.
  • FIG. 13A and 13B are schematic diagrams illustrating a process of dividing and specifying a target area and generating three-dimensional point cloud data.
  • FIG. 1 is a schematic diagram showing the main configuration of a point cloud information generating system 500 according to this embodiment.
  • a point cloud information generating system 500 includes a "surveying device 1" which is an example of a point cloud information generating device, and a "head mounted display (HMD) 100" which is an example of an XR generating device.
  • HMD head mounted display
  • XR cross reality
  • VR Virtual Reality
  • AR Augmented Reality
  • MR Mated Reality
  • the XR generating device of the present invention includes not only the MR of this embodiment but also VR, AR, and the like.
  • the surveying device 1 includes a laser scanner 3 that generates three-dimensional point cloud information of an object (such as a pillar 600) by performing scanning or the like.
  • the head mounted display 100 is configured to be worn on the head of a user of the system 500 (for example, an operator P).
  • the surveying device 1 has a laser scanner 3, which can obtain three-dimensional point cloud data by emitting and receiving laser light, and can also measure the distance to specific measurement points.
  • the configuration is capable of acquiring three-dimensional point cloud data of an object such as the pillar 600 in FIG. 1 and distance data between the laser scanner 3 and the pillar 600.
  • the laser scanner 3 is also configured to be able to acquire distance data from the head mounted display 100, etc.
  • the head mounted display 100 of the present embodiment is, for example, a device for mixed reality. Specifically, real-world information is made visible through a transparent HDM-side display 113 (an example of a display unit), and its coordinate information can be generated, while virtual world information created by a computer or the like can also be integrated and displayed.
  • a transparent HDM-side display 113 an example of a display unit
  • the head mounted display 100 is configured to be able to display on the HDM side display 113 a real-world image such as a pillar 600, and three-dimensional point cloud data of a portion of this pillar 600 in a synthesized form.
  • the head mounted display 100 comprises a "main body unit 110" that is worn on the head of the worker P, an “HMD side display 113" that is positioned facing both eyes of the worker P, and imaging units, for example, two "HMD side cameras 111a, 111b," that are positioned along the line of sight of the worker P. It also has an HMD side lighting unit 112 that is a light source.
  • HMD side cameras 111a, 111b are installed facing in the same direction as the line of sight of the worker P, and the image information captured by these two HMD side cameras 111a, 111b is the same as the line of sight and field of view of the worker P.
  • the HMD display 113 is of a “transparent” type, so that the worker P can see the target through the display 113 .
  • the HMD side illumination unit 112 is configured to irradiate light in the same direction as the line of sight of the worker P, but is disposed at a different angle from the HMD side cameras 111a and 111b.
  • the HMD-side illumination section 112 is also configured to emit various pattern lights, and is configured to be able to measure "depth” by measuring the distortion of the emitted light.
  • HMD side coordinate data (MR coordinate data)
  • MR coordinate data three-dimensional coordinate data of the pillar 600
  • three-dimensional data is generated using a "structured illumination” technique
  • the present invention is not limited to this and also includes cases where "three-dimensional data” is generated using only “two cameras” and cases where data is generated using a “ToF (Time of Flight)” technique that generates "three-dimensional data” from the time it takes for light emitted from a light source to return to a camera.
  • the present invention may be configured such that an optical camera and a depth sensor are placed on a head-mounted display, infrared rays are emitted from the camera and reflected off an object, and the depth of the object is calculated by measuring the time it takes for the reflected infrared rays to return.
  • the surveying device 1 is mainly composed of a tripod 2 as a support device, a laser scanner 3, an operating device 4, and a rotating table 5.
  • the rotating base 5 is attached to the upper end of the tripod 2, and the laser scanner 3 is attached to the rotating base 5 so as to be rotatable both horizontally and vertically.
  • the rotating table 5 also has a function of detecting the lateral rotation angle (horizontal rotation angle) of the laser scanner 3 .
  • a lever 7 extending laterally is provided on the rotating base 5. By operating the lever 7, the laser scanner 3 can be rotated up and down (vertically) or laterally (horizontally), and can also be fixed in a desired position.
  • the laser scanner 3 itself has a mechanism for horizontal rotation, and is also equipped with an automatic rotation mechanism for tracking an object.
  • the laser scanner 3 incorporates a distance measurement unit and an attitude detection unit, which will be described later.
  • the distance measurement unit emits distance measurement light to the measurement object or measurement range, and receives reflected distance measurement light to measure distance.
  • the attitude detection unit can also detect the attitude of the laser scanner 3 relative to the vertical (or horizontal) with high accuracy.
  • the operation device 4 has a communication function for communicating with the laser scanner 3 via a required means such as wired or wireless communication.
  • the laser scanner 3 transmits an image, a measurement state, a measurement result, etc. to the operation device 4, and the image, the measurement state, the measurement result, etc. are stored in the operation device 4.
  • FIG. 2 is a schematic diagram showing the main components of the laser scanner 3 of FIG.
  • the laser scanner 3 comprises a distance measurement light emitting unit 11, a light receiving unit 12, a distance measurement calculation unit 13, an imaging unit 14 (camera), an emission direction detection unit 15, a motor driver 16, an attitude detection unit 17, a first communication unit 18, a calculation control unit 19, a first memory unit 20, an imaging control unit 21, and an image processing unit 22, which are all housed in a housing 9 and integrated together.
  • the distance measurement light emitting section 11, the light receiving section 12, the distance measurement calculation section 13, etc. constitute a distance measurement section.
  • the distance measuring light emitting section 11 has an emission optical axis 26, on which a light emitting element 27, for example a laser diode (LD), is provided.
  • a projection lens 28 is provided on the exit optical axis 26.
  • a first reflecting mirror 29 serving as a deflection optical member provided on the exit optical axis 26 and a second reflecting mirror 32 serving as a deflection optical member provided on the receiving optical axis 31 deflect the exit optical axis 26 to coincide with the receiving optical axis 31.
  • the first reflecting mirror 29 and the second reflecting mirror 32 constitute an exit optical axis deflection unit.
  • the light-emitting element 27 emits a pulsed laser beam
  • the distance-measuring light emitting unit 11 emits the pulsed laser beam emitted from the light-emitting element 27 as distance-measuring light 23 .
  • Reflected distance measuring light 24 from the measurement object i.e., the measurement point
  • the light receiving section 12 has a light receiving optical axis 31, which coincides with the light exiting optical axis 26 deflected by the first reflecting mirror 29 and the second reflecting mirror 32 as described above.
  • the state in which the emission optical axis 26 and the receiving optical axis 31 coincide with each other is referred to as a distance measurement optical axis 40 (see FIG. 1).
  • the optical axis deflection unit 35 is disposed on the deflected exit optical axis 26, i.e., on the receiving optical axis 31.
  • the straight optical axis passing through the center of the optical axis deflection unit 35 is the reference optical axis O.
  • the reference optical axis O coincides with the exit optical axis 26 or the receiving optical axis 31 when not deflected by the optical axis deflection unit 35.
  • An imaging lens 34 is disposed on the receiving optical axis 31 which is transmitted through the optical axis deflection unit 35 and incident thereon, and a light receiving element 33, for example a photodiode (PD), is also provided.
  • the imaging lens 34 forms an image of the reflected distance measuring light 24 on the light receiving element 33.
  • the light receiving element 33 receives the reflected distance measuring light 24 and generates a light receiving signal.
  • the light receiving signal is input to the distance measurement calculation section 13.
  • the distance measurement calculation section 13 measures the distance to the measurement point based on the light receiving signal.
  • FIG. 3 is a schematic diagram showing the main configuration of the optical axis deflection unit 35 shown in FIG.
  • the optical axis deflection unit 35 will be described with reference to FIG.
  • the optical axis deflection unit 35 is composed of a pair of optical prisms 36a, 36b.
  • the optical prisms 36a, 36b are each disk-shaped and are disposed perpendicular to the light receiving optical axis 31, overlapping with each other and being parallel to each other. It is preferable to use a Fresnel prism as each of the optical prisms 36a and 36b in order to make the device compact.
  • the central part of the optical axis deflection section 35 is the distance measurement light deflection section 35a, which is the first optical axis deflection section through which the distance measurement light 23 passes and is emitted, and the part other than the central part is the reflected distance measurement light deflection section 35b, which is the second optical axis deflection section through which the reflected distance measurement light 24 passes and is incident.
  • the Fresnel prisms used as the optical prisms 36a and 36b are composed of parallel prism elements 37a and 37b and multiple prism elements 38a and 38b, respectively, and have a disk shape.
  • the optical prisms 36a and 36b and the prism elements 37a and 37b and the prism elements 38a and 38b have the same optical characteristics.
  • the prism elements 37a and 37b constitute the distance measuring light deflection unit 35a, and the prism elements 38a and 38b constitute the reflected distance measuring light deflection unit 35b.
  • the Fresnel prism may be made from optical glass, but it may also be molded from an optical plastic material. By molding from an optical plastic material, an inexpensive Fresnel prism can be produced.
  • the optical prisms 36a, 36b are arranged so that they can rotate independently and individually around the light receiving optical axis 31.
  • the optical prisms 36a, 36b are independently controlled in rotation direction, rotation amount, and rotation speed, thereby deflecting the emission optical axis 26 of the emitted distance measuring light 23 in any direction and deflecting the light receiving optical axis 31 of the reflected distance measuring light 24 that is received parallel to the emission optical axis 26.
  • the outer shape of the optical prisms 36a and 36b is a circle centered on the light receiving optical axis 31, and the diameter of the optical prisms 36a and 36b is set to obtain a sufficient amount of light, taking into account the spread of the reflected distance measuring light 24.
  • a ring gear 39a is fitted around the outer periphery of the optical prism 36a, and a ring gear 39b is fitted around the outer periphery of the optical prism 36b.
  • the ring gear 39a is meshed with a drive gear 41a, which is fixed to the output shaft of a motor 42a.
  • the ring gear 39b is meshed with a drive gear 41b, which is fixed to the output shaft of a motor 42b.
  • the motors 42a and 42b are electrically connected to the motor driver 16.
  • the motors 42a, 42b are motors capable of detecting the rotation angle or motors that rotate in response to a drive input value, such as pulse motors.
  • the amount of rotation of the motor may be detected using a rotation angle detector that detects the amount of rotation (rotation angle) of the motor, such as an encoder.
  • the amount of rotation of the motors 42a, 42b is detected, and the motor driver 16 controls the motors 42a, 42b individually.
  • encoders may be directly attached to the ring gears 39a and 39b, respectively, so that the rotation angles of the ring gears 39a and 39b are directly detected by the encoders.
  • the drive gears 41a, 41b and the motors 42a, 42b are provided in positions that do not interfere with the distance measurement light emitting unit 11, for example, below the ring gears 39a, 39b.
  • the light projection lens 28, the first reflecting mirror 29, the second reflecting mirror 32, the distance measuring light deflection unit 35a, etc. constitute a light projection optical system
  • the reflected distance measuring light deflection unit 35b, the imaging lens 34, etc. constitute a light receiving optical system.
  • the distance measurement calculation unit 13 controls the light emitting element 27 to emit a pulsed laser beam as the distance measurement light 23.
  • the emission optical axis 26 of the distance measurement light 23 is deflected by the prism elements 37a and 37b (the distance measurement light deflection unit 35a) so that the distance measurement light 23 is directed toward the measurement point.
  • the reflected distance measuring light 24 reflected from the object to be measured is incident via the prism elements 38a, 38b (the reflected distance measuring light deflection unit 35b) and the imaging lens 34, and is received by the light receiving element 33.
  • the light receiving element 33 sends a light receiving signal to the distance measuring calculation unit 13, and the distance measuring calculation unit 13 measures the distance of the measurement point (the point irradiated with the distance measuring light) for each pulse of light based on the light receiving signal from the light receiving element 33, and the distance measuring data is stored in the first storage unit 20.
  • the emission direction detection unit 15 detects the rotation angles of the motors 42a and 42b by counting the drive pulses input to the motors 42a and 42b. Alternatively, the emission direction detection unit 15 detects the rotation angles of the motors 42a and 42b based on signals from encoders, and calculates the rotation positions of the optical prisms 36a and 36b based on the rotation angles of the motors 42a and 42b. Furthermore, the emission direction detection unit 15 calculates the deviation angle and emission direction of the distance measuring light based on the refractive index and rotational position of the optical prisms 36 a and 36 b , and the calculation results are input to the calculation control unit 19 .
  • the calculation control unit 19 calculates the horizontal and vertical angles of the measurement points from the deviation angle and emission direction of the distance measurement light, and by relating the horizontal and vertical angles to the distance measurement data for each measurement point, it is possible to obtain three-dimensional data for the measurement points.
  • the imaging unit 14 is a camera having an imaging optical axis 43 parallel to the reference optical axis O of the laser scanner 3 and an angle of view of, for example, 50°, and obtains image data including the scan range of the laser scanner 3 .
  • the relationship between the imaging optical axis 43, the emission optical axis 26, and the reference optical axis O is known.
  • the imaging unit 14 is capable of acquiring moving images or continuous images.
  • the imaging control unit 21 controls the imaging of the imaging unit 14.
  • the imaging control unit 21 synchronizes the timing of acquiring the frame images that make up the moving image or successive images with the timing of scanning by the laser scanner 3.
  • the calculation control unit 19 also performs association between the images and the point cloud data, which is the scan data.
  • the laser scanner 3 can perform distance measurement by fixing the optical axis deflection unit 35 at each required deflection angle, thereby making it possible to measure distances to specific measurement points.
  • the direction angles (horizontal angle, vertical angle) during distance measurement can be obtained based on the detection result of the emission direction detection unit 15.
  • the inclination and direction of inclination of the laser scanner 3 with respect to the horizontal can be detected by the attitude detection unit 17, and the measurement results can be corrected to data based on the horizontal reference based on the detection result of the attitude detection unit 17. That is, the laser scanner 3 can be used in the same manner as a total station.
  • the laser scanner 3 can function as a laser scanner that acquires point cloud data having three-dimensional position data.
  • the surveying device 1 and head mounted display 100 in FIG. 1 have a computer, which has a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), etc. (not shown), which are connected via a bus, etc.
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • FIG. 4 is a schematic block diagram showing the main configuration of the head mounted display 100 of FIG.
  • the head mounted display 100 has an "HMD side control unit 101", which controls an "HMD side communication device 102" that communicates with the surveying device 1 of Figure 1, HMD side cameras 111a, 111b, HMD side lighting unit 112, HMD side display 113, etc.
  • the control unit 101 also controls the HMD-side various information storage unit 120 shown in FIG. Fig. 5 is a schematic block diagram showing the main contents of the "HMD-side various information storage unit 120" in Fig. 4. The configuration of these will be described later.
  • FIG. 6 is a schematic block diagram showing the main configuration of the laser scanner 3 of FIG.
  • the laser scanner 3 has a "laser scanner side control unit 301", which controls the "laser scanner main body 302", which is the main component of the laser scanner 3 in Figure 1, and also controls the "laser scanner side various information storage unit 310".
  • Fig. 7 is a schematic block diagram showing the main components of the "laser scanner side various information storage unit 310" in Fig. 6. These components will be described later.
  • FIGS. 8 and 9 are schematic flow charts showing an example of the operation of the point cloud information generating system 500.
  • the worker P wears a head-mounted display 100 and performs a scan with the surveying device 1, thereby obtaining three-dimensional point cloud data of the portion between points A and B, and the obtained three-dimensional point cloud data is displayed on the HMD side display 113.
  • the main operations of this system 500 will be described in detail.
  • step (hereinafter referred to as "ST") 1 of Figure 8 worker P installs the surveying device 1 in a predetermined position as shown in Figure 1, and wears the head-mounted display (HMD) 100 on his or her head.
  • HMD head-mounted display
  • the worker P turns on the HMD-side cameras 111a and 111b of the head mounted display 100, and also turns on the HMD-side illumination unit 112. Because the HMD-side display 113 is a "transparent type,” the worker P is able to see the outside through the display 113.
  • the "HMD coordinate information generating unit (program) 121" in FIG. 5 of the head mounted display 100 operates, the HMD side cameras 111a, 111b and the HMD side lighting unit 112 operate, and three-dimensional coordinate information of the pillar 600 that the worker P is viewing on the HMD side display 113 is generated using the structured lighting technique, and this is stored as HMD coordinate information (MR coordinate data) in the "HMD coordinate information storage unit 122" in FIG. 5.
  • the process proceeds to ST6.
  • the worker P points the index finger of his right hand toward "start point A" of the pillar 600 shown in Fig. 1, which is the object to be scanned, and turns on a "trigger switch” (not shown).
  • This action of the worker P is an example of execution instruction information.
  • proceed to ST7 where the "HMD coordinate data generation unit (program) 125" in Figure 5 generates directional information from the index finger tilt information, etc., identifies point A on pillar 600, generates "scan start point coordinate information," and stores it in the "scan start point coordinate information storage unit 126" in Figure 5.
  • the process proceeds to ST8.
  • the worker P points the index finger of his right hand toward the "end point B" of the pillar 600, which is the object to be scanned, and turns on the "trigger switch.” This action of the worker P is an example of execution instruction information.
  • the process proceeds to ST9.
  • the "HMD coordinate data generating unit 125" in Fig. 5 generates directional information from the inclination information of the index finger, identifies point B on the pillar 600, generates “scan end point coordinate information", and stores this in the "scan end point coordinate information storage unit 127" in Fig. 5.
  • This range from point A to point B is an example of a portion of the target object.
  • the surveying device 1 constantly measures the distance to the head mounted display 100 and stores the "HMD distance information" in the "HMD distance information storage unit 311" in Figure 7. Therefore, the laser scanner 3 constantly acquires distance information from the head mounted display 100 .
  • the laser scanner 3 constantly communicates with the head mounted display 100 and acquires information from the “HMD coordinate information memory unit 122”, “scan start point coordinate information memory unit 126”, and “scan end point coordinate information memory unit 127” of the head mounted display 100 in Figure 5. Then, "scanner-side HMD coordinate information,”"scanner-side scan start point coordinate information,” and “scanner-side scan end point coordinate information” are generated, respectively. Then, they are stored in the "scanner-side HMD coordinate information storage unit 312", the “scanner-side scan start point coordinate information storage unit 313" and the "scanner-side scan end point coordinate information storage unit 314" in FIG. 7, respectively.
  • the coordinate information stored in the head mounted display 100 is stored on the laser scanner 3 side.
  • the "laser scanner side corrected coordinate information generating unit (program) 315" in FIG. 7 of the laser scanner 3 operates to generate "corrected scanner side HMD coordinate information", "corrected scanner side start point coordinate information” and “corrected scanner side scan end point information” corrected at the coordinate position of the laser scanner 3 from the "HMD distance information" in the "HMD distance information storage unit 315" and each of the coordinate information of "scanner side HMD coordinate information", “scanner side scan start point coordinate information” and "scanner side scan end point coordinate information".
  • each piece of information generated as described above is stored in the "modified scanner side HMD coordinate information storage unit 316," the "modified scanner side start point coordinate information storage unit 317,” and the “modified scanner side scan end point information storage unit 318.”
  • the laser scanner 3 is synchronized with the data of the head mounted display 100, and constantly generates and stores coordinate information based on the laser scanner 3, incorporating the coordinate information of the head mounted display 100.
  • the "scan target identification processing unit (program) 319" of the laser scanner 3 in FIG. 6 operates, and refers to the "modified scanner side start point coordinate information storage unit 317" and the “modified scanner side scan end point information storage unit 318", etc., to identify the coordinate information of the range from point A to point B of the pillar 600, which is the target to be scanned, based on the laser scanner 3, scans this range (local scan), and obtains 3D point cloud data.
  • the optical axis deflection unit 35 and the like shown in FIGS. 2 and 3 are operated to locally scan the above-mentioned range, and an example of the local scan pattern will be described below.
  • 10 and 11 show examples of scan patterns when the optical axis deflection unit 35 etc. performs local scanning.
  • the scan pattern 53 shown in FIG. 10 is a petal-shaped scan pattern
  • the scan patterns 54a and 54b shown in FIGS. 11(A) and 11(B) are linear scan patterns.
  • this embodiment is configured to be able to partially scan only the local area identified as the scanning target.
  • the 3D point cloud data in the range from point A to point B of pillar 600 in FIG. 1 acquired by laser scanner 3 in this way is stored in the "scanner-side 3D point cloud data storage unit 320" in FIG. 7.
  • the worker P simply wears the head mounted display 100 and uses his/her finger to specify the target range for scanning, and the laser scanner 3 can automatically scan only the target range with high accuracy, quickly and easily, and obtain three-dimensional point cloud data of the target range.
  • the coordinate information including the head mounted display 100 is held based on the laser scanner 3. Therefore, when the worker P in Figure 1 rotates his head sideways, etc., causing the head-mounted display 100 to rotate, the rotation is detected and the horizontal mechanism of the laser scanner 3 itself of the surveying device 1 in Figure 1 rotates in the same manner, as described above.
  • the laser scanner 3 can be configured to rotate in synchronization with the line of sight of the worker P, and the laser scanner 3 can also be configured to automatically track the object being scanned.
  • the laser scanner 3 can be configured to face the same area as the "angle of view" captured by the HMD side cameras 111a and 111b.
  • the head mounted display 100 generates coordinate information, and then the laser scanner 3 acquires the coordinate information of the head mounted display 100, and the overall coordinate information including the laser scanner 3, the head mounted display 100, and the pillar 600 is generated based on the laser scanner 3,
  • the present invention is not limited to this, and may be configured as follows.
  • the laser scanner 3 may be configured to generate overall coordinate information without acquiring coordinate information of the head mounted display 10 using the camera (imaging unit 14) of the laser scanner 3, the HMD side camera 111a of the head mounted display 100, the HMD side illumination unit 112, etc.
  • the worker P wearing the head-mounted display 100 uses his index finger to specify the scanning portion of the pillar 600 (point A to point B), and these steps are the same as in the embodiment described above.
  • the three-dimensional point cloud data of the pillar 600 acquired by the laser scanner 3 is transmitted to the head-mounted display 100 and displayed at the same coordinate position as the pillar 600 that the worker P is viewing through the transparent HDM side display 113.
  • the HMD 100 in this embodiment is an MR device, it is configured to be able to overlay and fuse virtual three-dimensional point cloud data that does not actually exist onto the visible pillar 600 via the HDM side display 113.
  • FIG. 12 is a schematic explanatory diagram showing a pillar 600 visible through the HDM side display 113 and the three-dimensional point cloud data of points A and B superimposed on each other. As shown in Figure 12, worker P can immediately check whether the three-dimensional point cloud data between points A and B of pillar 600 generated by the laser scanner 3 scanning at his/her command has been formed correctly.
  • the position of the three-dimensional point cloud data from point A to point B visible through the HDM side display 113 can be corrected. That is, similarly to the above-mentioned ST6 to ST8, the operator P can specify the portion to be corrected by pointing the index finger of his/her right hand at the information on the portion to be corrected in the three-dimensional point cloud data and turning on the trigger switch.
  • FIG. 13 is a schematic explanatory diagram showing a case where three-dimensional point cloud data is generated by mistake including a protrusion C other than points A and B of the pillar 600.
  • the worker P can confirm through the HDM side display 113 that the three-dimensional point cloud data of the protrusion C has also been generated, contrary to his/her wish. Therefore, after issuing an instruction to generate three-dimensional point cloud data, the operator P can immediately issue an instruction to delete the three-dimensional point cloud data of the portion of the protrusion C.
  • the deletion can be performed by the worker P pointing the index finger of his/her right hand at the information on the portion to be corrected in the three-dimensional point cloud data, turning on the trigger switch, and specifying the deletion range.
  • the laser scanner 3 corrects the data in the 'scanner-side 3D point cloud data storage unit 320' based on the received correction data.
  • FIG. 14 is a schematic explanatory diagram showing a case where the worker P is unable to sufficiently specify the distance between point A and point B of the pillar 600.
  • the worker P can confirm via the HDM side display 113 that the three-dimensional point cloud data of the part D has not been generated, contrary to his/her wish.
  • the worker P points the index finger of his right hand at the correction portion information of the 3D point cloud data, turns on the trigger switch, and specifies an additional range for the laser scanner 3 to start scanning.
  • the additionally scanned 3D point cloud data of portion D is then corrected and stored in the 'scanner-side 3D point cloud data storage unit 320'.
  • the data was first stored in another PC (computer), etc., and then the correction was performed. This made it difficult to understand the relationship with the actual pillars 600, etc.
  • the object, pillar 600, and the generated three-dimensional point cloud data can be compared at the same time for correction, making correction easier.
  • the present invention is not limited to the case where the scan area (point A to point B) is designated continuously as shown in FIG. 12, but also includes the case where the scan area is designated in parts.
  • 15A and 15B are schematic diagrams illustrating the process of dividing and specifying a target area and generating three-dimensional point cloud data.
  • a first area E1 which is part of the scanning area (from point A to point B) of the pillar 600, is scanned with a laser scanner 3, and three-dimensional point cloud data is generated and displayed in a state that is visible to the worker P via the HDM side display 113.
  • the worker P can check through the HDM side display 113 whether the three-dimensional point cloud data displayed in the first area E1 has been generated correctly, and can simultaneously make corrections to the three-dimensional point cloud data.
  • the three-dimensional point cloud data of the first area E1 is confirmed, and then, as shown in Figure 15 (B), the second area E2, which is another part of the scanning area of the pillar 600 (points A to B), is scanned with the laser scanner 3, and the three-dimensional point cloud data is generated and displayed in a state that is visible to the worker P via the HDM side display 113. Then, confirmation work such as corrections is carried out in the same manner as in the first area E1 described above.
  • the scanning area between points A and B on pillar 600 is divided and scanned in sequence, and then divided to generate 3D point cloud data, making it possible to correct the 3D point cloud data with higher accuracy.
  • the periphery of a structure on the blueprint that does not yet exist can be designated as the scanning range, and scanned by the laser scanner 3.
  • the components to be inspected can be specified on the design drawings and then scanned after they have been installed in the actual space, allowing the inspection items to be intuitively specified.
  • the HDM side display 113 of worker P displays a fusion of virtual reality design drawing information and three-dimensional point cloud data overlaid on the actual structure (MR (Mixed Reality)).
  • the worker P identifies an object such as a pillar 600 displayed on the head-mounted display 100 as the object to be scanned, and the worker P does not need to actually touch the pillar 600 with his/her hand.
  • the worker P may actually touch the pillar 600 to specify the object and range of scanning. Therefore, the operator P can specify the scanning range more accurately.
  • the present invention has been described with reference to an example in which the invention is realized as a device, but the invention is not limited to this, and the invention may be distributed as a program that can be executed by a computer and stored on a storage medium such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a magneto-optical disk (MO), or a semiconductor memory.
  • a storage medium such as a magnetic disk (floppy disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a magneto-optical disk (MO), or a semiconductor memory.
  • the storage medium may be any medium that can store a program and is computer readable. There are no particular limitations on the storage format of the storage medium.
  • an OS operating system
  • database management software database management software
  • network software or other MW (middleware) running on a computer may execute some of the processes for implementing this embodiment based on instructions from a program installed on the computer from a storage medium.
  • MW middleware
  • the storage medium in this invention is not limited to media independent of a computer, but also includes storage media that stores or temporarily stores downloaded programs transmitted via a LAN, the Internet, etc.
  • the computer of the present invention only needs to execute each process in this embodiment based on a program stored in a storage medium, and may be a device such as a personal computer (PC), or may be a system in which multiple devices are connected to a network.
  • a program stored in a storage medium may be a device such as a personal computer (PC), or may be a system in which multiple devices are connected to a network.
  • PC personal computer
  • the computer in this invention is not limited to a personal computer, but also includes an arithmetic processing unit, a microcomputer, etc., included in information processing equipment, and is a general term for equipment or devices that can realize the functions of this invention by a program.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

簡易且つ迅速に所望の対象物について点群情報を生成することができると共に、容易且つ迅速に点群情報を修正することができる点群情報生成システム等を提供することを目的とする。対象物600の3次元点群情報を生成する点群情報生成装置1と、使用者が装着可能なXR(クロスリアリティ)生成装置100と、を備え、XR生成装置は、少なくとも使用者の視線に対応した撮像情報を取得する撮像部111aと、表示部113を備え、表示部に表示された対象物についての実行指示情報に基づいて、点群情報生成装置が実行指示情報で特定された対象物について3次元点群情報を生成すると共に、生成された対象物についての3次元点群情報を表示部に対象物と共に表示する点群情報生成システム500。

Description

点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラム
 本発明は、対象物の点群情報を取得する点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラムに関する。
 従来、土木や建築現場等で、例えば、建築物の形状等を把握するとき、3次元スキャナ装置がレーザ等を照射し、対象物である建築物等の3次元形状を点群データとして取得することが提案されている(例えば、特許文献1等)。
特開2018-66571号公報
 しかし、実際の現場では、建築物全体ではなく、その一部の1本の柱等の対象について点群データを取得したい等の要望がある。
 この場合、スキャナ装置を操作し、その建築物エリア全体あるいは一定のエリアのデータを取得し、柱等のみの点群データとする必要があり、対象エリアにレーザ照射し、点群取得後、特定の対象である1本の柱等のみの点群にするために、後処理にて不要な点群を除去してデータの編集等を行うため、必要な柱の点群データを取得するには、手間がかかり、また時間や熟練が必要で、大幅なコスト増となるという問題があった。
 そこで、本発明は、簡易且つ迅速に所望の対象物について点群情報を生成することができると共に、容易且つ迅速に点群情報を修正することができる点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラムを提供することを目的とする。
 前記目的は、本発明によれば、対象物の3次元点群情報を生成する点群情報生成装置と、使用者が装着可能なXR(クロスリアリティ)生成装置と、を備える点群情報生成システムであって、前記XR生成装置は、少なくとも前記使用者の視線に対応した撮像情報を取得する撮像部と、表示部を備え、前記表示部に表示された前記対象物についての実行指示情報に基づいて、前記点群情報生成装置が前記実行指示情報で特定された前記対象物について3次元点群情報を生成すると共に、生成された前記対象物についての前記3次元点群情報を前記表示部に前記対象物と共に表示することを特徴とする点群情報生成システムにより達成される。
 前記構成によれば、使用者はXR生成装置を装着して、対象物について実行指示情報を入力するだけで、点群情報生成装置は、自動的に対象物について点群情報を生成することができる。
 したがって、簡易且つ迅速に所望の対象物について点群情報を生成することができる。
 また、前記構成によれば、生成された前記対象物についての前記3次元点群情報を前記表示部に前記対象物と共に表示するので、前記XR生成装置の利用者は、表示部に表示され
た対象物の3次元点群情報を対象物と比較しながら修正等することができ、より精度の高い3次元点群情報を取得することができる。
 好ましくは、前記点群情報システムの前記実行指示情報に基づいて特定された前記対象物の部分について前記3次元点群情報を生成し、前記実行情報に基づいて生成された前記3次元点群情報を修正することを特徴とする。
 前記構成によれば、実行指示情報に基づいて対象物の部分を指定することで、簡易且つ迅速に対象物の部分についてのみ3次元点群情報を生成することができる。
 また、前記構成によれば、前記実行情報に基づいて生成された前記3次元点群情報を修正するので、例えば、3次元点群情報の部分的削除や追加等の修正を精度良く行うことが可能となる。
 好ましくは、前記点群情報生成装置は、点群情報を生成するための測距光を射出すると共に、前記測距光の射出方向を偏向する光軸偏向部を有し、前記光軸偏向部で前記測距光を偏向することで、前記測距光を前記対象物の部分のみに照射させる構成となっていることを特徴とする。
 前記構成によれば、実行指示情報に基づいて特定された対象物の部分に向かって、点群情報生成装置の光軸偏向部が測距光を偏向し、照射させることで、精度良く、対象物の部分についてのみ3次元点群情報を生成することができる。
 好ましくは、前記点群情報システムに関する設計図情報を、前記表示部に表示する構成となっていることを特徴とする。
 前記構成によれば、未だ存在しない設計図上の構造物等の周辺等を範囲指定し、3次元点群情報を取得することができる。
 また、実際に建築現場等に部材等を設置した後に設計図情報と比較して検査をする際、検査をする部材等を設計図情報上で指定し、実際の空間に設置されたものの3次元点群情報を取得することで、直感的に検査対象等を指定等することが可能となる。
 さらに、設計図上の部材等の位置が、設置予定場所等と異なり「ズレ」ている場合、この異なっている量を視認しながら、設置完了前に3次元点群情報を取得することで、完成後の設置位置等まで変更する等の作業が容易且つ迅速にすることができる。
 前記目的は、本発明によれば、対象物の3次元点群情報を生成する点群情報生成装置と、使用者が装着可能なXR生成装置とを備える点群情報生成システムの制御方法であって、前記XR生成装置の撮像部は、前記使用者の視線に対応した撮像情報を取得し、前記表示部に表示された前記対象物についての実行指示情報に基づいて、前記点群情報生成装置が前記実行指示情報で特定された前記対象物について3次元点群情報を生成し、生成された前記対象物についての前記3次元点群情報を前記表示部に前記対象物と共に表示することを特徴とする点群情報生成システムの制御方法により達成される。
 前記目的は、本発明によれば、対象物の3次元点群情報を生成する点群情報生成装置と、使用者が装着可能なXR現実生成装置とを備える点群情報生成システムに、前記XR生成装置の撮像部が前記使用者の視線に対応した撮像情報を取得し、前記表示部に表示された前記対象物についての実行指示情報に基づいて、前記点群情報生成装置が前記実行指示情報で特定された前記対象物について3次元点群情報を生成する機能、生成された前記対象物についての前記3次元点群情報を前記表示部に前記対象物と共に表示する機能、を実現させることを特徴とする点群情報生成システムの制御プログラムにより達成される。
 本発明は、簡易且つ迅速に所望の対象物について点群情報を生成することができると共に、容易且つ迅速に点群情報を修正することができる点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラムを提供することができるという利点がある。
本実施の形態に係る「点群情報生成システム500」の主な構成を示す概略図である。 図1のレーザスキャナ3の主な構成と示す概略図である。 図2の光軸偏向部35の主な構成を示す概略図である。 図1のヘッドマウントディスプレイ100の主な構成を示す概略ブロック図である。 図3の「HMD側各種情報記憶部120」の主な内容を示す概略ブロック図である。 図1のレーザスキャナ3の主な構成を示す概略ブロック図である。 図5の「レーザスキャナ側各種情報記憶部310」の主な構成と示す概略ブロック図である。 点群情報生成システム500の動作例を示す概略フローチャートである。 点群情報生成システム500の動作例を示す他の概略フローチャートである。 光軸偏向部35等が局所スキャンを行う際のスキャンパターンの一例を示す概略説明図である。 光軸偏向部35等が局所スキャンを行う際のスキャンパターンの一例を示す他の概略説明図である。 HDM側ディスプレイ113を介して視認できる柱600とA地点乃至B地点の3次元点群データを重ね合わせて表示した状態を示す概略説明図である。 誤って柱600の地点A乃至地点B以外の突起Cも含めて3次元点群データを生成した場合を示す概略説明図である。 作業者Pが、柱600の地点A乃至地点Bの間を十分に指定できなかった場合を示す概略説明図である。 (A)(B)は、対象エリアを分割して指定し、3次元点群データを生成する工程を示す概略説明図である。
 以下、この発明の好適な実施の形態を添付図面等を参照しながら、詳細に説明する。
 尚、以下に述べる実施の形態は、本発明の好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの態様に限られるものではない。
 図1は、本実施の形態に係る「点群情報生成システム500」の主な構成を示す概略図である。
 図1に示すように、点群情報生成システム500は、点群情報生成装置の一例である「測量装置1」、XR生成装置の一例である「ヘッドマウントディスプレイ(HMD)100」を有している。
 ここで、XR(クロスリアリティ)とは、「VR(Virtual Reality(仮想現実))」「AR(Augmented Reality(拡張現実))」及び「MR(Mixed reality(複合現実))を含む概念であり、本実施の形態では、MRを例に以下説明する。
 したがって、本発明のXR生成装置は、本実施の形態のMRのみならずVR、AR等も含まれる。
 この測量装置1は、スキャニング等を行うことで対象物(例えば、柱600等)の3次元点群情報を生成するレーザスキャナ3等を有している。
 また、ヘッドマウントディスプレイ100は、本システム500の使用者(例えば、作業者P)が頭部に装着する構成となっている。
 測量装置1は、図1に示すように、レーザスキャナ3を有し、レーザスキャナ3は、レーザ光を照射し受光することで3次元の点群データを取得することができると共に、特定の測定点について測距することもできる。
 すなわち、図1の柱600等の対象物の3次元の点群データと、レーザスキャナ3と柱600との距離データを取得可能な構成となっている。
 また、レーザスキャナ3は、ヘッドマウントディスプレイ100との距離データ等も取得可能な構成となっている。
(ヘッドマウントディスプレイ100の主な構成等)
 以下、これらヘッドマウントディスプレイ100及び測量装置1等の構成について詳述する。
 本実施の形態のヘッドマウントディスプレイ100は、例えば、複合現実(Mixed Reality)用の器機である。
 具体的には、透過型のHDM側ディスプレイ113(表示部の一例)に現実世界の情報を透過させ。その座標情報を生成することができると共に、コンピュータ等で作成した仮想世界の情報等も融合して表示させることができる構成となっている。
 本実施の形態では、後述のように、ヘッドマウントディスプレイ100は、HDM側ディスプレイ113に現実世界である柱600等と、この柱600の部分の3次元点群データを合成して表示することが可能な構成となっている。
 具体的には、図1に示すように、ヘッドマウントディスプレイ100は、作業者Pの頭部に装着される「本体部110」と、作業者Pの両眼に対して向かい合うように配置される「HMD側ディスプレイ113」と、作業者Pの視線に沿って配置される撮像部である例えば、2つの「HMD側カメラ111a、111b」と、を備えている。また、光源であるHMD側照明部112も有している。
 そして、この2つのHMD側カメラ111a、111bは、作業者Pの視線と同じ方向を向いて設置され、この2つのHMD側カメラ111a、111bで撮像した撮像情報は、作業者Pの視線及び視界と同様となる。
 そして、HMD側ディスプレイ113は「透過型」となっているため、作業者Pは、同ディスプレイ113を透過して対象を見ることができる構成となっている。
 また、HMD側照明部112は、作業者Pの視線と同じ方向に光を照射する構成となっているが、HMD側カメラ111a、111bとは異なった角度で配置されている。
 そして、HMD側照明部112は、様々なパターン光を照射する構成ともなっており、照射した光の歪みを計測することで、「奥行き」を測定することが可能な構成となっている。
 したがって、この2つHMD側カメラ111a、111bで作業者Pの視線と同じ方向に配置される対象物(例えば、柱600)を撮像し、この柱600にHMD側照射部112が光を照射すると、「構造化照明」の手法を用いて柱600の立体的な3次元座標データである「HMD側座標データ(MR座標データ)」を生成することができる構成となっている。
 また、この「HMD側座標データ」の基準は、HMD側カメラ111a、111bの座標位置となる。
 なお、本実施の形態では、「構造化照明」の手法で3次元データを生成したが、本発明は、これに限らず、「2つのカメラ」のみで「3次元データ」を生成する場合や、光源から照射された光がカメラに戻ってくるまでに時間から「3次元データ」を生成する「ToF(Time of Flight)の手法でデータを生成する場合も含まれる。
 また、本発明は本実施の形態と異なり、光学式カメラと深度センサをヘッドマウントディスプレイに配置し、カメラから赤外線を照射して物体に反射させ、反射した赤外線が戻るまでに時間を計測することで物体の深度(奥行き)を計算する構成としても構わない。
(測量装置1の主な構成等)
 以下、測量装置1の構成について詳述する。
 図1に示すOは光軸が偏向されていない状態での測距光軸を示 し、この時の測距光軸を基準光軸とする。
 測量装置1は、主に支持装置としての三脚2、レーザスキャナ3、操作装置4、回転台5から構成される。
 回転台5は三脚2の上端に取付けられ、回転台5にレーザスキャナ3が横回転可能及び縦回転可能に取付けられる。
 また、回転台5は、レーザスキャナ3の横方向の回転角(水平方向の回転角)を検出する機能を有している。
 回転台5には横方向に延びるレバー7が設けられる。レバー7の操作により、レーザスキャナ3を上下方向(鉛直方向)、又は横方向(水平方向)に回転させることができ、又所要の姿勢で固定することも可能となっている。
 また、レーザスキャナ3自体にも水平に回転できる機構を有し、対象物を追尾するための自動回転可能な機構も備わっている。
 レーザスキャナ3は、後述する測距部、姿勢検出部を内蔵し、測距部は測距光を測定対象物、或は測定範囲に射出し、反射測距光を受光して測距を行う。また、姿勢検出部は、レーザスキャナ3の鉛直(又は水平)に対する姿勢を高精度に検出可能である。
 操作装置4は、レーザスキャナ3との間で有線、無線等所要の手段を介して通信を行う通信機能を有する。
 レーザスキャナ3からは、画像、測定状態、測定結果等が操作装置4に送信され、該画像、測定状態、測定結果等が、操作装置4に記憶されるようになっている。
 図2は、図1のレーザスキャナ3の主な構成と示す概略図である。
 図2に示すように、レーザスキャナ3は、測距光射出部11、受光部12、測距演算部13、撮像部14(カメラ)、射出方向検出部15、モータドライバ16、姿勢検出部17、第1通信部18、演算制御部19、第1記憶部20、撮像制御部21、画像処理部22を具備し、これらは筐体9に収納され、一体化されている。
 なお、測距光射出部11、受光部12、測距演算部13等は測距部を構成する。
 測距光射出部11は射出光軸26を有し、射出光軸26上に発光素子27、例えばレーザダイオード(LD)が設けられている。
 また、射出光軸26上に投光レンズ28が設けられている。更に、射出光軸26上に設けられた偏向光学部材としての第1反射鏡29と、受光光軸31上に設けられた偏向光学部材としての第2反射鏡32とによって、射出光軸26は、受光光軸31と合致するように偏向される。第1反射鏡29と第2反射鏡32とで射出光軸偏向部が構成される。
 発光素子27はパルスレーザ光線を発し、測距光射出部11は、発光素子27から発せられたパルスレーザ光線を測距光23として射出する。
 受光部12には、測定対象物(即ち測定点)からの反射測距光24が入射する。
 受光部12は、受光光軸31を有し、受光光軸31には、上記したように、第1反射鏡29、第2反射鏡32によって偏向された射出光軸26が合致する。
 なお、射出光軸26と受光光軸31とが合致した状態を測距光軸40とする(図1参照)。
 偏向された射出光軸26上に、すなわち、受光光軸31上に光軸偏向部35が配設される。光軸偏向部35の中心を透過する真直な光軸は、基準光軸Oとなっている。基準光軸Oは、光軸偏向部35によって偏向されなかった時の射出光軸26又は受光光軸31と合致する。
 光軸偏向部35を透過し、入射した受光光軸31上に結像レンズ34が配設され、又受光素子33、例えばフォトダイオード(PD)が設けられている。
 結像レンズ34は、反射測距光24を受光素子33に結像する。受光素子33は反射測距光24を受光し、受光信号を発生する。
 受光信号は、測距演算部13に入力される。測距演算部13は、受光信号に基づき測定点迄の測距を行う。
 図3は、図2の示す光軸偏向部35の主な構成を示す概略図である。
 図3を参照して、前記光軸偏向部35について説明する。
 該光軸偏向部35は、一対の光学プリズム36a,36bから構成される。該光学プリズム36a,36bは、それぞれ円板状であり、前記受光光軸31上に直交して配置され、重なり合い、平行に配置されている。
 前記光学プリズム36a,36bとして、それぞれフレネルプリズムが用いられることが、装置を小型化する為に好ましい。
 前記光軸偏向部35の中央部は、前記測距光23が透過し、射出される第1光軸偏向部である測距光偏向部35aとなっており、中央部を除く部分は前記反射測距光24が透過し、入射する第2光軸偏向部である反射測距光偏向部35bとなっている。
 前記光学プリズム36a,36bとして用いられるフレネルプリズムは、それぞれ平行に形成されたプリズム要素37a,37bと多数のプリズム要素38a,38bによって構成され、円板形状を有する。前記光学プリズム36a,36b及び各プリズム要素37a,37b及びプリズム要素38a,38bは同一の光学特性を有する。
 前記プリズム要素37a,37bは、前記測距光偏向部35aを構成し、前記プリズム要素38a,38bは前記反射測距光偏向部35bを構成する。
 前記フレネルプリズムは光学ガラスから製作してもよいが、光学プラスチック材料でモールド成形したものでもよい。光学プラスチック材料でモールド成形することで、安価なフレネルプリズムを製作できる。
 前記光学プリズム36a,36bはそれぞれ前記受光光軸31を中心に独立して個別に回転可能に配設されている。前記光学プリズム36a,36bは、回転方向、回転量、回転速度を独立して制御されることで、射出される前記測距光23の前記射出光軸26を任意の方向に偏向し、受光される前記反射測距光24の前記受光光軸31を前記射出光軸26と平行に偏向する。
 前記光学プリズム36a,36bの外形形状は、それぞれ前記受光光軸31を中心とする円形であり、前記反射測距光24の広がりを考慮し、充分な光量を取得できるように前記光学プリズム36a,36bの直径が設定されている。
 前記光学プリズム36aの外周にはリングギア39aが嵌設され、前記光学プリズム36bの外周にはリングギア39bが嵌設されている。
 前記リングギア39aには駆動ギア41aが噛合し、該駆動ギア41aはモータ42aの出力軸に固着されている。同様に、前記リングギア39bには駆動ギア41bが噛合し、該駆動ギア41bはモータ42bの出力軸に固着されている。前記モータ42a,42bは、前記モータドライバ16に電気的に接続されている。
 前記モータ42a,42bは、回転角を検出することができるもの、或は駆動入力値に対応した回転をするもの、例えばパルスモータが用いられる。或は、モータの回転量(回転角)を検出する回転角検出器、例えばエンコーダ等を用いてモータの回転量を検出してもよい。前記モータ42a,42bの回転量がそれぞれ検出され、前記モータドライバ16により前記モータ42a,42bが個別に制御される。
 尚、エンコーダを直接前記リングギア39a,39bにそれぞれ取付け、エンコーダにより前記リングギア39a,39bの回転角を直接検出するようにしてもよい。
 前記駆動ギア41a,41b、前記モータ42a,42bは、前記測距光射出部11と干渉しない位置、例えば前記リングギア39a,39bの下側に設けられている。
 前記投光レンズ28、前記第1反射鏡29、前記第2反射鏡32、前記測距光偏向部35a等は、投光光学系を構成し、前記反射測距光偏向部35b、前記結像レンズ34等は受光光学系を構成する。
 前記測距演算部13は、前記発光素子27を制御し、前記測距光23としてパルスレーザ光線を発光させる。該測距光23が、前記プリズム要素37a,37b(前記測距光偏向部35a)により、測定点に向うように前記射出光軸26が偏向される。
 測定対象物から反射された前記反射測距光24は、前記プリズム要素38a,38b(前記反射測距光偏向部35b)、前記結像レンズ34を介して入射し、前記受光素子33に受光される。該受光素子33は、受光信号を前記測距演算部13に送出し、該測距演算部13は前記受光素子33からの受光信号に基づき、パルス光毎に測定点(測距光が照射された点)の測距を行い、測距データは前記第1記憶部20に格納される。
 而して、前記測距光23をスキャンしつつ、パルス光毎に測距を行うことで各測定点の測距データが取得できる。
 前記射出方向検出部15は、前記モータ42a,42bに入力する駆動パルスをカウントすることで、前記モータ42a,42bの回転角を検出する。
 あるいは、エンコーダからの信号に基づき、前記モータ42a,42bの回転角を検出する。又、前記射出方向検出部15は、前記モータ42a,42bの回転角に基づき、前記光学プリズム36a,36bの回転位置を演算する。
 更に、前記射出方向検出部15は、前記光学プリズム36a,36bの屈折率と回転位置に基づき、測距光の偏角、射出方向を演算し、演算結果は前記演算制御部19に入力される。
 該演算制御部19は、測距光の偏角、射出方向から測定点の水平角、鉛直角を演算し、各測定点について、水平角、鉛直角を前記測距データに関連付けることで、測定点の3次元データを求めることができる。
 また、撮像部14は、レーザスキャナ3の基準光軸Oと平行な撮像光軸43を有し、例えば50°の画角を有するカメラであり、レーザスキャナ3のスキャン範囲を含む画像データを取得する。
 撮像光軸43と射出光軸26及び前記基準光軸Oとの関係は既知となっている。また、撮像部14は、動画像、又は連続画像が取得可能である。
 撮像制御部21は、撮像部14の撮像を制御する。撮像制御部21は、撮像部14が動画像、または連続画像を撮像する場合に、動画像、または連続画像を構成するフレーム画像を取得するタイミングとレーザスキャナ3でスキャンするタイミングとの同期を取っている。演算制御部19は画像とスキャンデータである点群データとの関連付けも実行する。
 また、レーザスキャナ3が実行する測定の態様としては、光軸偏向部35を所要偏角毎に固定して測距を行うことで、特定の測定点についての測距を行うことができる。
 また、測距時の方向角(水平角、鉛直角)は射出方向検出部15の検出結果に基づき取得できる。
 また、レーザスキャナ3の水平に対する傾斜及び傾斜方向は、姿勢検出部17によって検出でき、姿勢検出部17の検出結果に基づき測定結果を水平基準のデータに補正することができる。
 すなわち、レーザスキャナ3をトータルステーションと同様に使用することができる。
 また、測距時の測距光の射出方向角は、モータの回転角により検出でき、測距時の射出方向角と測距データとを関連付けることで、3次元の測距データを取得することができる。
 したがって、レーザスキャナ3を3次元位置データを有する点群データを取得するレーザスキャナとして機能させることができる。
 図1の測量装置1、ヘッドマウントディスプレイ100は、コンピュータを有し、コンピュータは、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を有し、これらは、バス等を介して接続されている。
(ヘッドマウントディスプレイ100の主な構成等)
 図4は、図1のヘッドマウントディスプレイ100の主な構成を示す概略ブロック図である。
 図4に示すように、ヘッドマウントディスプレイ100は「HMD側制御部101」を有し、同制御部101は、図1の測量装置1等と通信する「HMD側側通信装置102」、HMD側カメラ111a、111b、HMD側照明部112、HMD側ディスプレイ113等を制御する。
 また、同制御部101は、図3に示すHMD側各種情報記憶部120も制御する。
 図5は、図4の「HMD側各種情報記憶部120」の主な内容を示す概略ブロック図である。これらの構成については、後述する。
(レーザスキャナ3の主な構成等)
 図6は、図1のレーザスキャナ3の主な構成を示す概略ブロック図である。
 図6に示すように、レーザスキャナ3は、「レーザスキャナ側制御部301」を有し、同制御部301は、図1のレーザスキャナ3の主な構成である「レーザスキャナ本体302」を制御すると共に、「レーザスキャナ側各種情報記憶部310」も制御する。
 図7は、図6の「レーザスキャナ側各種情報記憶部310」の主な構成と示す概略ブロック図である。これらの構成については、後述する。
(点群情報生成システム500の動作例)
 図8及び図9は、点群情報生成システム500の動作例を示す概略フローチャートである。
 本実施の形態では、建築現場で、作業者Pが特定の1本の柱600のA地点からB地点の間の3次元点群データを取得するために、作業者Pが、ヘッドマウントディスプレイ100を装着し、測量装置1でスキャンを実施し、これにより、A地点からB地点の間の部分の3次元点群データを取得し、取得した3次元点群データをHMD側ディスプレイ113に表示する例で、以下、本システム500主な動作例を具体的に説明する。
 先ず、図8のステップ(以下「ST」とする、)1で、作業者Pは、図1に示すように、測量装置1を所定位置に設置すると共に、ヘッドマウントディスプレイ(HMD)100を自己の頭部に装着する。
 次いで、ST2へ進む。ST2では、作業者Pが、ヘッドマウントディスプレイ100のHMD側カメラ111a、111bをON状態にし、HMD側照明部112もON状態とする。作業者Pは、HMD側ディスプレイ113が「透過型」であるため、同ディスプレイ113を介して外部を視認可能な状態となる。
 また、ST3では、ヘッドマウントディスプレイ100の図5の「HMD座標情報生成部(プログラム)121」が動作し、HMD側カメラ111a、111b及びHMD側照明部112が動作し、構造化照明手法で作業者PがHMD側ディスプレイ113で視認している柱600の3次元座標情報が生成され、HMD座標情報(MR座標データ)として、図5の「HMD座標情報記憶部122」に記憶される。
 次いで、ST4へ進む。ST4では、作業者Pが右手を動かすと共に、図1に示すように、人差指を柱600に向け、右手がHMD側カメラ111a、111bの撮像範囲内(作業者Pの視界内)に入ると、ST5で、図5の「HMD座標情報生成部(プログラム)121」が動作し、自動的に、HMD側照明部112等が動作し、構造化照明手法で、右手のHMD座標情報が生成され、図5の「HMD座標情報記憶部122」に記憶する。
 次いで、ST6へ進む。ST6では、作業者Pが、右手の人差指をスキャン対象物である図1に示す柱600の「始点A」に向け、図示しない「トリガースイッチ」をON状態とする。
 この作業者Pの動作が、実行指示情報の一例となっている。
 そして、ST7へ進み、図5の「HMD座標データ生成部(プログラム)125」が人差指の傾き情報等から、その方向情報を生成し、柱600の例えばA地点を特定し、「スキャン開始地点座標情報」を生成し、図5の「スキャン開始地点座標情報記憶部126」に記憶する。
 次いで、ST8へ進む。ST8では、作業者Pは、右手の人差指をスキャン対象物である柱600の「終点B」に向け、「トリガースイッチ」ON状態とする。
 この作業者Pの動作が、実行指示情報の一例となっている。
 そして、ST9へ進む。ST9では、図5の「HMD座標データ生成部125」が人差指の傾き情報等から、その方向情報を生成し、柱600の例えばB地点を特定し、「スキャン終了地点座標情報」を生成し、図5の「スキャン終了地点座標情報記憶部127」に記憶する。
 以上で、ヘッドマウントディスプレイ100によるスキャニングの対象範囲(図1の地点A~地点B)の特定工程が終了する。
 この地点A~地点Bの範囲が、対象物の部分の一例となっている。
 次いで、図1の測量装置1のレーザスキャナ3の動作を説明する。
 測量装置1は、常時、ヘッドマウントディスプレイ100との距離を測定し「HMD距離情報」を図7の「HMD距離情報記憶部311」に記憶する。
 従って、レーザスキャナ3は、ヘッドマウントディスプレイ100との距離情報を常時取得している。
 また、レーザスキャナ3は、ヘッドマウントディスプレイ100と常時通信し、ヘッドマウントディスプレイ100の図5の「HMD座標情報記憶部122」、「スキャン開始地点座標情報記憶部126」及び「スキャン終了地点座標情報記憶部127」の情報を取得する。
 そして、それぞれ「スキャナ側HMD座標情報」、「スキャナ側スキャン開始地点座標情報」及び「スキャナ側スキャン終了地点座標情報」を生成する。
 そして、それぞれ図7の「スキャナ側HMD座標情報記憶部312」、「スキャナ側スキャン開始地点座標情報記憶部313」及び「スキャナ側スキャン終了地点座標情報記憶部314」に記憶する。
 このようにして、ヘッドマウントディスプレイ100に記憶されていた座標情報がレーザスキャナ3側に記憶される。
 次いで、レーザスキャナ3の図7の「レーザスキャナ側修正座標情報生成部(プログラム)315」が動作し、「HMD距離情報記憶部315」の「HMD距離情報」と、「スキャナ側HMD座標情報」、「スキャナ側スキャン開始地点座標情報」及び「スキャナ側スキャン終了地点座標情報」の各座標情報からレーザスキャナ3の座標位置で修正された「修正スキャナ側HMD座標情報」、「修正スキャナ側開始地点座標情報」及び「修正スキャナ側スキャン終了地点情報」を生成する。
 次いで、上述のように生成したそれぞれの情報を「修正スキャナ側HMD座標情報記憶部316」、「修正スキャナ側開始地点座標情報記憶部317」及び「修正スキャナ側スキャン終了地点情報記憶部318」に記憶する。
 このようにしてレーザスキャナ3は、ヘッドマウントディスプレイ100のデータと同期されると共に、常時ヘッドマウントディスプレイ100の座標情報を取り込んだレーザスキャナ3基準の座標情報を生成し記憶する。
 次いで、レーザスキャナ3の図6の「スキャン対象特定処理部(プログラム)319」が動作し、「修正スキャナ側開始地点座標情報記憶部317」及び「修正スキャナ側スキャン終了地点情報記憶部318」等を参照し、スキャン対象である柱600のA地点~B地点の範囲の座標情報をレーザスキャナ3基準で、特定し、この範囲内をスキャニング(局所スキャン)し、3次元点群データを取得する。
 このとき、図2及び図3に示す光軸偏向部35等が動作して、上述の範囲内を局所スキャンするが、その局所スキャンパターンの例を以下、説明する。
 図10及び図11は、光軸偏向部35等が局所スキャンを行う際のスキャンパターンの一例を示している。
 図10に示すスキャンパターン53は、花びら形状のスキャンパターンとなっており、図11(A)、(B)に示すスキャンパターンは54a、54bは、直線スキャンのパター
ンとなっている。
 このように、本実施の形態によれば、スキャン対象として特定された局所のみを部分的にスキャンすることが可能な構成となっている。
 そして、このように、レーザスキャナ3で取得された図1の柱600のA地点~B地点の範囲の3次元点群データは、図7の「スキャナ側3次元点群データ記憶部320」に記憶される。
 以上のように、本実施の形態によれば、作業者Pがヘッドマウントディスプレイ100を装着し、指でスキャニングの対象範囲を特定するだけで、レーザスキャナ3は、自動的に対象範囲のみを精度良く迅速且つ容易にスキャニングすることができ、対象範囲の3次元点群データを取得することができる。
 また、本実施の形態では、上述のように、ヘッドマウントディスプレイ100を含めた座標情報は、レーザスキャナ3を基準に保持されている。
 このため、図1の作業者Pが頭を横方向等に回転させた結果、ヘッドマウントディスプレイ100が回転すると、その回転を検知し、上述のように図1の測量装置1のレーザスキャナ3自体の水平機構が同様に回転する構成となっている。
 したがって、本実施の形態では、作業者Pの視線に同期してレーザスキャナ3も回転する構成とすることができ、レーザスキャナ3は、スキャニングする対象を自動的に追従する構成とすることもできる。
 また、本実施の形態では、ヘッドマウントディスプレイ100が回転しない場合でも、HMD側カメラ111a、111bが撮像している「画角」と同じエリアにレーザスキャナ3が向くように構成することもできる。
 また、本実施の形態では、ヘッドマウントディスプレイ100が、座標情報を生成し、その後、レーザスキャナ3がヘッドマウントディスプレイ100の座標情報を取得して、レーザスキャナ3、ヘッドマウントディスプレイ100及び柱600を含む全体の座標情報がレーザスキャナ3を基準に生成したが、本発明はこれに限らず、以下のように構成しても構わない。
 すなわち、レーザスキャナ3のカメラ(撮像部14)やヘッドマウントディスプレイ100のHMD側カメラ111a等、HMD側照明部112等を用いて、ヘッドマウントディスプレイ10の座標情報を取得することなく、レーザスキャナ3が全体の座標情報を生成する構成としても構わない。
 この場合、その後、ヘッドマウントディスプレイ100を装着した作業者Pが、柱600のスキャニング部分(A地点~B地点)を人差指で指定することととなり、これらの工程は上述の実施の形態と同様である。
 次いで、レーザスキャナ3で取得された柱600の3次元点群データは、ヘッドマウントディスプレイ100に送信され、透過型のHDM側ディスプレイ113を介して、作業者Pが、透過して視認している柱600と同じ座標位置で表示される。
 すなわち、本実施の形態にかかるHMD100は、MR機器であるため、HDM側ディスプレイ113を介して、視認可能な柱600に、実際には存在しない仮想の3次元点群データを重ね合わせ融合させることができる構成となっている。
 図12は、HDM側ディスプレイ113を介して視認できる柱600とA地点乃至B地点の3次元点群データを重ね合わせて表示した状態を示す概略説明図である。
 図12で示すように、作業者Pは、自己が指示してレーザスキャナ3がスキャンすることで生成された柱600の地点A乃至地点Bの間の3次元点群データが正しく形成されているか否かを直ちに確認することができる。
 また、本実施に形態では、HDM側ディスプレイ113を介して視認できるA地点乃至B地点の3次元点群データの位置を修正等することができる構成となっている。
 すなわち、上述のST6乃至ST8同様に、作業者Pが右手の人差指を3次元点群データの修正部分情報の向け、トリガースイッチをON状態とすることで、修正部分を特定可能となる。
 具体的に以下説明する。
 ところで、本実施の形態では、例えば、誤って不必要な部分の3次元点群データを取得した場合や、必要な部分の3次元点群データを十分に取得できなかった場合等について、以下説明するが、本発明は、これらの場合に限定されない。
 例えば、スキャン対象の境界部等でノイズが発生したり、スキャン対象近傍で動いているもの(例えば、歩いている人等)を計ってしまい、実際の対象物の構造と異なるものを3次元点群データとした場合等も含まれる。
 そして、本発明では、このような不必要な3次元点群データも本実施の形態と同様に削除等することができる。
 図13は、誤って柱600の地点A乃至地点B以外の突起Cも含めて3次元点群データを生成した場合を示す概略説明図である。
 この場合、作業者Pは、自己の希望と異なり突起Cの3次元点群データも生成したことを、HDM側ディスプレイ113を介して確認することができる。
 そこで、作業者Pは、3次元点群データの生成を指示した後、直ちに、突起Cの部分の3次元点群データを削除する指示を実行することができる。
 具体的には、作業者Pが右手の人差指を3次元点群データの修正部分情報の向け、トリガースイッチをON状態として、削除範囲を指定することで実行可能となる。
 より具体的には、図5のHMD100の「3次元点群データ修正処理部(プログラム)128」が動作して、修正データ生成すると共に、レーザスキャナ3へ送信する。
 レーザスキャナ3は、受信した修正データに基づき、「スキャナ側3次元点群データ記憶部320」のデータを修正する。
 また、図14は、作業者Pが、柱600の地点A乃至地点Bの間を十分に指定できなかった場合を示す概略説明図である。
 この場合、作業者Pは、自己の希望と異なり部分Dの3次元点群データが生成されていないことを、HDM側ディスプレイ113を介して確認することができる。
 具体的には、作業者Pが右手の人差指を3次元点群データの修正部分情報に向け、トリガースイッチをON状態として、レーザスキャナ3に追加してスキャンを開始させる範囲を指定する。
 そして、追加してスキャンされたD部分の3次元点群データは「スキャナ側3次元点群データ記憶部320」に修正のうえ記憶される。
 このように、本実施の形態では、作業者Pは、柱600の地点A乃至地点Bの間の3次元点群データを生成する場合、HDM側ディスプレイ113を介して、実際に柱600と生成された3次元点群データを比較しながら確認することができるので、修正等を行う場合、3次元点群データの生成直後、又は、生成しながら、かつ、その修正部分をHDM側ディスプレイ113で視認しながら修正できる。
 このため、迅速且つ容易に精度の高い3次元点群データを生成することができる。
 従来、生成した3次元点群データを修正する場合、生成した3次元点群データを別のPC(コンピュータ)等に格納した後に行ってたため、実際の柱600等との関係等が分からず、修正に困難が伴っていた。
 この点、本実施の形態では、対象物である柱600と生成された3次元点群データを同時に見比べながら修正することができるので、より修正し易い構成となっている。
 本発明には、図12に示すようにスキャン対象エリア(地点A乃至地点B)を連続して指定する場合に限らず、スキャン対象エリアを分割して指定する場合も含まれる。
 図15(A)(B)は、対象エリアを分割して指定し、3次元点群データを生成する工程を示す概略説明図である。
 先ず、図15(A)に示すように、柱600のスキャン対象エリア(地点A乃至地点B)の一部分である第1エリアE1をレーザスキャナ3でスキャンし、その3次元点群データを生成し、HDM側ディスプレイ113を介して作業者Pに視認可能な状態で示す。
 このため、作業者Pは、HDM側ディスプレイ113を通して、第1エリアE1に示された3次元点群データが正しく生成されているか否かを確認することができ、3次元点群データに修正等を同時に加えることが可能な構成となっている。
 このように、先ず、第1エリアE1の3次元点群データを確認にした後、図15(B)に示すように、柱600のスキャン対象エリア(地点A乃至地点B)の他の部分である第2エリアE2をレーザスキャナ3でスキャンし、その3次元点群データを生成し、HDM側ディスプレイ113を介して作業者Pに視認可能な状態で示す。
 そして、上述の第1エリアE1と同様に修正等の確認作業を行う。
 このように、スキャン対象エリアである柱600の地点A乃至地点Bの間を分割して順番にスキャンし、分割して3次元点群データを生成することで、より精度の高い3次元点群データの修正等が可能となる。
(実施の形態の第1の変形例)
 本実施の形態の第1の変形例の多くの構成は、上述の実施の形態と共通しているため、説明を省略し、以下、相違点を中心し説明する。
 上述の実施の形態では、作業者Pのヘッドマウントディスプレイ100のHDM側ディスプレイ113には、作業者Pの視界が表示されるが、本変形例では、対応する「設計図」情報がコンピュータ等で3次元情報(例えば、CG(Computer Graphics(コンピュータ・グラフィックス))に加工され、組み合わされて表示される。
 したがって、実際には建築現場には、未だ存在しない設計図上の構造物の周辺等をスキャニングの範囲等に指定し、レーザスキャナ3でスキャニングすることができる。
 また、実際に建築現場に部材を設置した後に設計データと比較して検査をする際、検査をする部材を設計図面上で指定し、実際の空間に設置されたものをスキャニングすることで、直感的に検査対象を指定することができる。
 したがって、本変形例では、作業者PのHDM側ディスプレイ113には、実際に存在する構造物に仮想現実である設計図情報と3次元点群データが重なり合い、融合されて表示されることになる(MR(Mixed Rearity(複合現実))。
 このため、設計図上の部材の位置が、設置予定場所と異なり「ズレ」ている場合、この異なっている量を視認しながら、設置完了前にスキャニングしながら完成後の設置位置まで変更する等の作業が容易且つ迅速にすることができる。
(本実施の形態の第2の変形例)
 本実施の形態の第2の変形例の多くの構成は、上述の実施の形態と共通しているため、説明を省略し、以下、相違点を中心し説明する。
 上述の実施の形態では、作業者Pは、ヘッドマウントディスプレイ100において表示された柱600等の対象物をスキャン対象として特定し、実際に作業者Pの手が柱600等に触れる必要はない構成となっている。
 しかし、本変形では、作業者Pが実際に柱600に触れて、スキャニングの対象や、その範囲を指定しても構わない構成となっている。
 したがって、作業者Pは、より正確にスキャニングの範囲を指定することができる。
 以上説明した本実施形態においては、装置として実現される場合を例に挙げて説明したが、本発明は、これに限定されず、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD-ROM、DVDなど)光磁気ディスク(MO)、半導体メモリなどの記憶媒体に格納され頒布されてもよい。
 また、記憶媒体は、プログラムを記憶でき、かつコンピュータが読み取り可能な記憶媒体であればよい。記憶媒体の記憶形式は、特には限定されない。
 また、記憶媒体からコンピュータにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワークソフト等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
 さらに、本発明における記憶媒体は、コンピュータと独立した媒体には限定されず、LANやインターネット等により伝送されたプログラムをダウンロードして記憶または一時記憶した記憶媒体も含まれる。
 また、本発明におけるコンピュータは、記憶媒体に記憶されたプログラムに基づいて本実施形態における各処理を実行すればよく、1つのパソコン(PC)等からなる装置であってもよいし、複数の装置がネットワーク接続されたシステム等であってもよい。
 また、本発明におけるコンピュータとは、パソコンには限定されず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本発明の機能を実現することが可能な機器、装置を総称している。
 以上、本発明の実施形態について説明した。しかし、本発明は、上記実施形態に限定されず、特許請求の範囲を逸脱しない範囲で種々の変更を行うことができる。
 1・・・測量装置、2・・・三脚、3・・・レーザスキャナ、4・・・操作装置、5・・・回転台、7・・・レバー、9・・・筐体、11・・・測距光射出部、12・・・受光部、13・・・測距演算部、14・・・撮像制御部、15・・・射出方向検出部、16・・・モータドライバ、17・・・姿勢検出部、18・・・第1通信部、19・・・演算制御部、20・・・第1記憶部、21・・・撮像制御部、22・・・画像処理部、23・・・測距光、24・・・反射測距光、26・・・射出光軸、27・・・発光素子、28・・・投光レンズ、29・・・第1反射鏡、31・・・受光光軸、32・・・第2反射鏡、33・・・受光素子、34・・・結像レンズ、35・・・光軸偏向部、40・・・測距光軸、43・・・撮像光軸、100、200・・・ヘッドマウントディスプレイ、101・・・HMD側制御部、102・・・HMD側側通信装置、110・・・本体部、111a、111b・・・HMD側カメラ、112・・・HMD側照明部、113・・・HMD側ディスプレイ、120・・・HMD側各種情報記憶部、121・・・HMD座標情報生成部、122・・・HMD座標情報記憶部、125・・・HMD座標データ生成部、126・・・スキャン開始地点座標情報記憶部、127・・・スキャン終了地点座標情報記憶部、128・・・3次元点群データ修正処理部、201・・・高反射物体、301・・・レーザスキャナ側制御部、302・・・レーザスキャナ本体、310・・・レーザスキャナ側各種情報記憶部、311・・・HMD距離情報記憶部、312・・・スキャナ側HMD座標情報記憶部、313・・・スキャナ側スキャン開始地点座標情報記憶部、314・・・スキャナ側スキャン終了地点座標情報、315・・・レーザスキャナ側修正座標情報生成部、316・・・修正スキャナ側HMD座標情報記憶部、317・・・修正スキャナ側開始地点座標情報記憶部、318・・・修正スキャナ側スキャン終了地点情報記憶部、319・・・スキャン対象特定処理部、3次元点群データ記憶部・・・320、600・・・柱、21・・・撮像制御部、O・・・基準光軸、P・・・作業者

Claims (8)

  1.  対象物の3次元点群情報を生成する点群情報生成装置と、
     使用者が装着可能なXR(クロスリアリティ)生成装置と、を備える点群情報生成システムであって、
     前記XR生成装置は、少なくとも前記使用者の視線に対応した撮像情報を取得する撮像部と、
     表示部を備え、
     前記表示部に表示された前記対象物についての実行指示情報に基づいて、前記点群情報生成装置が前記実行指示情報で特定された前記対象物について3次元点群情報を生成すると共に、生成された前記対象物についての前記3次元点群情報を前記表示部に前記対象物と共に表示することを特徴とする点群情報生成システム。
  2.  前記点群情報システムの前記実行指示情報に基づいて特定された前記対象物の部分について前記3次元点群情報を生成し、前記実行情報に基づいて生成された前記3次元点群情報を修正することを特徴とする請求項1に記載の点群情報生成システム。
  3.  前記点群情報生成装置は、点群情報を生成するための測距光を射出すると共に、前記測距光の射出方向を偏向する光軸偏向部を有し、前記光軸偏向部で前記測距光を偏向することで、前記測距光を前記対象物の部分のみに照射させる構成となっていることを特徴とする請求項2に記載の点群情報生成システム。
  4.  前記点群情報システムに関する設計図情報を、前記表示部に表示する構成となっていることを特徴とする請求項1に記載の点群情報生成システム。
  5.  前記点群情報システムに関する設計図情報を、前記表示部に表示する構成となっていることを特徴とする請求項2に記載の点群情報生成システム。
  6.  前記点群情報システムに関する設計図情報を、前記表示部に表示する構成となっていることを特徴とする請求項3に記載の点群情報生成システム。
  7.  対象物の3次元点群情報を生成する点群情報生成装置と、使用者が装着可能なXR生成装置とを備える点群情報生成システムの制御方法であって、
     前記XR生成装置の撮像部は、前記使用者の視線に対応した撮像情報を取得し、
     前記表示部に表示された前記対象物についての実行指示情報に基づいて、前記点群情報生成装置が前記実行指示情報で特定された前記対象物について3次元点群情報を生成し、 生成された前記対象物についての前記3次元点群情報を前記表示部に前記対象物と共に表示することを特徴とする点群情報生成システムの制御方法。
  8.  対象物の3次元点群情報を生成する点群情報生成装置と、使用者が装着可能なXR現実生成装置とを備える点群情報生成システムに、
     前記XR生成装置の撮像部が前記使用者の視線に対応した撮像情報を取得し、前記表示部に表示された前記対象物についての実行指示情報に基づいて、前記点群情報生成装置が前記実行指示情報で特定された前記対象物について3次元点群情報を生成する機能、
     生成された前記対象物についての前記3次元点群情報を前記表示部に前記対象物と共に表示する機能、を実現させることを特徴とする点群情報生成システムの制御プログラム。
PCT/JP2023/035759 2022-09-30 2023-09-29 点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラム WO2024071413A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-157916 2022-09-30
JP2022157916A JP2024051640A (ja) 2022-09-30 2022-09-30 点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラム

Publications (1)

Publication Number Publication Date
WO2024071413A1 true WO2024071413A1 (ja) 2024-04-04

Family

ID=90478193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/035759 WO2024071413A1 (ja) 2022-09-30 2023-09-29 点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラム

Country Status (2)

Country Link
JP (1) JP2024051640A (ja)
WO (1) WO2024071413A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012950A (ja) * 1999-06-30 2001-01-19 Aisan Technology Co Ltd 測定装置及び測定システム
JP2020197412A (ja) * 2019-05-31 2020-12-10 株式会社鴻池組 構造物の検査装置、構造物の検査方法及びプログラム
JP2021021608A (ja) * 2019-07-26 2021-02-18 株式会社トプコン 測量システム
JP2022132750A (ja) * 2021-03-01 2022-09-13 株式会社トプコン 三次元位置測定システム,測定方法,および測定プログラム
JP2022140903A (ja) * 2021-03-15 2022-09-29 株式会社トプコン 測量デバイスおよびこれを用いた測量方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001012950A (ja) * 1999-06-30 2001-01-19 Aisan Technology Co Ltd 測定装置及び測定システム
JP2020197412A (ja) * 2019-05-31 2020-12-10 株式会社鴻池組 構造物の検査装置、構造物の検査方法及びプログラム
JP2021021608A (ja) * 2019-07-26 2021-02-18 株式会社トプコン 測量システム
JP2022132750A (ja) * 2021-03-01 2022-09-13 株式会社トプコン 三次元位置測定システム,測定方法,および測定プログラム
JP2022140903A (ja) * 2021-03-15 2022-09-29 株式会社トプコン 測量デバイスおよびこれを用いた測量方法

Also Published As

Publication number Publication date
JP2024051640A (ja) 2024-04-11

Similar Documents

Publication Publication Date Title
JP6963936B2 (ja) 測量システム
US11415414B2 (en) Surveying instrument
JP6855316B2 (ja) 測量システム
US9612331B2 (en) Laser tracker with functionality for graphical target preparation
JP5688876B2 (ja) レーザスキャナ測定システムの較正方法
JP5738005B2 (ja) 光波距離測定装置
JP7066322B2 (ja) 測量システム
WO2011133731A4 (en) Method and apparatus for using gestures to control a laser tracker
JP6817097B2 (ja) 測量システム
KR20130085434A (ko) 로봇식 측량 기계 및 오토콜리메이션 타겟을 포함하는 측량 기계의 망원경의 자동화된 오토콜리메이션을 위한 방법
JP5234255B2 (ja) レーザレーダ及びレーザレーダの据付方向調整方法
EP2587215B1 (en) Method for image measuring system
JP7313955B2 (ja) 測量装置、測量方法および測量用プログラム
JP6899737B2 (ja) 測量システム
JP2019090770A (ja) 測量装置及び測量装置システム
US20190339075A1 (en) Surveying Instrument
JP2006078416A (ja) トータルステーション
WO2024071413A1 (ja) 点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラム
CN111308485A (zh) 测量装置和照相测量方法
JP2018028466A (ja) 測定装置及びモータの制御方法
JP2023152591A (ja) 点群情報生成システム、点群情報生成システムの制御方法及び点群情報生成システムの制御プログラム
US10895456B1 (en) Three-dimensional survey apparatus, three-dimensional survey method, and three-dimensional survey program
US20230316644A1 (en) Point cloud information generating system, control method of point cloud information generating system, and control program of point cloud information generating system
US11598637B2 (en) Surveying instrument
JP6913422B2 (ja) 測量システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23872632

Country of ref document: EP

Kind code of ref document: A1