WO2021106207A1 - 測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体 - Google Patents

測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体 Download PDF

Info

Publication number
WO2021106207A1
WO2021106207A1 PCT/JP2019/046835 JP2019046835W WO2021106207A1 WO 2021106207 A1 WO2021106207 A1 WO 2021106207A1 JP 2019046835 W JP2019046835 W JP 2019046835W WO 2021106207 A1 WO2021106207 A1 WO 2021106207A1
Authority
WO
WIPO (PCT)
Prior art keywords
measuring devices
measuring device
measuring
candidate
distance
Prior art date
Application number
PCT/JP2019/046835
Other languages
English (en)
French (fr)
Inventor
次朗 安倍
聡 辻
安部 淳一
善将 小野
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US17/778,496 priority Critical patent/US20230036969A1/en
Priority to PCT/JP2019/046835 priority patent/WO2021106207A1/ja
Priority to JP2021561119A priority patent/JP7276504B2/ja
Publication of WO2021106207A1 publication Critical patent/WO2021106207A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Definitions

  • This disclosure relates to a measuring device, an information processing device, a data identification method, and a program.
  • LiDAR Light Detection And Ringing
  • LiDAR is a technology that measures the distance from a monitoring device to an object to be monitored and enables scanning of the object shape.
  • a ToF (Time of Flight) method is applied to LiDAR.
  • LiDAR which applies the ToF method, emits light from the monitoring device to the object to be monitored. Further, the monitoring device receives the reflected light of the emitted light.
  • a monitoring device to which LiDAR is applied measures the distance to an object to be monitored using the time from emitting light to receiving reflected light and the speed of light.
  • the light emitted by LiDAR is blocked by the building or the like and does not reach the area behind the building or the like. That is, the data measured at one point does not include the data of the distance to the object in the blind spot area. Therefore, it is necessary to supplement the data in the blind spot area by combining the data measured at a plurality of points.
  • Non-Patent Document 1 a plurality of point cloud data are combined by projecting the point cloud data acquired at a plurality of points onto the ground and correcting the projected images so that the orientations of the characteristic structures are aligned. The method is disclosed.
  • the image shown by the point cloud data is corrected so that the directions of the objects showing the similar structure but actually different from each other are aligned.
  • the image may be corrected so that the orientations of two different objects having linear features are aligned.
  • An object of the present disclosure is to provide a measuring device, an information processing device, a data identification method, and a program capable of correctly combining three-dimensional data acquired at a plurality of points.
  • the measuring device includes a position specifying unit that specifies the position of a plurality of other measuring devices by using a device reference coordinate system based on the position of the own device, the own device, and a plurality of measuring devices. At least three measuring devices are extracted from the other measuring devices, and the data captured by the own device and the plurality of other measuring devices is used for alignment based on the position of the extracted measuring device.
  • a candidate identification unit that identifies a candidate region that is a candidate for a common region, and a common region determination unit that determines the common region based on the distribution of a plurality of candidate regions obtained by changing the combination of the measuring devices to be extracted. , Equipped with.
  • the information processing device is an information processing device that collects information from a plurality of measuring devices, and is a first distance indicating a distance to a surrounding object specified by each of the measuring devices.
  • a candidate identification unit that identifies a candidate region that is a candidate for the above, and a common region determination unit that determines the common region based on the distribution of a plurality of candidate regions obtained by changing the combination of the measuring devices to be extracted. Be prepared.
  • the positions of a plurality of other measuring devices are specified by using the device reference coordinate system based on the position of the own device, and the own device and the plurality of other measuring devices are specified. At least three measuring devices are extracted from the measuring devices, and based on the position of the extracted measuring device, a common area used for aligning the data captured by the own device and the plurality of other measuring devices. The common area is determined based on the distribution of a plurality of candidate areas obtained by identifying candidate areas as candidates and changing the combination of measuring devices to be extracted.
  • the program according to the fourth aspect of the present disclosure identifies the positions of a plurality of other measuring devices using a device reference coordinate system based on the position of the own device, and the own device and the plurality of other measuring devices. At least three measuring devices are extracted from the above, and based on the position of the extracted measuring device, a candidate for a common area used for aligning the data captured by the own device and the plurality of other measuring devices is used. The computer device is made to determine the common area based on the distribution of the plurality of candidate areas obtained by identifying the candidate area and changing the combination of the measuring devices to be extracted.
  • a measuring device an information processing device, a data identification method, and a program capable of correctly combining three-dimensional data acquired at a plurality of points.
  • FIG. It is a block diagram of the measuring apparatus which concerns on Embodiment 1.
  • FIG. It is a block diagram of the measuring apparatus which concerns on Embodiment 2.
  • FIG. It is a figure explaining the object presence / absence observation map which concerns on Embodiment 2.
  • FIG. It is a figure explaining the process of specifying the position of the measuring apparatus which concerns on Embodiment 2.
  • FIG. It is a figure which shows the candidate area which becomes the candidate of the common area which concerns on Embodiment 2.
  • FIG. It is a block diagram of the communication system which concerns on Embodiment 3.
  • FIG. It is a block diagram of the measuring apparatus and information processing apparatus which concerns on each embodiment.
  • the measuring device 10 may be a computer device operated by the processor executing a program stored in the memory.
  • the measuring device 10 may be, for example, a LiDAR device.
  • the LiDAR device is a device that measures the distance to a surrounding object and scans the shape of the object.
  • the measuring device may be paraphrased as a monitoring device.
  • the measuring device may be a three-dimensional sensor that acquires three-dimensional data.
  • the three-dimensional sensor may be, for example, a distance camera, a distance sensor, a distance measurement sensor, or the like.
  • the measuring device 10 has a position specifying unit 11, a candidate specifying unit 12, and a common area determining unit 13.
  • the position identification unit 11, the candidate identification unit 12, and the common area determination unit 13 may be software or modules whose processing is executed by the processor executing a program stored in the memory.
  • the position specifying unit 11, the candidate specifying unit 12, and the common area determining unit 13 may be hardware such as a circuit or a chip.
  • the position specifying unit 11 specifies the positions of a plurality of other measuring devices by using the device reference coordinate system based on the position of the measuring device 10.
  • the device reference coordinate system based on the position of the measuring device 10 is, for example, a coordinate system in which the position of the measuring device 10 is set as the origin and the position of the target is specified using the X-axis, the Y-axis, and the Z-axis that are orthogonal to each other. There may be.
  • the other measuring device may be, for example, a LiDAR device different from the measuring device 10.
  • the position specifying unit 11 may specify the position of another measuring device by using the coordinates on the X-axis, Y-axis, and Z-axis of the device reference coordinate system based on the position of the measuring device 10.
  • the candidate identification unit 12 extracts at least three measuring devices from the measuring device 10 and the plurality of other measuring devices. Further, the candidate identification unit 12 identifies a candidate region that is a candidate for a common region used for alignment of data captured by the measuring device 10 and a plurality of other measuring devices based on the extracted position of the measuring device. To do.
  • the candidate identification unit 12 may extract the measuring device 10 and at least two other measuring devices. Alternatively, the candidate identification unit 12 may extract at least three other measuring devices.
  • the data captured by the measuring device 10 and the plurality of other measuring devices may be point cloud data.
  • the point cloud data may be, for example, data having information on the distance calculated by using the TOF method.
  • the shape of an object is identified by using point cloud data that has information about the distance between the measuring device 10 and the object.
  • the point cloud data may be data having three-dimensional data.
  • the point cloud data may be three-dimensional data having X-axis, Y-axis, and Z-axis components that are orthogonal to each other.
  • the three-dimensional data may be paraphrased as coordinate data.
  • the shape of the object may be identified by using the three-dimensional data.
  • the point cloud data may be acquired or calculated using, for example, a LiDAR device.
  • the point cloud data may be acquired or calculated using a three-dimensional sensor.
  • the alignment may be, for example, calculating the coordinates of the point cloud data captured by another measuring device in the device reference coordinate system based on the measuring device 10.
  • the alignment may be to combine or convert the point cloud data captured by another measuring device into the device reference coordinate system based on the measuring device 10.
  • the common area may be an area including common data included in each data imaged by a plurality of measuring devices.
  • the common data is, for example, data indicating the same object or the same structure contained in each data.
  • the alignment may be to superimpose a common object or structure included in the point cloud data captured by a plurality of measuring devices in the device reference coordinate system based on the measuring device 10.
  • the candidate region that is a candidate for the common region may be, for example, a region in which there is a high possibility that the common data is included in the respective data captured by the plurality of measuring devices.
  • the candidate identification unit 12 identifies a plurality of candidate regions by changing the combination of measuring devices to be extracted.
  • the common area determination unit 13 determines a common area based on the distribution of a plurality of candidate areas. For example, the common area determination unit 13 may determine an area in which the number of overlapping candidate areas exceeds a predetermined number as a common area. Alternatively, the common area determination unit 13 may determine the area having the largest number of overlapping candidate areas as the common area.
  • the measuring device 10 identifies a candidate area that is a candidate for the common area by using the positions of other measuring devices specified by using the device reference coordinate system based on the position of the measuring device 10. be able to. Further, the measuring device 10 can determine a common region from the candidate regions. As a result, when combining the plurality of point cloud data, the measuring device 10 can superimpose the common data included in the respective point cloud data, so that the point cloud data acquired by each measuring device can be correctly used. Can be combined.
  • the measuring device 20 has a configuration in which a point cloud data holding unit 21 and an alignment executing unit 22 are added to the measuring device 10 of FIG. In the following, the differences from FIG. 1 will be mainly described.
  • the point cloud data holding unit 21 holds the point cloud data acquired by the measuring device 20 and the point cloud data acquired by another measuring device.
  • the point cloud data holding unit 21 may be, for example, a memory built in the measuring device 20 or a memory that can be attached to the measuring device 20.
  • the point cloud data holding unit 21 may receive the point cloud data acquired by the other measuring device from the other measuring device via the wireless communication line or the wired communication line.
  • the wireless communication may be, for example, communication using a wireless communication standard defined as 5G in LTE (Long Term Evolution) or 3GPP (3rd Generation Partnership Project).
  • the wireless communication may be a wireless LAN (Local Area Network), or may be a short-range wireless communication such as infrared communication or Bluetooth (registered trademark).
  • the wired communication line may be an optical communication line or communication using Ethernet (registered trademark).
  • the measuring device 20 moves the camera provided in the measuring device 20 by a predetermined angle on the XY plane of the device reference coordinate system, and further moves the camera by a predetermined angle on the plane perpendicular to the XY plane.
  • the measuring device 20 acquires point cloud data by taking an image of the surroundings using a camera. That is, the measuring device 20 may scan the shape of the surrounding object by moving the camera that images the surroundings of the measuring device 20 in a predetermined direction.
  • the camera provided in the measuring device 20 may be paraphrased as a sensor that measures the distance to a surrounding object.
  • the point cloud data acquired by the measuring device may be referred to as distance data indicating the distance of an object around the measuring device.
  • the point cloud data obtained by photographing the surroundings with the camera of the measuring device 20 may be held in the point cloud data holding unit 21.
  • the position specifying unit 11 measures the position of the measuring device 20 by using the outdoor positioning technique in order to calculate the distance from another measuring device. Further, the position specifying unit 11 acquires information regarding the position of each measuring device measured by using the outdoor positioning technique from each measuring device.
  • the outdoor positioning technique may be, for example, positioning using GPS (Global Positioning System), wireless positioning, geomagnetic positioning, or the like.
  • the position specifying unit 11 calculates the distance between the measuring device 20 and the other measuring device by using the position of the measuring device 20 identified by using the outdoor positioning technique and the position of the other measuring device. .. Further, the position specifying unit 11 may calculate the distance between other measuring devices.
  • the position of the measuring device identified using the outdoor positioning technique may be the coordinated position used in the world geodetic system.
  • the coordinates used in the world geodetic system may be paraphrased as world coordinates.
  • the position specifying unit 11 calculates or generates an object presence / absence observation map using the point cloud data measured by the measuring device 20.
  • An object presence / absence observation map will be described with reference to FIG.
  • the black circle shown in FIG. 3 indicates the position of the measuring device 20, and is located at the origin of the X-axis and the Y-axis. Further, although not shown in FIG. 3, it is assumed that the Z axis exists at the positions of the origins of the X axis and the Y axis in the direction perpendicular to the XY plane. That is, it is assumed that FIG. 3 shows a three-dimensional diagram having a Z axis in the vertical direction of the XY plane.
  • the measuring device 20 may be located at the origin of the X-axis, the Y-axis, and the Z-axis.
  • the measuring device 20 may be the origin of the X-axis and the Y-axis and may be located at an arbitrary value on the Z-axis.
  • x1 to x5 indicate values on the X-axis
  • y1 to y4 indicate values on the Y-axis. It is assumed that the value increases from x1 to x5 and increases from y1 to y4.
  • the shaded area in FIG. 3 indicates the position where the object exists. That is, the shaded area in FIG. 3 indicates the area where the point cloud data acquired by the measuring device 20 exists.
  • the unshaded square area in FIG. 3 indicates an area where no object exists. That is, the light emitted from the measuring device 20 passes through the unshaded region of FIG. 3 and is reflected by the object existing in the shaded region. The measuring device 20 receives the reflected light.
  • the light emitted from the measuring device 20 is a region from the origin to x2, blocked by an object existing in the region from y3 to y4, and is a region from the origin to x2, y4. It does not reach the area of larger values. Therefore, it can be said that the region from the origin to x2 and having a value larger than y4 is a region in which it is unknown whether or not an object exists. That is, it can be said that the region where the light radiated from the measuring device 20 does not reach due to being blocked by the object is a region where it is unknown whether or not the object exists. In FIG. 3, the region where it is unknown whether or not the object exists is a region excluding the shaded region and the unshaded square region.
  • the position specifying unit 11 acquires an object presence / absence observation map from another measuring device.
  • the position specifying unit 11 may generate an object presence / absence observation map in each measuring device by using the point cloud data acquired from other measuring devices.
  • each object presence / absence observation map is generated using the coordinates of the device reference coordinate system based on the position of each measuring device.
  • the position specifying unit 11 identifies the position of the other measuring device in the device reference coordinate system based on the measuring device 20 by using the distance to the other measuring device and the object presence / absence observation map in the other measuring device. To do.
  • the process of identifying the position of another measuring device will be described with reference to FIG. FIG. 4 shows that the object observation map in the measuring device 20 is combined with the object observation map in another measuring device. Specifically, the region surrounded by the dotted line in the object observation map of the measuring device 20 and the region surrounded by the dotted line in the object observation map of the other measuring device have the same characteristics. The same feature may be that the distribution of the area where the object exists is the same.
  • the device reference coordinate system used for the object observation map of the measuring device 20 is different from the device reference coordinate system used for the object observation map of another measuring device. Therefore, in FIG. 4, it is shown that the directions of the X-axis and the Y-axis of the respective device reference coordinate systems do not match.
  • the position specifying unit 11 arranges the object observation map of the other measuring device at a position separated from the origin by the distance between the measuring device 20 and the other measuring device. Further, the position specifying unit 11 rotates the object observation map of the measuring device 20 and the object observation map of the other measuring device around the Z axis to match the regions surrounded by the respective dotted lines. Alternatively, the position specifying unit 11 is centered on the origin of the device reference coordinate system based on the position of the measuring device 20, and the other measuring device is on the circumference whose radius is the distance between the measuring device 20 and the other measuring device. Place the origin of the object observation map of. Further, the position specifying unit 11 may move the object observation map of another measuring device on the circumference.
  • the position specifying unit 11 may match the regions surrounded by the dotted lines of the object observation map of the measuring device 20 and the object observation map of the other measuring device. At this time, the position specifying unit 11 may move the object observation map of the other measuring device on the circumference while rotating it around the Z axis.
  • the position specifying unit 11 When the areas surrounded by the dotted lines are matched as in the object observation map after the combination of FIG. 4, the position specifying unit 11 has (x3, ⁇ y1) in the device reference coordinate system based on the position of the measuring device 20. ), Identify the presence of another measuring device. In addition, the position specifying unit 11 moves the combined object observation map in the Z-axis direction to match the distribution of the area where the object exists, thereby indicating the position where another measuring device exists on the Z-axis. The value of the coordinates of can be specified.
  • the position specifying unit 11 repeats the process of specifying the position of the other measuring device, and specifies the position of a plurality of other measuring devices in the device reference coordinate system based on the position of the measuring device 20.
  • the candidate identification unit 12 selects or extracts three from the measuring device 20 and the plurality of other measuring devices whose positions have been specified, and generates a triangle composed of black circles in FIG.
  • the triangles indicate the positional relationship between the three measuring devices, with each vertex as the position of the measuring device.
  • the candidate identification unit 12 may extract three adjacent measuring devices.
  • the black circle in FIG. 5 indicates the extracted measuring device.
  • the position of the black circle in FIG. 5 is specified by using the device reference coordinate system based on the position of the measuring device 20.
  • the asterisks in FIG. 5 indicate candidate regions that are candidates for the common region. The method of specifying the candidate area will be described below.
  • the candidate region may be a region including a symmetrical position of a vertex different from the end point of the reference side with respect to one side of the triangle.
  • the candidate region may be a region of a circle having a predetermined radius centered on the symmetrical position of the apex, or may be a region including a predetermined range centered on the symmetrical position of the apex.
  • three candidate regions including the symmetrical positions of the three vertices are shown.
  • the candidate identification unit 12 extracts a combination of measuring devices different from the three measuring devices shown in FIG. 5, and specifies a candidate region in each combination.
  • the combination different from the three measuring devices shown in FIG. 5 may include one or two measuring devices among the three measuring devices shown in FIG. 5, and all three new measuring devices are extracted. You may.
  • the candidate identification unit 12 is not limited to the method of using the symmetrical position of the apex as the method of specifying the candidate region.
  • the candidate identification unit 12 may use a region including a predetermined range centered on a position folded back at the reference side for a vertex different from the end point of the reference side as a candidate region.
  • the candidate identification unit 12 may use a region including a predetermined range centered on an arbitrary position on an extension of the perpendicular line from the apex different from the end point of the reference side to the reference side as the candidate region.
  • the candidate identification unit 12 sets a region including a predetermined range centered on an arbitrary position on an extension of a straight line from a vertex different from the end point of the reference side to the midpoint of the reference side as a candidate region. May be good.
  • the candidate identification unit 12 may use a region including an arbitrary position in the region sandwiched between the two sides extending from the measuring device at the position of the apex of the triangle as the candidate region.
  • the common area determination unit 13 determines the common area based on the distribution of the candidate areas specified by the candidate identification unit 12. For example, the common area determination unit 13 may determine the area where the candidate areas are most concentrated as the common area. Concentration of candidate regions may mean, for example, that a plurality of candidate regions exist within a predetermined region. That is, even if the candidate areas do not completely match each other, if there are a plurality of candidate areas in the predetermined area, the plurality of candidate areas are concentrated in the predetermined area. It can be said.
  • the area where the candidate areas are most concentrated may be the area where the number of candidate areas is the largest as compared with other areas. Concentration may be paraphrased as duplication.
  • the common area determination unit 13 may determine an area in which a number of candidate areas larger than a predetermined threshold value are concentrated as a common area. In this case, the common area determination unit 13 may determine one or more areas as the common area.
  • the alignment execution unit 22 aligns the point cloud data acquired by each measuring device using the common area included in the point cloud data. For example, the alignment execution unit 22 performs alignment so as to superimpose objects included in the common area. Further, the alignment execution unit 22 applies the moving distance of the point cloud data when superimposing the objects included in the common area to the point cloud data other than the common area, so that the points in a wider range than the common area can be obtained. Group data can be aligned.
  • the measuring device 20 acquires point cloud data by photographing the surroundings using a camera provided in the measuring device 20 (S11).
  • the measuring device 20 photographs a 360-degree region on a plane substantially parallel to the ground surface, and further photographs a 360-degree region on a plane substantially perpendicular to the ground surface, centering on the measuring device 20. May be good. That is, the measuring device 20 may photograph a region in the spherical surface centered on the measuring device 20. Alternatively, the measuring device 20 may photograph a part of the spherical surface centered on the measuring device 20.
  • the position specifying unit 11 acquires the position of the measuring device 20 by using the outdoor positioning technique (S12).
  • the position specifying unit 11 may specify the position of the measuring device 20 on the coordinates used in the world geodetic system by using the outdoor positioning technique.
  • the position specifying unit 11 acquires the position information and the point cloud data acquired or measured by each measuring device from the other measuring devices (S13).
  • the position specifying unit 11 acquires the position information acquired by the other measuring device as the position on the coordinates used in the world geodetic system. Further, the position specifying unit 11 acquires the point cloud data acquired by the other measuring devices as the position on the coordinates used in the device reference coordinate system based on the position of each measuring device.
  • the position specifying unit 11 calculates the distance between the measuring device 20 and another measuring device on the coordinates used in the world geodetic system. Further, the position specifying unit 11 creates an object presence / absence observation map using the point cloud data acquired by each of the measuring device 20 and the other measuring device, and identifies the positions of the measuring device 20 and the other measuring device. (S14). The position specifying unit 11 arranges another measuring device at a position calculated at a distance from the position of the measuring device 20, and superimposes the object observation map of the measuring device 20 and the object presence / absence observation map of the other measuring device. .. In this way, the position specifying unit 11 identifies the position of another measuring device in the device reference coordinate system based on the position of the measuring device 20.
  • the candidate identification unit 12 selects, for example, three measuring devices specified in the device reference coordinate system based on the position of the measuring device 20, and selects a candidate region based on the positions of the three selected measuring devices. Identify (S15). The candidate identification unit 12 changes the combination of measuring devices to be selected, and identifies a plurality of candidate regions.
  • the common area determination unit 13 determines the common area based on the distribution of the candidate areas (S16).
  • the alignment execution unit 22 executes alignment using the common area of the point cloud data acquired by each measuring device (S17).
  • the alignment execution unit 22 executes alignment by superimposing the positions and directions of common objects included in the common area of each measuring device.
  • the measuring device 20 specifies the position of another measuring device with higher accuracy by using the object observation map as compared with the case where the object observation map is not used. Can be done. Further, the measuring device 20 can specify a candidate area as a candidate for the common area based on the positions of its own device and other measuring devices, and can specify the common area based on the distribution of the candidate area.
  • the measuring device 20 can improve the possibility of selecting a region containing a common object. Therefore, the measuring device 20 can correctly align by using the common object included in each point cloud data.
  • the position specifying unit 11 of the measuring device 20 may specify the position of the other measuring device by using the point cloud data obtained when the other measuring device is imaged.
  • the point cloud data shows the coordinates in the device reference coordinate system based on the position of the measuring device 20. Therefore, the positions of other measuring devices included in the point cloud data are also indicated by using the coordinates in the device reference coordinate system based on the position of the measuring device 20.
  • the position specifying unit 11 may omit the process of specifying the position of another measuring device by using the object presence / absence observation map.
  • the communication system of FIG. 7 includes an information processing device 30, a measuring device 40, a measuring device 41, and a measuring device 42.
  • FIG. 7 shows an example in which three measuring devices exist, four or more measuring devices may exist.
  • the information processing device 30 may be a computer device that operates by the processor executing a program stored in the memory.
  • the information processing device 30 communicates with the measuring device 40, the measuring device 41, and the measuring device 42.
  • the information processing device 30 may communicate with the measuring device 40, the measuring device 41, and the measuring device 42 via a wireless communication line, or may communicate with the measuring device 40 via a wired communication line.
  • the wireless communication may be, for example, communication using LTE (Long Term Evolution) or a wireless communication standard defined as 5G in 3GPP.
  • the wireless communication may be a wireless LAN (Local Area Network), or may be a short-range wireless communication such as infrared communication or Bluetooth (registered trademark).
  • the wired communication line may be an optical communication line or communication using Ethernet (registered trademark).
  • the information processing device 30 may communicate only with the measuring device 40. In this case, the measuring device 40 may collect data by communicating with the measuring device 41 and the measuring device 42, and transmit the collected data to the information processing device 30.
  • the information processing device 30 includes a position identification unit 31, a candidate identification unit 32, a common area determination unit 33, a point cloud data holding unit 34, and an alignment execution unit 35.
  • the position identification unit 31, the candidate identification unit 32, the common area determination unit 33, the point cloud data holding unit 34, and the alignment execution unit 35 are the position identification unit 11, the candidate identification unit 12, and the common area in the measuring device 20 of FIG. It corresponds to the determination unit 13, the point cloud data holding unit 21, and the alignment execution unit 22. That is, the information processing apparatus 30 executes the processes related to the identification of the position, the identification of the candidate region, the identification of the common region, and the alignment, which were executed in the measuring apparatus in FIG.
  • the functions and operations of the candidate identification unit 32, the common area determination unit 33, the point cloud data holding unit 34, and the alignment execution unit 35 are the position identification unit 11, the candidate identification unit 12, the common area determination unit 13, and the point cloud data retention. Since it is the same as the unit 21 and the alignment execution unit 22, detailed description thereof will be omitted.
  • the position specifying unit 31 identifies the positions of the measuring device 40, the measuring device 41, and the measuring device 42 by using the device reference coordinate system based on the position of the information processing device 30. Specifically, the position specifying unit 31 arranges the measuring device 41 at a position separated from the measuring device 40 by the distance between the measuring device 40 and the measuring device 41. Further, the position specifying unit 31 superimposes the object presence / absence observation maps of the measuring device 40 and the measuring device 41 to determine the positions of the measuring device 40 and the measuring device 41 in the device reference coordinate system based on the position of the information processing device 30. Identify. Alternatively, the position specifying unit 31 may use a device reference coordinate system based on the position of any one of the measuring device 40, the measuring device 41, and the measuring device 42.
  • the information processing apparatus 30 reduces the processing load in the measuring apparatus by executing the processing related to the identification of the position, the identification of the candidate region, the identification of the common region, and the alignment instead of the measuring apparatus. can do.
  • the measuring device is, for example, a LiDAR device or the like, and often has a lower processing capacity than a general server device or the like. Therefore, by reducing the processing load of the measuring device, the risk of failure that may occur in the measuring device can be reduced.
  • FIG. 8 is a block diagram showing a configuration example of the measuring device 10, the measuring device 20, and the information processing device 30 (hereinafter referred to as the measuring device 10 and the like).
  • the measuring device 10 and the like include a network interface 1201, a processor 1202, and a memory 1203.
  • Network interface 1201 is used to communicate with network nodes (e.g., eNB, MME, P-GW,).
  • the network interface 1201 may include, for example, a network interface card (NIC) compliant with the IEEE 802.3 series.
  • NIC network interface card
  • the processor 1202 reads the software (computer program) from the memory 1203 and executes it to perform the processing of the measuring device 10 and the like described by using the flowchart in the above-described embodiment.
  • Processor 1202 may be, for example, a microprocessor, MPU, or CPU.
  • Processor 1202 may include a plurality of processors.
  • Memory 1203 is composed of a combination of volatile memory and non-volatile memory. Memory 1203 may include storage located away from processor 1202. In this case, processor 1202 may access memory 1203 via an I / O interface (not shown).
  • the memory 1203 is used to store the software module group. By reading these software modules from the memory 1203 and executing the processor 1202, the processor 1202 can perform the processing of the measuring device 10 and the like described in the above-described embodiment.
  • each of the processors included in the measuring device 10 and the like in the above-described embodiment is a program including one or a plurality of instructions for causing the computer to perform the algorithm described with reference to the drawings. To execute.
  • Non-temporary computer-readable media include various types of tangible storage media.
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, It includes a CD-R / W and a semiconductor memory (for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (RandomAccessMemory)).
  • a semiconductor memory for example, a mask ROM, a PROM (Programmable ROM), an EPROM (Erasable PROM), a flash ROM, and a RAM (RandomAccessMemory)
  • the program may also be supplied to the computer by various types of temporary computer readable media.
  • Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves.
  • the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
  • a position identification unit that specifies the positions of multiple other measuring devices using the device reference coordinate system based on the position of the own device, At least three measuring devices are extracted from the own device and the plurality of other measuring devices, and data captured by the own device and the plurality of other measuring devices based on the position of the extracted measuring device.
  • a candidate identification unit that identifies a candidate area that is a candidate for a common area used for alignment of A measuring device including a common area determining unit that determines the common area based on the distribution of a plurality of candidate areas obtained by changing the combination of the measuring devices to be extracted.
  • the position specifying part is The first distance data indicating the distance to the surrounding object specified by using the data captured by the own device, the second distance data acquired by each of the plurality of other measuring devices, and the self.
  • the measuring device according to Appendix 1 wherein a third distance data indicating a distance between the device and the plurality of other measuring devices is used to specify the position of the plurality of other measuring devices.
  • the position specifying part is In the device reference coordinate system, the second distance data is superimposed on the position of the distance specified in the third distance data from the own device to specify the position of the plurality of other measuring devices. 2.
  • the position specifying part is The measuring device according to Appendix 1, wherein the position of the plurality of other measuring devices is specified by using the data captured by the own device including the plurality of the other measuring devices.
  • the candidate identification unit The measuring device according to any one of Supplementary note 1 to 4, which specifies the candidate region based on the shape of a triangle having the positions of the three measuring devices as vertices in the device reference coordinate system.
  • the candidate identification unit The measuring device according to Appendix 5, wherein a region including a symmetrical position of the third vertex is set as the candidate region with reference to a line connecting the first vertex and the second vertex included in the triangle.
  • the candidate identification unit The candidate is a region including the midpoint of a straight line connecting the second and third vertices and the position of an arbitrary point on the straight line connecting the first vertices, with the first vertex included in the triangle as an end point.
  • the measuring device according to Appendix 5, which is a region.
  • the common area determination unit The measuring apparatus according to any one of Supplementary note 1 to 7, wherein a region in which the candidate regions overlap more than a predetermined number is defined as the common region.
  • the measuring device according to any one of Appendix 1 to 8, wherein the captured data is point cloud data.
  • the position specifying part is Using the point cloud data, which is the data captured by the own device, an object presence / absence observation map showing whether or not an object exists around the own device is generated.
  • the first distance data indicates the distance from the own device to the object shown in the object presence / absence observation map
  • the second distance data is generated from the other measuring device in the other measuring device.
  • the measuring device according to Appendix 2, which indicates the distance to the object shown in the object presence / absence observation map.
  • An information processing device that collects information from multiple measuring devices.
  • a communication unit that receives first distance data indicating the distance to a surrounding object specified by each of the measuring devices, and a communication unit.
  • a position specifying unit that specifies the position of the plurality of measuring devices by using the first distance data and the third distance data indicating the distance between the devices included in the plurality of measuring devices. At least three measuring devices are extracted from the plurality of measuring devices, and based on the positions of the extracted measuring devices, they are candidates for a common area used for aligning the data captured by the plurality of measuring devices.
  • Candidate identification part that identifies the candidate area and
  • An information processing device including a common area determining unit that determines the common area based on the distribution of a plurality of candidate areas obtained by changing the combination of measuring devices to be extracted.
  • the position specifying part is In the device reference coordinate system based on the position of the information processing device, the plurality of measurements are performed from the first measuring device included in the plurality of measuring devices to the position of the distance specified in the third distance data.
  • (Appendix 13) Identify the positions of multiple other measuring devices using the device reference coordinate system based on the position of the own device, At least three measuring devices are extracted from the own device and the plurality of other measuring devices.
  • a candidate area that is a candidate for a common area used for positioning the data imaged by the own device and the plurality of other measuring devices is specified.
  • a candidate area that is a candidate for a common area used for positioning the data imaged by the own device and the plurality of other measuring devices is specified.
  • Measuring device 11 Position identification unit 12 Candidate identification unit 13 Common area determination unit 20 Measuring device 21 Point group data retention unit 22 Alignment execution unit 30 Information processing device 31 Position identification unit 32 Candidate identification unit 33 Common area determination unit 34 Point group Data holding unit 35 Alignment execution unit 40 Measuring device 41 Measuring device 42 Measuring device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

複数の地点において取得された3次元データを正しく結合することができる測定装置を提供することを目的とする。本開示にかかる測定装置(10)は、自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定する位置特定部(11)と、自装置及び複数の他の測定装置のなかから少なくとも3つの測定装置を抽出し、抽出された測定装置の位置に基づいて、自装置及び複数の他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定する候補特定部(12)と、抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、共通領域を決定する共通領域決定部(13)と、を備える。

Description

測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体
 本開示は、測定装置、情報処理装置、データ特定方法、及びプログラムに関する。
 近年、LiDAR(Light Detection And Ranging)を用いて施設を監視するシステムの構築が検討されている。LiDARは、監視装置から監視対象の物体までの距離を測定し、物体形状のスキャンを可能とする技術である。LiDARには、例えば、ToF(Time of Flight)方式が適用される。ToF方式を適用するLiDARは、監視装置から監視対象の物体へ光を放射する。さらに、監視装置は、放射した光の反射光を受光する。LiDARが適用された監視装置は、光を放射してから、反射光を受光するまでの時間と、光の速度とを用いて監視対象の物体までの距離を測定する。
 しかし、LiDARを用いて監視対象の物体までの距離を測定する場合、LiDARが放射する光は、建物等に遮られ、建物等の後方の領域には到達しない。つまり、1地点において測定されたデータには、死角となる領域の物体までの距離のデータが含まれない。そのため、複数の地点において測定されたデータを組み合わせることによって、死角となる領域のデータを補うことが必要となる。
 非特許文献1には、複数の地点において取得した点群データを地面に投影し、投影された画像における特徴的な構造の向きを揃えるように補正することによって、複数の点群データを結合する方法が開示されている。
Andreas Ullrich, "Near real-time automatic registration of terrestrial scan data" EuroCOW, 2017年6月8日
 しかし、非特許文献1に開示されている方法を用いた場合、類似する構造を示す物体ではあるが、実際には異なる物体の向きを揃えるように、点群データによって示される画像が補正される場合がある。例えば、非特許文献1に開示されている方法では、直線的な特徴を有する二つの異なる物体の向きを揃えるように画像が補正されることがある。その結果、複数の地点において取得された点群データを結合することによって生成されたデータが、監視対象を正しく示さない場合があるという問題が発生する。
 本開示の目的は、複数の地点において取得された3次元データを正しく結合することができる測定装置、情報処理装置、データ特定方法、及びプログラムを提供することにある。
 本開示の第1の態様にかかる測定装置は、自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定する位置特定部と、前記自装置及び複数の前記他の測定装置のなかから少なくとも3つの測定装置を抽出し、抽出された測定装置の位置に基づいて、前記自装置及び複数の前記他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定する候補特定部と、抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定する共通領域決定部と、を備える。
 本開示の第2の態様にかかる情報処理装置は、複数の測定装置から情報を収集する情報処理装置であって、それぞれの前記測定装置が特定した周囲の物体までの距離を示す第1の距離データを受信する通信部と、前記第1の距離データと、複数の前記測定装置に含まれる装置間の距離を示す第3の距離データとを用いて複数の前記測定装置の位置を特定する位置特定部と、複数の前記測定装置のなかから少なくとも3つの測定装置を抽出し、抽出された測定装置の位置に基づいて、複数の前記測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定する候補特定部と、抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定する共通領域決定部と、を備える。
 本開示の第3の態様にかかるデータ特定方法は、自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定し、前記自装置及び複数の前記他の測定装置のなかから少なくとも3つの測定装置を抽出し、抽出された測定装置の位置に基づいて、前記自装置及び複数の前記他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定し、抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定する。
 本開示の第4の態様にかかるプログラムは、自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定し、前記自装置及び複数の前記他の測定装置のなかから少なくとも3つの測定装置を抽出し、抽出された測定装置の位置に基づいて、前記自装置及び複数の前記他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定し、抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定することをコンピュータ装置に実行させる。
 本開示により、複数の地点において取得された3次元データを正しく結合することができる測定装置、情報処理装置、データ特定方法、及びプログラムを提供することができる。
実施の形態1にかかる測定装置の構成図である。 実施の形態2にかかる測定装置の構成図である。 実施の形態2にかかる物体有無観測マップを説明する図である。 実施の形態2にかかる測定装置の位置を特定する処理を説明する図である。 実施の形態2にかかる共通領域の候補となる候補領域を示す図である。 実施の形態2にかかる位置合わせ処理の流れを示す図である。 実施の形態3にかかる通信システムの構成図である。 それぞれの実施の形態にかかる測定装置及び情報処理装置の構成図である。
 (実施の形態1)
 以下、図面を参照して本開示の実施の形態について説明する。図1を用いて実施の形態1にかかる測定装置10の構成例について説明する。測定装置10は、プロセッサがメモリに格納されたプログラムを実行することによって動作するコンピュータ装置であってもよい。測定装置10は、例えば、LiDAR装置であってもよい。LiDAR装置は、周囲の物体までの距離を測定し、物体形状のスキャンを行う装置である。測定装置は、監視装置と言い換えられてもよい。もしくは、測定装置は、3次元データを取得する3次元センサであってもよい。3次元センサは、例えば、距離カメラ、距離センサ、測距センサ等であってもよい。
 測定装置10は、位置特定部11、候補特定部12、及び共通領域決定部13を有している。位置特定部11、候補特定部12、及び共通領域決定部13は、プロセッサがメモリに格納されたプログラムを実行することによって処理が実行されるソフトウェアもしくはモジュールであってもよい。または、位置特定部11、候補特定部12、及び共通領域決定部13は、回路もしくはチップ等のハードウェアであってもよい。
 位置特定部11は、測定装置10の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定する。測定装置10の位置を基準とする装置基準座標系は、例えば、測定装置10の位置を原点とし、互いに直行するX軸、Y軸、及びZ軸を用いて対象の位置を特定する座標系であってもよい。他の測定装置は、例えば、測定装置10とは異なるLiDAR装置であってもよい。位置特定部11は、他の測定装置の位置を、測定装置10の位置を基準とする装置基準座標系のX軸、Y軸、及びZ軸上の座標を用いて特定してもよい。
 候補特定部12は、測定装置10及び複数の他の測定装置のなかから少なくとも3つの測定装置を抽出する。さらに、候補特定部12は、抽出された測定装置の位置に基づいて、測定装置10及び複数の他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定する。候補特定部12は、測定装置10と、少なくとも2つの他の測定装置を抽出してもよい。もしくは、候補特定部12は、少なくとも3つの他の測定装置を抽出してもよい。
 測定装置10及び複数の他の測定装置によって撮像されたデータは、点群データであってもよい。点群データは、例えば、TOF方式を用いて算出された距離に関する情報を有するデータであってもよい。例えば、測定装置10と物体との間の距離に関する情報を有する点群データを用いることによって、物体の形状が識別される。また、点群データは、3次元データを有するデータであってもよい。例えば、点群データは、それぞれが直交するX軸、Y軸、及びZ軸の成分を有する3次元データであってもよい。3次元データは、座標データと言い換えられてもよい。物体は、3次元データを用いて、物体の形状が識別されてもよい。
 点群データは、例えば、LiDAR装置を用いて取得もしくは算出されてもよい。または、点群データは、3次元センサを用いて取得もしくは算出されてもよい。
 位置合わせは、例えば、他の測定装置において撮像された点群データの、測定装置10を基準とする装置基準座標系における座標、を算出することであってもよい。言い換えると、位置合わせは、他の測定装置において撮像された点群データを、測定装置10を基準とする装置基準座標系に結合もしくは変換することであってもよい。複数の測定装置における点群データを、ある測定装置を基準とする装置基準座標系に結合することによって、撮像対象の死角が補完され、さらに、他の測定装置の位置もしくは姿勢も高精度に特定することができる。
 共通領域は、複数の測定装置において撮像されたそれぞれのデータに含まれる共通データを含む領域であってもよい。共通データは、例えば、それぞれのデータに含まれる同じ物体もしくは同じ構造物を示すデータである。例えば、位置合わせは、測定装置10を基準とする装置基準座標系において、複数の測定装置において撮像された点群データに含まれる共通の物体もしくは構造物等を重ね合わせることであってもよい。共通領域の候補となる候補領域は、例えば、複数の測定装置において撮像されたそれぞれのデータに、共通データが含まれる可能性が高い領域であってもよい。
 候補特定部12は、抽出する測定装置の組み合わせを変更することによって、複数の候補領域を特定する。
 共通領域決定部13は、複数の候補領域の分布に基づいて、共通領域を決定する。例えば、共通領域決定部13は、重複する候補領域の数が、所定の数を超える領域を、共通領域と決定してもよい。もしくは、共通領域決定部13は、重複する候補領域の数が最も多い領域を、共通領域と決定してもよい。
 以上説明したように、測定装置10は、測定装置10の位置を基準とする装置基準座標系を用いて特定した他の測定装置の位置を用いて、共通領域の候補となる候補領域を特定することができる。さらに、測定装置10は、候補領域の中から共通領域を決定することができる。その結果、測定装置10は、複数の点群データを結合する際に、それぞれの点群データに含まれる共通データを重ね合わせることができるため、それぞれの測定装置において取得された点群データを正しく結合することができる。
 (実施の形態2)
 続いて、図2を用いて実施の形態2にかかる測定装置20の構成例について説明する。測定装置20は、図1の測定装置10に、点群データ保持部21及び位置合わせ実行部22が追加された構成である。以下においては、図1との差異について主に説明する。
 点群データ保持部21は、測定装置20が取得した点群データ、及び他の測定装置において取得された点群データを保持する。点群データ保持部21は、例えば、測定装置20内に内蔵されるメモリであってもよく、測定装置20に取り付け可能なメモリであってもよい。点群データ保持部21は、他の測定装置において取得された点群データを、他の測定装置から無線通信回線もしくは有線通信回線を介して受信してもよい。無線通信は、例えば、LTE(Long Term Evolution)、もしくは3GPP(3rd Generation Partnership Project)において5Gとして規定されている無線通信規格を用いた通信であってもよい。または、無線通信は、無線LAN(Local Area Network)であってもよく、赤外線通信、Bluetooth(登録商標)等の近距離無線通信であってもよい。有線通信回線は、光通信回線もしくはイーサネット(登録商標)を用いた通信であってもよい。
 測定装置20は、例えば、測定装置20に備え付けられているカメラを、装置基準座標系のXY平面上において所定の角度移動させ、さらに、XY平面と垂直方向の平面上において、所定の角度移動させることによって、測定装置20の周囲を撮像する。測定装置20は、カメラを用いて周囲を撮像することによって、点群データを取得する。つまり、測定装置20は、測定装置20の周囲を撮像するカメラを、所定の方向に動かすことによって、周囲の物体形状をスキャンしてもよい。測定装置20に備え付けられているカメラは、周囲の物体との距離を測定するセンサと言い換えられてもよい。測定装置が取得した点群データは、測定装置の周囲の物体の距離を示す距離データと称されてもよい。
 測定装置20のカメラにおいて周囲を撮像することによって得られた点群データが、点群データ保持部21に保持されてもよい。
 位置特定部11は、他の測定装置との距離を算出するために、屋外測位技術を用いて、測定装置20の位置を測定する。さらに、位置特定部11は、屋外測位技術を用いて測定されたそれぞれの測定装置の位置に関する情報を、それぞれの測定装置から取得する。屋外測位技術は、例えば、GPS(Global Positioning System)を用いた測位、無線測位、もしくは、地磁気測位等であってもよい。位置特定部11は、屋外測位技術を用いて特定された測定装置20の位置、及び、他の測定装置の位置を用いて、測定装置20と、他の測定装置との間の距離を算出する。また、位置特定部11は、他の測定装置間の距離を算出してもよい。屋外測位技術を用いて特定される測定装置の位置は、世界測地系において用いられる座標上の位置であってもよい。世界測地系において用いられる座標は、世界座標と言い換えられてもよい。
 さらに、位置特定部11は、測定装置20が測定した点群データを用いて、物体有無観測マップを算出もしくは生成する。図3を用いて、物体有無観測マップについて説明する。図3に示される黒い丸は、測定装置20の位置を示しており、X軸及びY軸の原点に位置している。また、図3には示されていないが、XY平面と垂直方向であって、X軸及びY軸の原点の位置にZ軸が存在するとする。つまり、図3は、XY平面の垂直方向にZ軸を有する三次元の図を示しているとする。XY平面が地表を示す場合、測定装置20は、X軸、Y軸、及びZ軸の原点に位置していてもよい。もしくは、XY平面が地表を示す場合、測定装置20は、X軸及びY軸の原点であって、Z軸の任意の値に位置してもよい。
 また、x1乃至x5は、X軸上の値を示しており、y1乃至y4は、Y軸上の値を示している。x1からx5に向かうにつれて値が大きくなり、y1からy4に向かうにつれて値が大きくなるとする。図3の網掛けの領域は、物体が存在する位置を示している。つまり、図3の網掛けの領域は、測定装置20が取得した点群データが存在する領域を示している。図3の網掛けがされていない四角の領域は、物体が存在しない領域を示している。つまり、測定装置20から放射された光は、図3の網掛けがされていない領域を通過し、網掛けの領域に存在する物体に反射される。測定装置20は、反射光を受光する。また、例えば、測定装置20から放射された光は、原点からx2までの領域であって、y3からy4までの領域に存在する物体に遮られて、原点からx2までの領域であって、y4よりも大きな値の領域に届くことはない。そのため、原点からx2までの領域であって、y4よりも大きな値の領域は、物体が存在するか否かが不明な領域といえる。つまり、物体に遮られることによって、測定装置20から放射された光が届かない領域は、物体が存在するか否かが不明な領域といえる。図3においては、物体が存在するか否かが不明な領域は、網掛けの領域及び網掛けがされていない四角の領域を除いた領域である。
 測定装置20以外の、他の測定装置も、測定装置20と同様に物体有無観測マップを生成する。位置特定部11は、他の測定装置から物体有無観測マップを取得する。もしくは、位置特定部11は、他の測定装置から取得した点群データを用いて、それぞれの測定装置における物体有無観測マップを生成してもよい。この場合、それぞれの物体有無観測マップは、それぞれの測定装置の位置を基準とする装置基準座標系の座標を用いて生成される。
 さらに、位置特定部11は、他の測定装置との距離及び他の測定装置における物体有無観測マップを用いて、測定装置20を基準とする装置基準座標系における、他の測定装置の位置を特定する。図4を用いて、他の測定装置の位置を特定する処理について説明する。図4は、測定装置20における物体観測マップと、他の測定装置における物体観測マップとを結合させることを示している。具体的には、測定装置20の物体観測マップにおける点線で囲まれた領域と、他の測定装置の物体観測マップにおける点線で囲まれた領域とが、同一の特徴を有している。同一の特徴は、物体が存在するエリアの分布が一致していることであってもよい。測定装置20の物体観測マップに用いられる装置基準座標系と、他の測定装置の物体観測マップに用いられる装置基準座標系とは異なる。そのため、図4においては、それぞれの装置基準座標系のX軸及びY軸の方向が一致していないことを示している。
 位置特定部11は、原点から、測定装置20と他の測定装置との距離だけ離れた位置に、他の測定装置の物体観測マップを配置する。さらに、位置特定部11は、測定装置20の物体観測マップ及び他の測定装置の物体観測マップを、Z軸を中心に回転させることによって、それぞれの点線で囲まれた領域を一致させる。もしくは、位置特定部11は、測定装置20の位置を基準とする装置基準座標系の原点を中心とし、半径を測定装置20と他の測定装置との距離とする円周上に他の測定装置の物体観測マップの原点を配置する。さらに、位置特定部11は、他の測定装置の物体観測マップを円周上を移動させてもよい。このようにして、位置特定部11は、測定装置20の物体観測マップ及び他の測定装置の物体観測マップのそれぞれの点線で囲まれた領域を一致させてもよい。このとき、位置特定部11は、他の測定装置の物体観測マップを、Z軸を中心に回転させながら円周上を移動させてもよい。
 位置特定部11は、図4の結合後の物体観測マップのように、点線で囲まれた領域を一致させた場合、測定装置20の位置を基準とする装置基準座標系における(x3、-y1)の位置に他の測定装置が存在すると特定する。また、位置特定部11は、結合後の物体観測マップをZ軸方向にも移動させて、物体が存在するエリアの分布を一致させることによって、他の測定装置が存在する位置を示すZ軸上の座標の値を特定することができる。
 位置特定部11は、他の測定装置の位置を特定する処理を繰り返し、測定装置20の位置を基準とする装置基準座標系における、複数の他の測定装置の位置を特定する。
 候補特定部12は、測定装置20及び位置が特定された複数の他の測定装置の中から3つを選択もしくは抽出し、図5の黒丸にて構成される三角形を生成する。三角形は、各頂点を測定装置の位置とし、3つの測定装置の位置関係を示している。例えば、候補特定部12は、近接する3つの測定装置を抽出してもよい。図5の黒丸は、抽出された測定装置を示している。図5の黒丸は、測定装置20の位置を基準とする装置基準座標系を用いて位置が特定されている。図5の星印は、共通領域の候補となる候補領域を示している。以下に、候補領域の特定方法について説明する。
 例えば、候補領域は、三角形の一つ辺を基準として、基準となる辺の端点とは異なる頂点の対称位置を含む領域であってもよい。候補領域は、頂点の対称位置を中心とし、予め定められた半径の円の領域であってもよく、頂点の対称位置を中心とした所定の範囲を含む領域であってもよい。図5の例においては、3つの頂点のそれぞれの対称位置を含む3つの候補領域が示されている。
 候補特定部12は、図5に示した3つの測定装置とは異なる組み合わせの測定装置を抽出し、それぞれの組み合わせにおける候補領域を特定する。図5に示した3つの測定装置とは異なる組み合わせとは、図5に示した3つの測定装置のうち、1つまたは2つの測定装置を含んでもよく、3つとも新たな測定装置を抽出してもよい。
 また、候補特定部12は、候補領域の特定方法として、頂点の対称位置を用いる方法に制限されない。例えば、候補特定部12は、基準となる辺の端点とは異なる頂点について、基準となる辺にて折り返した位置を中心とした所定の範囲を含む領域を候補領域としてもよい。もしくは、候補特定部12は、基準となる辺の端点とは異なる頂点から基準となる辺に対する垂線の延長線上の任意の位置を中心とした所定の範囲を含む領域を候補領域としてもよい。もしくは、候補特定部12は、基準となる辺の端点とは異なる頂点から基準となる辺の中点へ向かう直線の延長線上の任意の位置を中心とした所定の範囲を含む領域を候補領域としてもよい。もしくは、候補特定部12は、三角形の頂点の位置にある測定装置から延びる二つの辺に挟まれる領域内の任意の位置を含む領域を候補領域としてもよい。
 共通領域決定部13は、候補特定部12において特定された候補領域の分布に基づいて、共通領域を決定する。例えば、共通領域決定部13は、候補領域が最も集中する領域を共通領域として決定してもよい。候補領域が集中するとは、例えば、予め定められた領域内に複数の候補領域が存在することであってもよい。つまり、候補領域同士は完全に一致していない場合であっても、予め定められた領域内に複数の候補領域が存在すれば、予め定められた領域内に複数の候補領域が集中しているといえる。候補領域が最も集中する領域とは、他の領域と比較して、候補領域の数が最も多い領域であってもよい。集中するとは、重複すると言い換えられてもよい。
 もしくは、共通領域決定部13は、予め定められた閾値よりも大きい数の候補領域が集中する領域を共通領域として決定してもよい。この場合、共通領域決定部13は、1つ以上の領域を共通領域として決定してもよい。
 位置合わせ実行部22は、点群データに含まれる共通領域を用いて、それぞれの測定装置において取得された点群データの位置合わせを行う。例えば、位置合わせ実行部22は、共通領域に含まれる物体を重ね合わせるように位置合わせを行う。さらに、位置合わせ実行部22は、共通領域に含まれる物体を重ね合わせる際の点群データの移動距離、等を共通領域以外の点群データにも適用することによって、共通領域より広い範囲の点群データの位置合わせを行うことができる。
 続いて、図6を用いて実施の形態2にかかる位置合わせ処理の流れについて説明する。初めに、測定装置20は、測定装置20に備え付けられているカメラを用いて周囲を撮像することによって点群データを取得する(S11)。測定装置20は、測定装置20を中心とし、地表と実質的に平行な平面上の360度の領域を撮影し、さらに、地表と実質的に垂直な平面上の360度の領域を撮影してもよい。つまり、測定装置20は、測定装置20を中心とした球面内の領域を撮影してもよい。もしくは、測定装置20は、測定装置20を中心とした球面内の一部の領域を撮影してもよい。
 次に、位置特定部11は、屋外測位技術を用いて測定装置20の位置を取得する(S12)。例えば、位置特定部11は、屋外測位技術を用いて、世界測地系において用いられる座標上における測定装置20の位置を特定してもよい。
 次に、位置特定部11は、他の測定装置から、それぞれの測定装置において取得もしくは測定された位置情報及び点群データを取得する(S13)。位置特定部11は、他の測定装置において取得された位置情報を、世界測地系において用いられる座標上の位置として取得する。さらに、位置特定部11は、他の測定装置において取得された点群データを、それぞれの測定装置の位置を基準とする装置基準座標系において用いられる座標上の位置として取得する。
 次に、位置特定部11は、世界測地系において用いられる座標上における測定装置20と他の測定装置との距離を算出する。さらに、位置特定部11は、測定装置20及び他の測定装置のそれぞれにおいて取得された点群データを用いて、物体有無観測マップを作成し、測定装置20及び他の測定装置の位置を特定する(S14)。位置特定部11は、測定装置20の位置から、算出した距離離れた位置に他の測定装置を配置し、測定装置20の物体観測マップと、他の測定装置の物体有無観測マップとを重ね合わせる。このようにして、位置特定部11は、測定装置20の位置を基準とする装置基準座標系における他の測定装置の位置を特定する。
 次に、候補特定部12は、測定装置20の位置を基準とする装置基準座標系において特定された測定装置を例えば3つ選択し、選択された3つの測定装置の位置に基づいて候補領域を特定する(S15)。候補特定部12は、選択する測定装置の組み合わせを変更し、複数の候補領域を特定する。
 次に、共通領域決定部13は、候補領域の分布に基づいて、共通領域を決定する(S16)。次に、位置合わせ実行部22は、それぞれの測定装置において取得された点群データの共通領域を用いて、位置合わせを実行する(S17)。位置合わせ実行部22は、それぞれの測定装置の共通領域に含まれる共通の物体の位置及び方向等を重ね合わせることによって、位置合わせを実行する。
 以上説明したように、実施の形態2にかかる測定装置20は、物体観測マップを用いることによって、物体観測マップを用いない場合と比較して高い精度にて他の測定装置の位置を特定することができる。さらに、測定装置20は、自装置及び他の測定装置の位置に基づいて、共通領域の候補となる候補領域を特定し、候補領域の分布に基づいて共通領域を特定することができる。
 これより、測定装置20は、共通の物体が含まれる領域を選択する可能性を向上させることができる。そのため、測定装置20は、それぞれの点群データに含まれる共通の物体を用いて、正しく位置合わせを行うことができる。
 また、測定装置20の位置特定部11は、他の測定装置を撮像した際に得られる点群データを用いて、他の測定装置の位置を特定してもよい。点群データは、測定装置20の位置を基準とする装置基準座標系における座標を示している。そのため、点群データに含まれる他の測定装置の位置も、測定装置20の位置を基準とする装置基準座標系における座標を用いて示される。この場合、位置特定部11は、物体有無観測マップを用いて他の測定装置の位置を特定する処理を省略してもよい。
 (実施の形態3)
 続いて、図7を用いて実施の形態3にかかる通信システムの構成例について説明する。図7の通信システムは、情報処理装置30、測定装置40、測定装置41、及び測定装置42を有している。図7には、測定装置が3台存在する例を示しているが、測定装置は4台以上存在していてもよい。情報処理装置30は、プロセッサがメモリに格納されたプログラムを実行することによって動作するコンピュータ装置であってもよい。
 情報処理装置30は、測定装置40、測定装置41、及び測定装置42と通信する。情報処理装置30は、測定装置40、測定装置41、及び測定装置42と無線通信回線を介して通信を行ってもよく、有線通信回線を介して通信を行ってもよい。無線通信は、例えば、LTE(Long Term Evolution)、もしくは3GPPにおいて5Gとして規定されている無線通信規格を用いた通信であってもよい。または、無線通信は、無線LAN(Local Area Network)であってもよく、赤外線通信、Bluetooth(登録商標)等の近距離無線通信であってもよい。有線通信回線は、光通信回線もしくはイーサネット(登録商標)を用いた通信であってもよい。もしくは、情報処理装置30は、測定装置40とのみ通信を行ってもよい。この場合、測定装置40は、測定装置41、及び測定装置42と通信を行うことによってデータを収集し、収集したデータを情報処理装置30へ送信してもよい。
 続いて、情報処理装置30の構成例について説明する。情報処理装置30は、位置特定部31、候補特定部32、共通領域決定部33、点群データ保持部34、及び位置合わせ実行部35を有している。位置特定部31、候補特定部32、共通領域決定部33、点群データ保持部34、及び位置合わせ実行部35は、図2の測定装置20における位置特定部11、候補特定部12、共通領域決定部13、点群データ保持部21、及び位置合わせ実行部22に相当する。つまり、情報処理装置30は、図2においては測定装置において実行されていた、位置の特定、候補領域の特定、共通領域の特定、及び位置合わせに関する処理を、実行する。候補特定部32、共通領域決定部33、点群データ保持部34、及び位置合わせ実行部35の機能及び動作は、位置特定部11、候補特定部12、共通領域決定部13、点群データ保持部21、及び位置合わせ実行部22と同様であるため詳細な説明を省略する。
 位置特定部31は、情報処理装置30の位置を基準とする装置基準座標系を用いて、測定装置40、測定装置41、及び測定装置42の位置を特定する。具体的には、位置特定部31は、測定装置40から、測定装置40と測定装置41との間の距離だけ離れた位置に測定装置41を配置する。さらに、位置特定部31は、測定装置40及び測定装置41の物体有無観測マップを重ね合わせて、情報処理装置30の位置を基準とする装置基準座標系における測定装置40及び測定装置41の位置を特定する。もしくは、位置特定部31は、測定装置40、測定装置41、及び測定装置42のうちのいずれかの装置の位置を基準とする装置基準座標系を用いてもよい。
 以上説明したように、情報処理装置30が、測定装置の代わりに位置の特定、候補領域の特定、共通領域の特定、及び位置合わせに関する処理を、実行することによって、測定装置における処理負荷を低減することができる。測定装置は、例えば、LiDAR装置等であり、一般的なサーバ装置等と比較して処理能力が低い場合が多い。そのため、測定装置の処理負荷を低減させることによって、測定装置に生じうる故障のリスクを低減させることができる。
 図8は、測定装置10、測定装置20、及び情報処理装置30(以下、測定装置10等とする)の構成例を示すブロック図である。図8を参照すると、測定装置10等は、ネットワークインタフェース1201、プロセッサ1202、及びメモリ1203を含む。ネットワークインタフェース1201は、ネットワークノード(e.g., eNB、MME、P-GW、)と通信するために使用される。ネットワークインタフェース1201は、例えば、IEEE 802.3 seriesに準拠したネットワークインタフェースカード(NIC)を含んでもよい。
 プロセッサ1202は、メモリ1203からソフトウェア(コンピュータプログラム)を読み出して実行することで、上述の実施形態においてフローチャートを用いて説明された測定装置10等の処理を行う。プロセッサ1202は、例えば、マイクロプロセッサ、MPU、又はCPUであってもよい。プロセッサ1202は、複数のプロセッサを含んでもよい。
 メモリ1203は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ1203は、プロセッサ1202から離れて配置されたストレージを含んでもよい。この場合、プロセッサ1202は、図示されていないI/Oインタフェースを介してメモリ1203にアクセスしてもよい。
 図8の例では、メモリ1203は、ソフトウェアモジュール群を格納するために使用される。プロセッサ1202は、これらのソフトウェアモジュール群をメモリ1203から読み出して実行することで、上述の実施形態において説明された測定装置10等の処理を行うことができる。
 図8を用いて説明したように、上述の実施形態における測定装置10等が有するプロセッサの各々は、図面を用いて説明されたアルゴリズムをコンピュータに行わせるための命令群を含む1又は複数のプログラムを実行する。
 上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
 上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定する位置特定部と、
 前記自装置及び複数の前記他の測定装置のなかから少なくとも3つの測定装置を抽出し、抽出された測定装置の位置に基づいて、前記自装置及び複数の前記他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定する候補特定部と、
 抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定する共通領域決定部と、を備える測定装置。
 (付記2)
 前記位置特定部は、
 前記自装置が撮像したデータを用いて特定された周囲の物体までの距離を示す第1の距離データと、複数の前記他の測定装置のそれぞれにおいて取得された第2の距離データと、前記自装置と複数の前記他の測定装置との間の距離を示す第3の距離データと、を用いて前記複数の他の測定装置の位置を特定する、付記1に記載の測定装置。
 (付記3)
 前記位置特定部は、
 前記装置基準座標系において、前記自装置から前記第3の距離データにおいて特定された距離の位置に、前記第2の距離データを重ねて、前記複数の他の測定装置の位置を特定する、付記2に記載の測定装置。
 (付記4)
 前記位置特定部は、
 前記自装置が撮像した、複数の前記他の測定装置を含むデータを用いて、複数の前記他の測定装置の位置を特定する、付記1に記載の測定装置。
 (付記5)
 前記候補特定部は、
 前記装置基準座標系における3つの前記測定装置の位置を頂点とする三角形の形状に基づいて、前記候補領域を特定する、付記1乃至4のいずれか1項に記載の測定装置。
 (付記6)
 前記候補特定部は、
 前記三角形に含まれる第1の頂点及び第2の頂点を結ぶ線を基準として、第3の頂点の対称位置を含む領域を前記候補領域とする、付記5に記載の測定装置。
 (付記7)
 前記候補特定部は、
 前記三角形に含まれる第1の頂点を端点とし、第2の頂点及び第3の頂点を結ぶ直線の中点と前記第1の頂点を結ぶ直線上の任意の点の位置を含む領域を前記候補領域とする、付記5に記載の測定装置。
 (付記8)
 前記共通領域決定部は、
 前記候補領域が所定の数よりも多く重複する領域を前記共通領域とする、付記1乃至7のいずれか1項に記載の測定装置。
 (付記9)
 前記撮像されたデータは、点群データである、付記1乃至8のいずれか1項に記載の測定装置。
 (付記10)
 前記位置特定部は、
 前記自装置が撮像したデータである点群データを用いて、前記自装置の周囲に物体が存在するか否かを示す物体有無観測マップを生成し、
 前記第1の距離データは、前記自装置から前記物体有無観測マップに示される前記物体までの距離を示し、前記第2の距離データは、前記他の測定装置から、前記他の測定装置において生成された物体有無観測マップに示される前記物体までの距離を示す、付記2に記載の測定装置。
 (付記11)
 複数の測定装置から情報を収集する情報処理装置であって、
 それぞれの前記測定装置が特定した周囲の物体までの距離を示す第1の距離データを受信する通信部と、
 前記第1の距離データと、複数の前記測定装置に含まれる装置間の距離を示す第3の距離データとを用いて複数の前記測定装置の位置を特定する位置特定部と、
 複数の前記測定装置のなかから少なくとも3つの測定装置を抽出し、抽出された測定装置の位置に基づいて、複数の前記測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定する候補特定部と、
 抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定する共通領域決定部と、を備える情報処理装置。
 (付記12)
 前記位置特定部は、
 前記情報処理装置の位置を基準とする装置基準座標系において、前記複数の測定装置に含まれる第1の測定装置から、前記第3の距離データにおいて特定された距離の位置に、前記複数の測定装置に含まれる第2の測定装置の前記第1の距離データを重ねて、前記第1の測定装置及び前記第2の測定装置の位置を特定する、付記11に記載の情報処理装置。
 (付記13)
 自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定し、
 前記自装置及び複数の前記他の測定装置のなかから少なくとも3つの測定装置を抽出し、
 抽出された測定装置の位置に基づいて、前記自装置及び複数の前記他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定し、
 抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定する、測定装置において実行されるデータ決定方法。
 (付記14)
 自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定し、
 前記自装置及び複数の前記他の測定装置のなかから少なくとも3つの測定装置を抽出し、
 抽出された測定装置の位置に基づいて、前記自装置及び複数の前記他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定し、
 抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定することをコンピュータ装置に実行させるプログラム。
 なお、本開示は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
 10 測定装置
 11 位置特定部
 12 候補特定部
 13 共通領域決定部
 20 測定装置
 21 点群データ保持部
 22 位置合わせ実行部
 30 情報処理装置
 31 位置特定部
 32 候補特定部
 33 共通領域決定部
 34 点群データ保持部
 35 位置合わせ実行部
 40 測定装置
 41 測定装置
 42 測定装置

Claims (14)

  1.  自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定する位置特定部と、
     前記自装置及び複数の前記他の測定装置のなかから少なくとも3つの測定装置を抽出し、抽出された測定装置の位置に基づいて、前記自装置及び複数の前記他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定する候補特定部と、
     抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定する共通領域決定部と、を備える測定装置。
  2.  前記位置特定部は、
     前記自装置が撮像したデータを用いて特定された周囲の物体までの距離を示す第1の距離データと、複数の前記他の測定装置のそれぞれにおいて取得された第2の距離データと、前記自装置と複数の前記他の測定装置との間の距離を示す第3の距離データと、を用いて前記複数の他の測定装置の位置を特定する、請求項1に記載の測定装置。
  3.  前記位置特定部は、
     前記装置基準座標系において、前記自装置から前記第3の距離データにおいて特定された距離の位置に、前記第2の距離データを重ねて、前記複数の他の測定装置の位置を特定する、請求項2に記載の測定装置。
  4.  前記位置特定部は、
     前記自装置が撮像した、複数の前記他の測定装置を含むデータを用いて、複数の前記他の測定装置の位置を特定する、請求項1に記載の測定装置。
  5.  前記候補特定部は、
     前記装置基準座標系における3つの前記測定装置の位置を頂点とする三角形の形状に基づいて、前記候補領域を特定する、請求項1乃至4のいずれか1項に記載の測定装置。
  6.  前記候補特定部は、
     前記三角形に含まれる第1の頂点及び第2の頂点を結ぶ線を基準として、第3の頂点の対称位置を含む領域を前記候補領域とする、請求項5に記載の測定装置。
  7.  前記候補特定部は、
     前記三角形に含まれる第1の頂点を端点とし、第2の頂点及び第3の頂点を結ぶ直線の中点と前記第1の頂点を結ぶ直線上の任意の点の位置を含む領域を前記候補領域とする、請求項5に記載の測定装置。
  8.  前記共通領域決定部は、
     前記候補領域が所定の数よりも多く重複する領域を前記共通領域とする、請求項1乃至7のいずれか1項に記載の測定装置。
  9.  前記撮像されたデータは、点群データである、請求項1乃至8のいずれか1項に記載の測定装置。
  10.  前記位置特定部は、
     前記自装置が撮像したデータである点群データを用いて、前記自装置の周囲に物体が存在するか否かを示す物体有無観測マップを生成し、
     前記第1の距離データは、前記自装置から前記物体有無観測マップに示される前記物体までの距離を示し、前記第2の距離データは、前記他の測定装置から、前記他の測定装置において生成された物体有無観測マップに示される前記物体までの距離を示す、請求項2に記載の測定装置。
  11.  複数の測定装置から情報を収集する情報処理装置であって、
     それぞれの前記測定装置が特定した周囲の物体までの距離を示す第1の距離データを受信する通信部と、
     前記第1の距離データと、複数の前記測定装置に含まれる装置間の距離を示す第3の距離データとを用いて複数の前記測定装置の位置を特定する位置特定部と、
     複数の前記測定装置のなかから少なくとも3つの測定装置を抽出し、抽出された測定装置の位置に基づいて、複数の前記測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定する候補特定部と、
     抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定する共通領域決定部と、を備える情報処理装置。
  12.  前記位置特定部は、
     前記情報処理装置の位置を基準とする装置基準座標系において、前記複数の測定装置に含まれる第1の測定装置から、前記第3の距離データにおいて特定された距離の位置に、前記複数の測定装置に含まれる第2の測定装置の前記第1の距離データを重ねて、前記第1の測定装置及び前記第2の測定装置の位置を特定する、請求項11に記載の情報処理装置。
  13.  自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定し、
     前記自装置及び複数の前記他の測定装置のなかから少なくとも3つの測定装置を抽出し、
     抽出された測定装置の位置に基づいて、前記自装置及び複数の前記他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定し、
     抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定する、測定装置において実行されるデータ決定方法。
  14.  自装置の位置を基準とする装置基準座標系を用いて複数の他の測定装置の位置を特定し、
     前記自装置及び複数の前記他の測定装置のなかから少なくとも3つの測定装置を抽出し、
     抽出された測定装置の位置に基づいて、前記自装置及び複数の前記他の測定装置によって撮像されたデータの位置合わせに用いられる共通領域の候補となる候補領域を特定し、
     抽出する測定装置の組み合わせを変更することによって得られる複数の候補領域の分布に基づいて、前記共通領域を決定することをコンピュータ装置に実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2019/046835 2019-11-29 2019-11-29 測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体 WO2021106207A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/778,496 US20230036969A1 (en) 2019-11-29 2019-11-29 Measurement apparatus, information processing apparatus, data specifying method, and non-transitory computer-readable medium
PCT/JP2019/046835 WO2021106207A1 (ja) 2019-11-29 2019-11-29 測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体
JP2021561119A JP7276504B2 (ja) 2019-11-29 2019-11-29 測定装置、情報処理装置、及びデータ特定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/046835 WO2021106207A1 (ja) 2019-11-29 2019-11-29 測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2021106207A1 true WO2021106207A1 (ja) 2021-06-03

Family

ID=76129283

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/046835 WO2021106207A1 (ja) 2019-11-29 2019-11-29 測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US20230036969A1 (ja)
JP (1) JP7276504B2 (ja)
WO (1) WO2021106207A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023144983A1 (ja) * 2022-01-28 2023-08-03 日本電気株式会社 光センシング装置、光センシングシステム及び光センシング方法
JP2023146505A (ja) * 2022-03-29 2023-10-12 防衛装備庁長官 物体認識システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100235129A1 (en) * 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
JP2011226880A (ja) * 2010-04-19 2011-11-10 Advanced Telecommunication Research Institute International 計測装置,計測方法および計測プログラム
JP2019101000A (ja) * 2017-12-08 2019-06-24 コニカミノルタ株式会社 測距点群データ測定システム、および制御プログラム
WO2019186742A1 (ja) * 2018-03-28 2019-10-03 日本電気株式会社 監視制御装置、監視システム、監視制御方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100235129A1 (en) * 2009-03-10 2010-09-16 Honeywell International Inc. Calibration of multi-sensor system
JP2011226880A (ja) * 2010-04-19 2011-11-10 Advanced Telecommunication Research Institute International 計測装置,計測方法および計測プログラム
JP2019101000A (ja) * 2017-12-08 2019-06-24 コニカミノルタ株式会社 測距点群データ測定システム、および制御プログラム
WO2019186742A1 (ja) * 2018-03-28 2019-10-03 日本電気株式会社 監視制御装置、監視システム、監視制御方法及びプログラムが格納された非一時的なコンピュータ可読媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YOSHISADA, HIKARU ET AL.: "Proposal for an Indoor Map Generation Method Using Two-Dimensional Point Group Integration with Different Base Points", IPSJ SIG TECHNICAL REPORT, vol. 117, no. 451, 19 February 2018 (2018-02-19), pages 39 - 50, ISSN: 0913- 5685 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023144983A1 (ja) * 2022-01-28 2023-08-03 日本電気株式会社 光センシング装置、光センシングシステム及び光センシング方法
JP2023146505A (ja) * 2022-03-29 2023-10-12 防衛装備庁長官 物体認識システム
JP7392221B2 (ja) 2022-03-29 2023-12-06 防衛装備庁長官 物体認識システム

Also Published As

Publication number Publication date
JPWO2021106207A1 (ja) 2021-06-03
JP7276504B2 (ja) 2023-05-18
US20230036969A1 (en) 2023-02-02

Similar Documents

Publication Publication Date Title
US8659660B2 (en) Calibration apparatus and calibration method
JP6543520B2 (ja) 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
US9889932B2 (en) Methods and systems for landing of unmanned aerial vehicle
US10275661B2 (en) Image processing apparatus, image processing method, and computer program product
CN105512646B (zh) 一种数据处理方法、装置及终端
DK2993450T3 (en) Method and arrangement for recording acoustic and optical information as well as a corresponding computer program and a corresponding computer-readable storage medium
WO2021106207A1 (ja) 測定装置、情報処理装置、データ特定方法、及び非一時的なコンピュータ可読媒体
Mandelli et al. Testing different survey techniques to model architectonic narrow spaces
JP6779150B2 (ja) 情報取得装置
JP6080641B2 (ja) 3次元点群解析方法
JP2014185947A (ja) 3次元復元のための画像撮影方法
JP7448712B2 (ja) 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
JP6080640B2 (ja) 3次元点群解析方法
JP2012137933A (ja) 被写地物の位置特定方法とそのプログラム、及び表示地図、並びに撮影位置取得方法とそのプログラム、及び撮影位置取得装置
US12002237B2 (en) Position coordinate derivation device, position coordinate derivation method, position coordinate derivation program, and system
US20230222642A1 (en) Inundation damage determination device, inundation damage determination method, and program
US8218824B2 (en) Spatial information database generating device and spatial information database generating program
CN112422653A (zh) 基于位置服务的场景信息推送方法、系统、存储介质及设备
Kolakowski et al. Static LiDAR assisted UWB anchor nodes localization
WO2022113344A1 (ja) 情報処理装置、3次元位置推定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
JP2014066538A (ja) 写真計測用ターゲット及び写真計測方法
US20230375709A1 (en) Detection device, determination method, and non-transitory computer-readable medium
JP2023125096A (ja) 測量方法、ターゲットマーカ、及び測量システム
WO2022074739A1 (ja) 処理装置、処理システム、処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体
Fedorov et al. Towards calibration of outdoor multi-camera visual monitoring system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19954221

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021561119

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19954221

Country of ref document: EP

Kind code of ref document: A1