WO2022097219A1 - 検出方法、検出装置及びプログラム - Google Patents

検出方法、検出装置及びプログラム Download PDF

Info

Publication number
WO2022097219A1
WO2022097219A1 PCT/JP2020/041293 JP2020041293W WO2022097219A1 WO 2022097219 A1 WO2022097219 A1 WO 2022097219A1 JP 2020041293 W JP2020041293 W JP 2020041293W WO 2022097219 A1 WO2022097219 A1 WO 2022097219A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
coded data
voxel
index value
layer
Prior art date
Application number
PCT/JP2020/041293
Other languages
English (en)
French (fr)
Inventor
真由子 渡邊
隆一 谷田
英明 木全
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to JP2022560554A priority Critical patent/JP7381973B2/ja
Priority to PCT/JP2020/041293 priority patent/WO2022097219A1/ja
Publication of WO2022097219A1 publication Critical patent/WO2022097219A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/16Measuring arrangements characterised by the use of optical techniques for measuring the deformation in a solid, e.g. optical strain gauge
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C7/00Tracing profiles

Definitions

  • the present invention relates to a detection method, a detection device and a program.
  • Point cloud data is a set of data on points reflected from the surface of a structure.
  • MMS Mobile Mapping System
  • Point cloud data is a set of data on points reflected from the surface of a structure.
  • By automatically estimating the shape of the structure based on the point cloud data it is expected that it can be used in situations such as maintenance.
  • the moving camera continuously acquires the point cloud data, instead of the fixed camera for each recognition target acquiring the point cloud data. Therefore, it is expected that the amount of data for each item will be enormous.
  • the point cloud data is layered and encoded by an octree (see, for example, Non-Patent Document 1).
  • an object of the present invention is to provide a detection method, a detection device, and a program capable of shortening the time required for estimating a time-series change in space.
  • the first coded data in which the first point group data is encoded into the information of the points of the tree structure composed of a plurality of layers and the first coded data in the same space as the first point group data are acquired at different times.
  • an index value representing the magnitude of the data difference between the first coded data and the second coded data in the predetermined layer is calculated, and the index value is calculated based on the calculated index value. It is a detection method having a detection step for detecting the presence or absence of a difference in space.
  • the first coded data in which the first point group data is encoded into the information of the points of the tree structure composed of a plurality of layers and the first coded data in the same space as the first point group data are acquired at different times.
  • An acquisition unit that acquires point information in a predetermined hierarchy from each of the second coded data obtained by encoding the second point group data into point information of a tree structure composed of a plurality of layers, and the acquisition unit. Calculates an index value indicating the magnitude of the data difference between the first coded data and the second coded data in the predetermined layer based on the information acquired by the above-mentioned index value, and based on the calculated index value.
  • It is a detection device including a detection unit that detects the presence or absence of a difference in space.
  • One aspect of the present invention is a program for causing a computer to execute the above-mentioned detection method.
  • the difference in the time series direction is estimated by using the coded information of the point cloud data acquired at different times in almost the same space without decoding. As a result, it is possible to easily detect a region having a large deviation between these point cloud data. That is, changes in the structure in the space where the point cloud data is acquired can be easily detected.
  • FIG. 1 is a block diagram showing a configuration of the detection device 1 according to the first embodiment.
  • the detection device 1 includes a storage unit 11, an input unit 12, a layer designation unit 13, an acquisition unit 14, and a detection unit 15.
  • the storage unit 11 stores various data including the first coded data and the second coded data.
  • the first coded data is the coded data of the first point cloud data
  • the second coded data is the coded data of the second point cloud data.
  • the point cloud data is data of a set of coordinate values in which a point exists in a predetermined spatial region.
  • the first point cloud data and the second point cloud data are point cloud data acquired at different times in the same space.
  • the first point cloud data and the second point cloud data are data cut out from the point cloud data acquired at different times in the same space.
  • the coded data is arithmetically coded data of the tree structure data generated from the point cloud data.
  • the tree structure data is data in which the divided space including points in the above spatial area is represented by an octree structure. As described above, the coded data is data representing the tree structure data generated from the point cloud data.
  • the input unit 12 inputs data.
  • the input may be the reception of data from another device or the reading of data from another device or recording medium. Further, the input may include data input by an existing input device such as a keyboard or a touch panel.
  • the input unit 12 inputs the first coded data and the second coded data, and writes these input data in the storage unit 11.
  • the layer designation unit 13 outputs information for designating the target layer for determining the presence / absence of a difference between the first coded data and the second coded data to the acquisition unit 14 and the detection unit 15.
  • the layer to be determined is indicated by, for example, an upper limit layer and a lower limit layer.
  • the acquisition unit 14 acquires point information in each divided region of each layer from each of the first coded data and the second coded data.
  • the point information is information on whether or not a point is included in each division area of the next lower hierarchy included in the division area.
  • the detection unit 15 compares the information of the points in the divided area acquired from the first coded data with the information of the points in the divided area acquired from the second coded data for each layer to be determined. And calculate the index value.
  • the index value represents the magnitude of the data difference between the first point cloud data and the second point cloud data.
  • the detection unit 15 detects the presence or absence of a difference in space based on the calculated index value.
  • the coordinate value of each point included in the point cloud data is represented by the value of each component in the xyz coordinate, that is, the x coordinate value, the y coordinate value, and the z coordinate value.
  • FIG. 2 is a diagram showing a parent block and a child block in the spatial area division.
  • the parent block B which is the space of the cube, into two equal parts in each of the three directions (x-axis, y-axis, z-axis) orthogonal to each other.
  • the child blocks B-0 to eight cubes from the parent block B B-7 is generated.
  • the parent block B and the child blocks B-0 to Bn are each divided spaces corresponding to voxels.
  • FIG. 3 is a diagram showing division of a spatial region including point cloud data.
  • Block B0 is a cube with 2 n sides on each side.
  • the coordinate values of the point cloud data are converted into the coordinate values of the relative coordinate system.
  • the coordinates of the point cloud data are translated so that the minimum value of each component of x, y, and z becomes 0.
  • the coordinates of one vertex of block B0 become (0,0,0).
  • the spatial region division shown in FIG. 2 is performed by using the block B2-i-j (j is an integer of 0 or more and 7 or less) containing one or more points as a parent block. Will be done.
  • blocks B3-i-j-0 to B3-i-j-7 which are eight child blocks, are generated. Further, the process of dividing the space area with the child block containing one or more points as the parent block is repeated a predetermined time.
  • the child block generated by the m-th division (m is an integer of 1 or more) is described as the m-th layer block.
  • FIG. 4 is a diagram showing an example of an ocree.
  • the point cloud data is represented by an octree corresponding to the divided three-dimensional space as shown in FIG.
  • the uppermost node N0 corresponds to the block B0.
  • Node N0 is connected to eight nodes N1-0 to N1-7 in the first layer.
  • Node N1-i corresponds to block B1-i.
  • a node corresponding to a block containing a point is described as a node containing a point, and a node corresponding to a block not including a point is described as a node not including a point.
  • the node N1-i including a plurality of points is connected to the eight nodes N2-i-0 to N2-i-7 in the second layer.
  • Node N2-i-j corresponds to block B2-i-j. Since the block B1-i not including the point is not divided, the node N1-i corresponding to the block B1-i is not connected to the node of the second layer.
  • the nodes N1-0 to N1-6 not including the points are not connected to the nodes in the second layer.
  • the node N1-7 including the point is connected to the node N2-7-0 to N2-7-7 in the second layer.
  • Nodes N2-7-0 and N2-7-2 to 7 that do not include points are not connected to the node in the third layer.
  • the node N2-7-2 including the point is connected to the eight nodes N3-7-1-0 to N3-7-1-7 in the third layer.
  • a tree-structured node corresponding to the spatial area divided as described above is generated.
  • a block value indicating whether or not each of the child blocks having the block as the parent block contains the point is given. That is, the node corresponding to the block containing the point is given a block value indicating whether or not each of the nodes one level below the node contains the point.
  • This block value is expressed by the equation (1).
  • x k is a code indicating whether or not a point is included in the kth child block (k is an integer of 0 or more and 7 or less) among the eight child blocks. "1" means that the point is included, and "0" means that the point is not included.
  • each node is given a block value in which the position of the point is represented by a value from 0 to 255 by the equation (1).
  • the block values assigned to the nodes corresponding to each block are variable-length coded in order from the parent space (parent node). The coding is performed in order from the upper node and the left node shown in FIG. 4, for example.
  • the point group data is converted into tree structure data in which the divided space including the points in the spatial area is represented by an ocree tree structure, and the tree structure data is arithmetically coded to generate coded data. To. Further, information on the amount of translation performed during conversion to the relative coordinate system is added to the encoded information.
  • FIG. 5 is a flow chart showing the processing of the detection device 1.
  • the input unit 12 of the detection device 1 inputs the coded data A and the coded data B (step S110).
  • the coded data A is the first coded data
  • the coded data B is the second coded data.
  • the coded data A and the coded data B are data showing an octane structure of point cloud data in the same space cut out from point cloud data in substantially the same space acquired at different times.
  • the input unit 12 writes the coded data A and the coded data B to the storage unit 11.
  • the hierarchy designation unit 13 acquires information on the upper limit N1 (N1 is an integer of 0 or more) and the lower limit N2 (N2 is an integer of N1 or more) designated by the user.
  • the specified hierarchy is the target for determining the level of data difference.
  • the level of data difference is an example of an index value.
  • the layer designation unit 13 may acquire the information of the upper limit N1 and the lower limit N2 of the layer input by the input unit 12, or may read the information of the upper limit N1 and the lower limit N2 of the layer stored in the storage unit 11. ..
  • the hierarchy designation unit 13 outputs the information of the upper limit N1 and the lower limit N2 of the acquired hierarchy to the acquisition unit 14 and the detection unit 15 (step S120).
  • the acquisition unit 14 sets the layer n of the processing target as the highest (upper limit) layer N1 of the target to be determined.
  • the block value fb is acquired (step S130).
  • the block values fa and fb are represented by the equation (1).
  • the detection unit 15 compares the block value fa and the block value fb for each voxel at the same position in the layer n, and determines the level of the data difference (step S140). The details of the process of step S140 will be described later with reference to FIG.
  • the acquisition unit 14 determines whether or not there is the next layer to be determined (step S150). If the layer n of the current processing target does not reach the lower limit N2 of the layer acquired in step S120, the acquisition unit 14 determines that there is the next layer (step S150: YES). The acquisition unit 14 updates the layer n to be processed to the next lower layer (n + 1). The acquisition unit 14 reads the block value fa of the octa-tree structure of each voxel of the layer n from the coded data A, and reads the block value fb of the octa-tree structure of each voxel of the layer n from the coded data B (step). S160).
  • step S150 the detection device 1 repeats the process from step S140. Then, when the acquisition unit 14 determines that the layer n to be processed has reached the lower limit N2 of the layer (step S150: NO), the acquisition unit 14 ends the processing.
  • the detection unit 15 Based on the level values calculated in each layer, the detection unit 15 captures the time when the point cloud data encoded by the coded data A is captured and the point cloud data encoded by the coded data B. Detects whether there is a difference in space with the time. For example, the detection unit 15 determines that there is a difference in the subspace corresponding to the voxel in which the level value equal to or higher than the threshold value is obtained.
  • the spatial area of the original point cloud data is large, the spatial area is divided into the unit space where the coded data is generated. This unit space corresponds to block B0 in FIG.
  • the detection device 1 performs the processing of FIG. 5 for each unit space.
  • FIG. 6 is a flow chart showing detailed processing in step S140 of FIG.
  • the detection unit 15 selects unselected voxels from the voxels of the layer n (step S210).
  • the selected voxel is referred to as a selected voxel.
  • the detection unit 15 determines the level value based on the number of elements determined not to match (step S220). Here, the detection unit 15 uses the number of non-matching elements as the level value.
  • the detection unit 15 adds information on the level value of the selected voxel to one or both of the coded data A and the coded data B.
  • the detection unit 15 reads out the level value of the voxel of the next higher layer (n-1) including the selected voxel.
  • the detection unit 15 compares the level value of the selected voxel determined in step S220 with the level value of the voxel in the next higher layer (step S230).
  • the acquisition unit 14 determines that the level value of the voxel in the next higher hierarchy is larger than the level value of the selected voxel (step S230: YES)
  • the acquisition unit 14 sets the level value of the selected voxel in the next higher hierarchy. It is a voxel level value (step S240).
  • the detection unit 15 rewrites the level value information added to one or both of the coded data A and the coded data B in step S220 to the level value information of the voxel in the next higher layer.
  • step S250 determines whether or not there is an unselected voxel in the layer n (step S250).
  • the detection unit 15 repeats the process from step S210.
  • the detection unit 15 determines that all voxels have been selected (step S250: NO)
  • the detection unit 15 ends the process.
  • the detection device 1 performs the process of step S150 in FIG.
  • the detection device 1 of the present embodiment can be used, for example, in the following cases.
  • As one of the maintenance work there is a work to check the inclination of the telephone pole.
  • the following are generally considered as implementation methods for automating this work.
  • the state of the city is acquired as point cloud data by LiDAR, MMS, or the like.
  • the analysis device analyzes the acquired point cloud data and extracts the data of the telephone pole.
  • the analyzer analyzes the extracted data of the telephone pole and confirms that there is no problem with the inclination.
  • the detection device 1 extracts necessary data from the area cut out by the detection device 1, and performs analysis processing using the extracted data. Therefore, it is expected that the load and time required for the analysis process can be reduced.
  • the difference is detected by the present embodiment using a point cloud obtained at different times while expressing an area of a predetermined size and substantially the same real space including a maintenance target (for example, a telephone pole). Then, it is possible to estimate whether the maintenance target has changed from the past in the real space.
  • the detection device of the second embodiment presents the determined level to the user as in the first embodiment.
  • the second embodiment will be described with a focus on the differences from the first embodiment.
  • FIG. 7 is a block diagram showing the configuration of the detection device 10 according to the second embodiment.
  • the detection device 10 includes a storage unit 11, an input unit 12, a layer designation unit 13, an acquisition unit 14, a detection unit 15, an output unit 21, and a display unit 22.
  • the detection device 10 is different from the detection device 1 of the first embodiment shown in FIG. 1 in that it further includes an output unit 21 and a display unit 22.
  • the output unit 21 adds the level value information given to each voxel by the detection unit 15 to the information obtained from the first coded data or the second coded data and outputs the information. Specifically, the output unit 21 superimposes and outputs a color representing a level assigned to the voxel on the voxel represented by the first coded data or the second coded data.
  • the output may be displayed on the display unit 22, displayed on another device connected to the detection device 10, or printed by a printer.
  • the display unit 22 is an image display device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, and an organic EL (Electro Luminescence) display.
  • the display unit 22 displays the data.
  • FIG. 8 is a flow chart showing the processing of the detection device 10.
  • the same processing as that of the processing of the first embodiment shown in FIG. 5 is designated by the same reference numerals, and the description thereof will be omitted.
  • the detection device 10 performs the processes of steps S110 to S160 of FIG.
  • the acquisition unit 14 determines that the layer n to be processed has reached the lower limit N2 of the layer (step S150: NO)
  • the acquisition unit 14 instructs the output unit 21 to process.
  • the output unit 21 superimposes a color corresponding to the level value given to the voxel by the detection unit 15 on the voxel indicated by the coded data A or the coded data B, and displays the color on the display unit 22 (step S310).
  • the user can determine the area where the deviation is large by the color of the displayed voxel.
  • the user determines that the voxels of the color indicating that the level is high is the region where the deviation is large (step S320).
  • FIG. 9 is a diagram showing an example of a screen displayed by the detection device 10 in step S310 of FIG. These figures show an example of the display when the processing of FIG. 8 is performed for each of the two adjacent unit spaces. Since no difference was detected in the unit space on the right side, the output unit 21 displays the voxels in the uppermost layer with a color indicating no difference. On the other hand, the output unit 21 displays the unit space on the left side by superimposing a color corresponding to the level value of the voxels on the layered voxels.
  • FIG. 10 is a flow chart showing the processing of the detection device 10 according to the third embodiment.
  • the processing shown in FIG. 5 or the same processing as that shown in FIG. 8 is designated by the same reference numerals, and detailed description thereof will be omitted.
  • the input unit 12 of the detection device 10 inputs the coded data A and the coded data B (step S110).
  • the hierarchy designation unit 13 acquires the information of the hierarchy N designated by the user (step S410).
  • the layer designation unit 13 may acquire the layer N input by the input unit 12, or may read out the layer N stored in the storage unit 11.
  • the acquisition unit 14 acquires the block value fa of the octa-tree structure of each voxel B of the layer N from the coded data A, and acquires the block value fb of the octa-tree structure of each voxel of the layer N from the coded data B. (Step S420).
  • the detection unit 15 compares the block value fa and the block value fb for each voxel at the same absolute position in the layer N, and determines the level of the data difference (step S140). That is, the detection unit 15 performs the process of FIG. 6 for the layer N.
  • the output unit 21 superimposes a color corresponding to the level value given to the voxel by the detection unit 15 on the voxel indicated by the coded data A or the coded data B, and displays the color on the display unit 22 (step S310).
  • the user determines that the voxels of the color indicating that the level is high is the region where the deviation is large (step S320).
  • the processing load is reduced as compared with the second embodiment, and the change over time in the space is made. It is possible to identify a large part.
  • the parent block of the cube is divided into eight child blocks of the cube, but the parent block and the child block do not have to be cubes.
  • the spatial area containing the points is represented by the n-branch structure instead of the tree-structured data represented by the octa-tree structure as described above. Tree structure data is used.
  • the acquisition unit 14 uses the space region A and the coded data B, which are the targets of the coded data A, to obtain the 8-minute tree data shown by the coded data A and the 8-minute tree data shown by the coded data B. After converting to the octagonal tree data of the space area C including the target space area B, the above processing is performed.
  • the acquisition unit 14 generates the octal tree data of the spatial area C, and replaces the portion corresponding to the spatial area A in the generated octal tree data with the octal tree data indicated by the coded data A.
  • the detection devices 1 and 10 use the replaced octane data as the coded data A in the above.
  • the acquisition unit 14 replaces the portion corresponding to the spatial area B in the octal tree data of the spatial area C with the octal tree data indicated by the coded data B.
  • the detection devices 1 and 10 use the replaced octane data as the coded data B described above.
  • the functions of the detection devices 1 and 10 in the above-described embodiment may be realized by a computer.
  • a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed.
  • the term "computer system” as used herein includes hardware such as an OS and peripheral devices.
  • the "computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, and a storage device such as a hard disk built in a computer system.
  • a "computer-readable recording medium” is a communication line for transmitting a program via a network such as the Internet or a communication line such as a telephone line, and dynamically holds the program for a short period of time. It may also include a program that holds a program for a certain period of time, such as a volatile memory inside a computer system that is a server or a client in that case. Further, the above-mentioned program may be for realizing a part of the above-mentioned functions, and may be further realized by combining the above-mentioned functions with a program already recorded in the computer system.
  • FIG. 11 is a device configuration diagram showing a hardware configuration example of the detection devices 1 and 10.
  • the detection devices 1 and 10 include a processor 71, a storage unit 72, a communication interface 73, and a user interface 74.
  • the processor 71 is a central processing unit that performs calculations and controls.
  • the processor 71 is, for example, a CPU.
  • the processor 71 reads a program from the storage unit 72 and executes it.
  • Some of the functions of the detection devices 1 and 10 may be realized by using hardware such as ASIC (Application Specific Integrated Circuit), PLD (Programmable Logic Device), and FPGA (Field Programmable Gate Array).
  • the storage unit 72 further has a work area for the processor 71 to execute various programs and the like.
  • the communication interface 73 is connected so as to be able to communicate with another device.
  • the user interface 74 is an input device such as a keyboard, a pointing device (mouse, tablet, etc.), a button, a touch panel, and a display device such as a display.
  • An artificial operation is input by the user interface 74.
  • the user interface 74 inputs information on the upper limit layer and information on the lower limit layer.
  • Each of the detection devices 1 and 10 may be realized by a plurality of computer devices connected to the network. In this case, which of these plurality of computer devices is used to realize each of the functional units of the detection devices 1 and 10 can be arbitrary. Further, the same functional unit may be realized by a plurality of computer devices.
  • the detection device includes an acquisition unit and a detection unit.
  • the acquisition unit acquires the first coded data in which the first point group data is encoded into the information of points in a tree structure consisting of a plurality of layers, and the second coded data acquired at different times in the same space as the first point group data.
  • the point information in a predetermined hierarchy is acquired from each of the second coded data in which the point group data is encoded into the point information of the tree structure composed of a plurality of layers.
  • the detection unit calculates an index value indicating the magnitude of the data difference between the first coded data and the second coded data in a predetermined hierarchy based on the information acquired by the acquisition unit, and is based on the calculated index value. Detects the presence or absence of differences in space.
  • the detection unit may calculate an index value for each voxel in a predetermined hierarchy. Even if the detection unit calculates the index value of the voxel based on the difference between the first coded data in the layer one level below the voxel and the second coded data in the layer one level below the voxel. good.
  • the detection unit may calculate an index value for voxels in a predetermined range of layers.
  • the detection unit sets the index value of the voxel to the voxel of the next higher hierarchy. Change to the index value of.
  • the detection device may further include an output unit.
  • the output unit superimposes a color corresponding to the index value calculated for the voxel on the voxel indicated by the first coded data or the second coded data and displays it on the display unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Generation (AREA)

Abstract

検出方法は、取得ステップと、検出ステップとを有する。取得ステップにおいては、第一点群データを複数の階層からなる木構造の点の情報に符号化した第一符号化データと、第一点群データとほぼ同じ空間について異なる時刻に取得された第二点群データを複数の階層からなる木構造の点の情報に符号化した第二符号化データとのそれぞれから、所定の階層における点の情報を取得する。検出ステップにおいては、取得ステップにおいて取得した情報に基づいて所定の階層における第一符号化データと第二符号化データとの間のデータ差分の大きさ表す指標値を算出し、算出した指標値に基づいて空間における差異の有無を検出する。

Description

検出方法、検出装置及びプログラム
 本発明は、検出方法、検出装置及びプログラムに関する。
 固定LiDAR(Light Detection and Ranging)、車載型LiDAR、ドローン搭載型LiDAR、MMS(Mobile Mapping System)のなどの機器により取得される点群データを用いて物体認識を行うという取り組みが増えつつある。点群データは、構造物の表面から反射される点のデータの集合である。点群データに基づいて構造物の形状を自動で推定することにより、保守などの場面での利用が可能になると期待されている。一般に路上の構造物の保守などを想定する場合、認識対象ごとに固定されたカメラが点群データを取得するのではなく、移動するカメラが連続して点群データを取得すると考えられる。よって、一つ一つのデータ量が膨大になることが想定される。点群データは、8分木で階層化され、符号化される(例えば、非特許文献1参照)。
 一方、保守業務では一般に、対象とする構造物の時系列変化の様子を確認することが多い。そのため、時系列方向の構造物の変化情報を、点群データに基づいて見つける必要があると考えられる。
 点群データを用いて時系列方向の構造物の変化を確認するには、時系列の点群間の距離を利用した推定方法を適用することが考えられる(例えば、非特許文献1参照)。この推定方法では、全ての点のデータを用いて、点がなす曲面の距離情報を計算する必要がある。従って、膨大なデータ量を持つ点群データにこの推定方法を適用した場合、推定に時間がかかる可能性がある。
 上記事情に鑑み、本発明は、空間の時系列変化の推定に要する時間を短縮することができる検出方法、検出装置及びプログラムを提供することを目的としている。
 本発明の一態様は、第一点群データを複数の階層からなる木構造の点の情報に符号化した第一符号化データと、前記第一点群データとほぼ同じ空間について異なる時刻に取得された第二点群データを複数の階層からなる木構造の点の情報に符号化した第二符号化データとのそれぞれから、所定の階層における点の情報を取得する取得ステップと、前記取得ステップにおいて取得した情報に基づいて前記所定の階層における前記第一符号化データと前記第二符号化データとの間のデータ差分の大きさ表す指標値を算出し、算出した前記指標値に基づいて前記空間における差異の有無を検出する検出ステップと、を有する検出方法である。
 本発明の一態様は、第一点群データを複数の階層からなる木構造の点の情報に符号化した第一符号化データと、前記第一点群データとほぼ同じ空間について異なる時刻に取得された第二点群データを複数の階層からなる木構造の点の情報に符号化した第二符号化データとのそれぞれから、所定の階層における点の情報を取得する取得部と、前記取得部が取得した情報に基づいて前記所定の階層における前記第一符号化データと前記第二符号化データとの間のデータ差分の大きさ表す指標値を算出し、算出した前記指標値に基づいて前記空間における差異の有無を検出する検出部と、を備える検出装置である。
 本発明の一態様は、コンピュータに、上述の検出方法を実行させるためのプログラムである。
 本発明により、空間の時系列変化の推定に要する時間を短縮することが可能となる。
第1の実施形態による検出装置の構成を示すブロック図である。 同実施形態に用いられる空間領域分割の親ブロックと子ブロックを示す図である。 同実施形態に用いられる点群データを含む空間領域の分割を示す図である。 同実施形態に用いられる8分木の例を示す図である。 同実施形態における検出装置の動作を示すフロー図である。 同実施形態における検出装置の動作を示すフロー図である。 第2の実施形態における検出装置の構成を示すブロック図である。 同実施形態における検出装置の動作を示すフロー図である。 同実施形態における検出装置による表示例を示す図である。 第3の実施形態における検出装置の動作を示すフロー図である。 実施形態の検出装置のハードウェア構成を示す図である。
 以下、図面を参照しながら本発明の実施形態を詳細に説明する。本実施形態では、ほぼ同じ空間を対象にして異なる時刻に取得された点群データの符号化情報を復号せずに用いて時系列方向の差分を推定する。これにより、これらの点群データ間においてずれが大きい領域を簡易に検出することができる。つまり、点群データが取得された空間内における構造物の変化を簡易に検出することができる。
(第1の実施形態)
 図1は、第1の実施形態による検出装置1の構成を示すブロック図である。検出装置1は、記憶部11と、入力部12と、階層指定部13と、取得部14と、検出部15とを備える。
 記憶部11は、第一符号化データ及び第二符号化データを含む各種データを記憶する。第一符号化データは第一点群データの符号化データであり、第二符号化データは第二点群データの符号化データである。点群データは、所定の空間領域において点が存在する座標値の集合のデータである。第一点群データと第二点群データは、同じ空間を対象にして異なる時刻に取得された点群データである。例えば、第一点群データ及び第二点群データは、ほぼ同じ空間を対象にして異なる時刻に取得された点群データから同じ空間を対象にして切り取られたデータである。符号化データは、点群データから生成される木構造データを算術符号化したデータである。木構造データは、上記の空間領域のうち点が含まれる分割された空間を8分木構造で表現したデータである。このように、符号化データは、点群データから生成される木構造データを表すデータである。
 入力部12は、データを入力する。入力は、他の装置からのデータの受信でもよく、他の装置又は記録媒体からのデータの読み出しでもよい。また、入力は、キーボードやタッチパネル等の既存の入力装置によるデータの入力を含んでもよい。入力部12は、第一符号化データ及び第二符号化データを入力し、入力したこれらデータを記憶部11に書き込む。
 階層指定部13は、第一符号化データと第二符号化データとの差分の有無の判定を行う対象の階層を指定する情報を取得部14及び検出部15に出力する。判定を行う対象の階層は、例えば、上限の階層及び下限の階層により示される。
 取得部14は、第一符号化データと、第二符号化データとのそれぞれから、各階層の各分割領域における点の情報を取得する。点の情報は、分割領域に含まれる一つ下の階層の各分割領域に点が含まれるか否かの情報である。
 検出部15は、判定を行う対象の階層毎に、取得部14が第一符号化データから取得した分割領域の点の情報と第二符号化データから取得した分割領域の点の情報とを比較して指標値を算出する。指標値は、第一点群データと第二点群データとの間のデータ差分の大きさ表す。検出部15は、算出した指標値に基づいて、空間における差異の有無を検出する。
 図2~図4を用いて、符号化データを説明する。本実施形態において、点群データに含まれる各点の座標値は、xyz座標における各成分の値、すなわち、x座標値、y座標値、及び、z座標値により表される。
 図2は、空間領域分割における親ブロックと子ブロックを示す図である。立方体の空間である親ブロックBを、互いに直交する3方向(x軸,y軸,z軸)のそれぞれで2等分することにより、親ブロックBから8個の立方体の子ブロックB-0~B-7が生成される。親ブロックB及び子ブロックB-0~B-nはそれぞれ、ボクセルに相当する分割空間である。
 図3は、点群データを含む空間領域の分割を示す図である。ブロックB0は、各辺が2の立方体である。演算処理の簡略化のため、点群データの座標値は相対座標系の座標値に変換される。具体的には、点群データの座標は、x,y,zの各成分の最小値が0になるように平行移動される。これにより、ブロックB0の一つの頂点の座標が(0,0,0)となる。ブロックB0のx=2、y=2、z=2の各辺は、点を含まない。
 ブロックB0を親ブロックとして図2に示す空間領域分割を行うと、8個の子ブロックであるブロックB1-0~B1-7が生成される。次に、ブロックB1-0~B1-7のうち、1個以上の点を含むブロックB1-i(iは0以上7以下の整数)を親ブロックとして図2に示す空間領域分割を行うと、8個の子ブロックであるブロックB2-i-0~B2-i-7が生成される。点を含まないブロックB1-iについては、分割は行われない。
 ブロックB2-i-0~B2-i-7のうち、1個以上の点を含むブロックB2-i-j(jは0以上7以下の整数)を親ブロックとして図2に示す空間領域分割が行われる。これにより、8個の子ブロックであるブロックB3-i-j-0~B3-i-j-7が生成される。さらに、1個以上の点を含む子ブロックを親ブロックとして空間領域分割を行う処理を、所定回繰り返す。なお、m回目(mは1以上の整数)の分割により生成された子ブロックを、m階層目のブロックと記載する。
 図4は、8分木の例を示す図である。点群データは、図3のように分割された立体空間に対応した8分木(オクツリー)により表現される。最上位のノードN0は、ブロックB0に対応する。ノードN0は、1階層目の8つのノードN1-0~N1-7と接続される。ノードN1-iは、ブロックB1-iに対応する。点を含むブロックに対応したノードを、点を含むノードと記載し、点を含まないブロックに対応したノードを、点を含まないノードと記載する。
 複数の点を含むノードN1-iは、2階層目の8つのノードN2-i-0~N2-i-7と接続される。ノードN2-i-jは、ブロックB2-i-jに対応する。点が含まれないブロックB1-iは分割されないため、そのブロックB1-iに対応したノードN1-iは、2階層目のノードとは接続されない。図4では、点が含まれないノードN1-0~N1-6は、2階層目のノードとは接続されない。また、点を含むノードN1-7は、2階層目のノードN2-7-0~N2-7-7と接続される。点が含まれないノードN2-7-0、N2-7-2~7は、3階層目のノードとは接続されない。点を含むノードN2-7-2は、3階層目の8つのノードN3-7-1-0~N3-7-1-7と接続される。
 点群データからは、上記のように分割された空間領域に対応した木構造のノードが生成される。点を含むブロックに対応したノードについては、そのブロックを親ブロックとする子ブロックのそれぞれが点を含むか否かを表したブロック値が付与される。つまり、点を含むブロックに対応したノードには、そのノードの1階層下のノードそれぞれが点を含むか否かを表したブロック値が付与される。このブロック値は、式(1)のように表される。xは、8つの子ブロックのうちk番目(kは0以上7以下の整数)の子ブロックに点が含まれているか否かを表す符号である。「1」は点を含むことを表し、「0」は点を含まないことを表す。
Figure JPOXMLDOC01-appb-M000001
 例えば、ブロックB0の子ブロックのうちブロックB1-2及びB1-7のみが点を含む場合、ブロックB0に対応したノードのブロック値は、f(0,0,1,0,0,0,0,1)=33と表される。また、あるブロックの8つの子ブロックの全てが点を含んでいる場合、ブロック値は、f(1,1,1,1,1,1,1,1)=255と表される。このようにして、各ノードに、式(1)により点の位置を0から255までの値で表したブロック値が付与される。そして、親空間(親ノード)から順に、各ブロックに対応したノードに付与されたブロック値が可変長符号化される。符号化は、例えば、図4に示す上側及び左側のノードから順に行われる。
 上記のように、点群データは、空間領域のうち点が含まれる分割空間を8分木構造で表現した木構造データに変換され、その木構造データを算術符号化して符号化データが生成される。また、符号化された情報には、相対座標系への変換の際に平行移動を行った量の情報が付加される。
 図5は、検出装置1の処理を示すフロー図である。
 検出装置1の入力部12は、符号化データA及び符号化データBを入力する(ステップS110)。符号化データAは第一符号化データであり、符号化データBは第二符号化データである。符号化データA及び符号化データBは、異なる時刻に取得されたほぼ同じ空間の点群データから切り出された同じ空間の点群データの8分木構造を示すデータである。入力部12は、符号化データA及び符号化データBを記憶部11に書き込む。
 階層指定部13は、ユーザにより指定された階層の上限N1(N1は0以上の整数)及び下限N2(N2はN1以上の整数)の情報を取得する。指定された階層は、データ差分のレベルを判定する対象である。データ差分のレベルは、指標値の一例である。階層指定部13は、入力部12により入力された階層の上限N1及び下限N2の情報を取得してもよく、記憶部11に記憶された階層の上限N1及び下限N2の情報を読み出してもよい。階層指定部13は、取得した階層の上限N1及び下限N2の情報を取得部14及び検出部15に出力する(ステップS120)。
 取得部14は、処理対象の階層nを、判定を行う対象の最上位(上限)の階層N1とする。取得部14は、符号化データAから階層n(n=N1)の各ボクセルBの8分木構造のブロック値faを取得し、符号化データBから階層N1の各ボクセルの8分木構造のブロック値fbを取得する(ステップS130)。ブロック値fa及びfbは、式(1)により表される。検出部15は、階層nの同じ位置のボクセル毎に、ブロック値faと、ブロック値fbとを比較し、データ差分のレベルを決定する(ステップS140)。ステップS140の処理の詳細は、図6を用いて後述する。
 取得部14は、判定を行う対象の次の階層があるか否かを判定する(ステップS150)。取得部14は、現在の処理対象の階層nが、ステップS120において取得された階層の下限N2に達していない場合、次の階層があると判断する(ステップS150:YES)。取得部14は、処理対象の階層nを、一つ下の階層(n+1)に更新する。取得部14は、符号化データAから階層nの各ボクセルの8分木構造のブロック値faを読み出し、符号化データBから階層nの各ボクセルの8分木構造のブロック値fbを読み込む(ステップS160)。
 ステップS150の処理の後、検出装置1は、ステップS140からの処理を繰り返す。そして、取得部14は、処理対象としている階層nが、階層の下限N2に達したと判定した場合(ステップS150:NO)、処理を終了する。
 検出部15は、各階層において算出したレベル値に基づいて、符号化データAに符号化された点群データが撮影された時刻と、符号化データBに符号化された点群データが撮影された時刻とにおいて、空間内に差異があるか否かを検出する。例えば、検出部15は、閾値以上のレベル値が得られたボクセルに対応した部分空間に差異が生じていると判定する。
 なお、元の点群データの空間領域が大きな場合、その空間領域は、符号化データが生成される単位空間に分割される。この単位空間は、図3におけるブロックB0に相当する。検出装置1は、単位空間のごとに図5の処理を行う。
 図6は、図5のステップS140における詳細な処理を示すフロー図である。検出部15は、階層nのボクセルのうち、未選択のボクセルを選択する(ステップS210)。選択されたボクセルを選択ボクセルと記載する。検出部15は、k=0~7のそれぞれについて、選択ボクセルのブロック値faのk番目の要素xの値と、選択ボクセルのブロック値fbのk番目の要素xの値とが一致しているか否かを判断する。検出部15は、一致していないと判断した要素の数に基づいてレベル値を決定する(ステップS220)。ここでは、検出部15は、一致していない要素の数をレベル値とする。検出部15は、符号化データAと符号化データBとの一方又は両方に、選択ボクセルのレベル値の情報を付加する。
 検出部15は、選択ボクセルを含む一つ上の階層(n-1)のボクセルのレベル値を読み出す。検出部15は、ステップS220において決定した選択ボクセルのレベル値と、一つ上の階層のボクセルのレベル値とを比較する(ステップS230)。取得部14は、選択ボクセルのレベル値よりも、一つ上の階層のボクセルのレベル値のほうが大きいと判断した場合(ステップS230:YES)、選択ボクセルのレベル値を、一つ上の階層のボクセルのレベル値とする(ステップS240)。検出部15は、ステップS220において符号化データAと符号化データBとの一方又は両方に付加したレベル値の情報を、一つ上の階層のボクセルのレベル値の情報に書替える。
 検出部15は、選択ボクセルのレベル値が一つ上の階層のボクセルのレベル値以上であると判断した場合(ステップS230:NO)、又は、ステップS240の処理の後、ステップS250の処理を行う。すなわち、検出部15は、階層nに未選択のボクセルがあるか否かを判断する(ステップS250)。検出部15は、未選択のボクセルがあると判断した場合(ステップS250:YES)、ステップS210からの処理を繰り返す。そして、検出部15は、全てのボクセルを選択したと判断した場合(ステップS250:NO)、処理を終了する。検出装置1は、図5のステップS150の処理を行う。
 本実施形態の検出装置1は、例えば、以下のようなケースに利用できる。保守業務の一つとして、電信柱の傾きを確認する業務がある。この業務を自動化する実施方法として、一般に次のようなものが検討されている。まず、LiDARやMMSなどにより、街中の様子を点群データとして取得する。解析装置は、取得された点群データを解析し、電信柱のデータを抽出する。解析装置は、この抽出された電信柱のデータを解析し、傾きに問題がないかを確認する。
 このときに、点群データの全てを解析して電信柱のデータを抽出しようとすると、全データ内において電信柱のデータはその一部であるにも関わらず、全データ量が膨大であるため、その抽出処理にも時間がかかると想定される。そこで、検出装置1を用いることにより、全データから過去と差分がある領域のみを切り出すことが可能となる。解析装置は、検出装置1が切り出した領域の中から必要なデータを抽出し、抽出したデータを用いて解析処理を行う。よって、解析処理にかかる負荷及び時間を軽減することが可能になると期待される。要するに、保守対象(例えば、電信柱)を含む、所定の大きさの、ほぼ同じ現実空間の領域を表現し、かつ異なる時間に得られた点群を用いて本実施形態により差異を検出することで、現実空間で保守対象に過去から変化が起こったかを推定することができる。
(第2の実施形態)
 第2の実施形態の検出装置は、第1の実施形態と同様に決定したレベルをユーザに提示する。第2の実施形態を、第1の実施形態との差分を中心に説明する。
 図7は、第2の実施形態による検出装置10の構成を示すブロック図である。検出装置10は、記憶部11と、入力部12と、階層指定部13と、取得部14と、検出部15と、出力部21、表示部22とを備える。検出装置10が、図1に示す第1の実施形態の検出装置1と異なる点は、出力部21及び表示部22をさらに備える点である。
 出力部21は、第一符号化データ又は第二符号化データから得られる情報に、検出部15が各ボクセルに付与したレベル値の情報を付加して出力する。具体的には、出力部21は、第一符号化データ又は第二符号化データが表すボクセルに、そのボクセルについて付与されたレベルを表す色を重畳して出力する。出力は、表示部22への表示でもよく、検出装置10と接続される他の装置への表示でもよく、プリンタによる印刷でもよい。
 表示部22は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示部22は、データを表示する。
 図8は、検出装置10の処理を示すフロー図である。図8において図5に示す第1の実施形態の処理と同一の処理には同じ符号を付し、その説明を省略する。検出装置10は、図5のステップS110~S160の処理を行う。
 取得部14は、処理対象としている階層nが、階層の下限N2に達したと判定した場合(ステップS150:NO)、出力部21に処理を指示する。出力部21は、符号化データA又は符号化データBが示すボクセルに、検出部15がそのボクセルに付与したレベル値に応じた色を重畳して、表示部22に表示する(ステップS310)。ユーザは、表示されたボクセルの色によってずれが大きい領域を判断可能である。ユーザは、レベルが高いことを表す色のボクセルをずれが大きな領域と判断する(ステップS320)。
 図9は、図8のステップS310において検出装置10が表示する画面の例を示す図である。これらの図は、2つの隣接する単位空間のそれぞれについて、図8の処理を行った場合の表示の例を表示している。右側の単位空間については差分が検出されなかったため、出力部21は、最上位の階層のボクセルを、差分なしを示す色により表示している。一方、出力部21は、左側の単位空間については、階層化されたボクセルに、そのボクセルのレベル値に応じた色を重畳して表示している。
 本実施形態により、空間内において経時的な変化が大きな箇所をユーザにわかりやすく提示することが可能となる。
(第3の実施形態)
 第1及び第2の実施形態においては、複数の階層を対象として各ボクセルのレベル値を決定することが可能である。第3の実施形態では、一つの階層についてのみ各ボクセルのレベル値を決定する。第3の実施形態を、上述した実施形態との差分を中心に説明する。第3の実施形態の検出装置の構成は、図7に示す第2の実施形態の検出装置10と同様である。
 図10は、第3の実施形態による検出装置10の処理を示すフロー図である。図10において、図5に示す処理、又は、図8に示す処理と同一の処理には同じ符号を付し、その詳細な説明を省略する。
 検出装置10の入力部12は、符号化データA及び符号化データBを入力する(ステップS110)。階層指定部13は、ユーザにより指定された階層Nの情報を取得する(ステップS410)。階層指定部13は、入力部12により入力された階層Nを取得してもよく、記憶部11に記憶された階層Nを読み出してもよい。
 取得部14は、符号化データAから階層Nの各ボクセルBの8分木構造のブロック値faを取得し、符号化データBから階層Nの各ボクセルの8分木構造のブロック値fbを取得する(ステップS420)。検出部15は、階層Nの同じ絶対位置のボクセル毎に、ブロック値faと、ブロック値fbとを比較し、データ差分のレベルを決定する(ステップS140)。すなわち、検出部15は、図6の処理を、階層Nについて行う。
 出力部21は、符号化データA又は符号化データBが示すボクセルに、検出部15がそのボクセルに付与したレベル値に応じた色を重畳して、表示部22に表示する(ステップS310)。ユーザは、レベルが高いことを表す色のボクセルをずれが大きな領域と判断する(ステップS320)。
 第3の実施形態によれば、ユーザが知りたいずれの大きさに応じた階層を指定することにより、第2の実施形態よりも処理の負荷を軽減して、空間内において経時的な変化が大きな箇所を特定することが可能となる。
 なお、上記においては、立方体の親ブロックを8つの立方体の子ブロックに分割しているが、親ブロック及び子ブロックは立方体でなくてもよい。例えば、親ブロックがn個の子ブロックに分割される場合、上述のように8分木構造で表現した木構造データに代えて、点が含まれる空間領域をn分木構造で表現したn分木構造データが用いられる。
 また、上記においては、符号化データAと符号化データBとが同じ空間に対応している場合を例に説明したが、符号化データAが対象とする空間と第二符号化データBが対象とする空間とにずれがあってもよい。この場合、取得部14は、符号化データAが示す8分木データと、符号化データBが示す8分木データとを、符号化データAが対象とする空間領域Aと符号化データBが対象とする空間領域Bとを含んだ空間領域Cの8分木データに変換してから、上記の処理を行う。この場合、取得部14は、空間領域Cの8分木データを生成し、生成した8分木データにおける空間領域Aに相当する箇所を、符号化データAが示す8分木データに置き換える。検出装置1、10は、この置き換えられた8分木データを上記における符号化データAとして用いる。同様に、取得部14は、空間領域Cの8分木データにおける空間領域Bに相当する箇所を、符号化データBが示す8分木データに置き換える。検出装置1、10は、この置き換えられた8分木データを、上記における符号化データBとして用いる。
 上述した実施形態における検出装置1、10の機能をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
 検出装置1、10のハードウェア構成例を説明する。図11は、検出装置1、10のハードウェア構成例を示す装置構成図である。検出装置1、10は、プロセッサ71と、記憶部72と、通信インタフェース73と、ユーザインタフェース74とを備える。
 プロセッサ71は、演算や制御を行う中央演算装置である。プロセッサ71は、例えば、CPUである。プロセッサ71は、記憶部72からプログラムを読み出して実行する。検出装置1、10の機能の一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。記憶部72は、さらに、プロセッサ71が各種プログラムを実行する際のワークエリアなどを有する。通信インタフェース73は、他装置と通信可能に接続するものである。ユーザインタフェース74は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の入力装置や、ディスプレイなどの表示装置である。ユーザインタフェース74により、人為的な操作が入力される。例えば、ユーザインタフェース74により、上限の階層の情報及び下限の階層の情報が入力される。
 検出装置1、10のそれぞれを、ネットワークに接続される複数のコンピュータ装置により実現してもよい。この場合、検出装置1、10の各機能部を、これら複数のコンピュータ装置のいずれにより実現するかは任意とすることができる。また、同一の機能部を複数のコンピュータ装置により実現してもよい。
 上述した実施形態によれば、検出装置は、取得部と、検出部とを備える。取得部は、第一点群データを複数の階層からなる木構造の点の情報に符号化した第一符号化データと、第一点群データとほぼ同じ空間について異なる時刻に取得された第二点群データを複数の階層からなる木構造の点の情報に符号化した第二符号化データとのそれぞれから、所定の階層における点の情報を取得する。検出部は、取得部が取得した情報に基づいて所定の階層における第一符号化データと第二符号化データとの間のデータ差分の大きさ表す指標値を算出し、算出した指標値に基づいて空間における差異の有無を検出する。
 検出部は、所定の階層のボクセルごとに指標値を算出してもよい。検出部は、ボクセルの指標値を、当該ボクセルの一つ下の階層の第一符号化データと、当該ボクセルの一つ下の階層の第二符号化データとの差異に基づいて算出してもよい。
 また、検出部は、所定の範囲の階層のボクセルについて指標値を算出してもよい。検出部は、あるボクセルについて算出した指標値が、そのボクセルを含む一つ上の階層のボクセルの指標値よりも小さいデータ差分を表す場合、そのボクセルの指標値を、一つ上の階層のボクセルの指標値に変更する。
 また、検出装置は、出力部をさらに備えてもよい。出力部は、第一符号化データ又は第二符号化データが示すボクセルに、そのボクセルについて算出された指標値に応じた色を重畳して表示部に表示する。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこれら実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…検出装置、10…検出装置、11…記憶部、12…入力部、13…階層指定部、14…取得部、15…検出部、21…出力部、22…表示部、71…プロセッサ、72…記憶部、73…通信インタフェース、74…ユーザインタフェース

Claims (7)

  1.  第一点群データを複数の階層からなる木構造の点の情報に符号化した第一符号化データと、前記第一点群データとほぼ同じ空間について異なる時刻に取得された第二点群データを複数の階層からなる木構造の点の情報に符号化した第二符号化データとのそれぞれから、所定の階層における点の情報を取得する取得ステップと、
     前記取得ステップにおいて取得した情報に基づいて前記所定の階層における前記第一符号化データと前記第二符号化データとの間のデータ差分の大きさ表す指標値を算出し、算出した前記指標値に基づいて前記空間における差異の有無を検出する検出ステップと、
     を有する検出方法。
  2.  前記検出ステップにおいては、前記所定の階層のボクセルごとに前記指標値を算出する、
     請求項1に記載の検出方法。
  3.  前記検出ステップにおいては、前記ボクセルの前記指標値を、当該ボクセルの一つ下の階層の前記第一符号化データと、当該ボクセルの一つ下の階層の前記第二符号化データとの差異に基づいて算出する、
     請求項2に記載の検出方法。
  4.  前記検出ステップにおいては、所定の範囲の階層のボクセルについて前記指標値を算出し、前記ボクセルの前記指標値が当該ボクセルを含む一つ上の階層のボクセルの指標値よりも小さいデータ差分を表す場合、前記ボクセルの前記指標値を、一つ上の階層の前記ボクセルの指標値に変更する、
     請求項3に記載の検出方法。
  5.  前記第一符号化データ又は前記第二符号化データが示すボクセルに、前記ボクセルについて算出された前記指標値に応じた色を重畳して表示する表示ステップをさらに有する、
     請求項2から請求項4のいずれか一項に記載の検出方法。
  6.  第一点群データを複数の階層からなる木構造の点の情報に符号化した第一符号化データと、前記第一点群データとほぼ同じ空間について異なる時刻に取得された第二点群データを複数の階層からなる木構造の点の情報に符号化した第二符号化データとのそれぞれから、所定の階層における点の情報を取得する取得部と、
     前記取得部が取得した情報に基づいて前記所定の階層における前記第一符号化データと前記第二符号化データとの間のデータ差分の大きさ表す指標値を算出し、算出した前記指標値に基づいて前記空間における差異の有無を検出する検出部と、
     を備える検出装置。
  7.  コンピュータに、
     請求項1から請求項5のいずれか一項に記載の検出方法を実行させるためのプログラム。
PCT/JP2020/041293 2020-11-05 2020-11-05 検出方法、検出装置及びプログラム WO2022097219A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022560554A JP7381973B2 (ja) 2020-11-05 2020-11-05 検出方法、検出装置及びプログラム
PCT/JP2020/041293 WO2022097219A1 (ja) 2020-11-05 2020-11-05 検出方法、検出装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/041293 WO2022097219A1 (ja) 2020-11-05 2020-11-05 検出方法、検出装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2022097219A1 true WO2022097219A1 (ja) 2022-05-12

Family

ID=81457008

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/041293 WO2022097219A1 (ja) 2020-11-05 2020-11-05 検出方法、検出装置及びプログラム

Country Status (2)

Country Link
JP (1) JP7381973B2 (ja)
WO (1) WO2022097219A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108303037A (zh) * 2018-01-31 2018-07-20 广东工业大学 一种基于点云分析的工件表面形状差异的检测方法及装置
WO2019103009A1 (ja) * 2017-11-22 2019-05-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019103009A1 (ja) * 2017-11-22 2019-05-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 三次元データ符号化方法、三次元データ復号方法、三次元データ符号化装置、及び三次元データ復号装置
CN108303037A (zh) * 2018-01-31 2018-07-20 广东工业大学 一种基于点云分析的工件表面形状差异的检测方法及装置

Also Published As

Publication number Publication date
JPWO2022097219A1 (ja) 2022-05-12
JP7381973B2 (ja) 2023-11-16

Similar Documents

Publication Publication Date Title
CN110135455B (zh) 影像匹配方法、装置及计算机可读存储介质
CN107230251B (zh) 创建3d城市模型的方法和混合3d成像装置及存储介质
US10268917B2 (en) Pre-segment point cloud data to run real-time shape extraction faster
KR101662972B1 (ko) 단일 이미지로부터 깊이를 추정하기
US9275277B2 (en) Using a combination of 2D and 3D image data to determine hand features information
Neubert et al. Evaluation of remote sensing image segmentation quality–further results and concepts
JP6635648B2 (ja) 医用画像処理装置、医用画像処理方法及び分類器トレーニング方法
KR20180004109A (ko) 모바일 디바이스 현지화를 위한 영역 서술 파일의 크라우드-소싱 생성 및 업데이트
EP3326156B1 (en) Consistent tessellation via topology-aware surface tracking
CN111739167B (zh) 3d人头重建方法、装置、设备和介质
CN111323788B (zh) 建筑物变化的监测方法、装置及计算机设备
EP2380142A1 (en) Geospatial modeling system for 3d clutter data and related methods
CN112487979A (zh) 目标检测方法和模型训练方法、装置、电子设备和介质
Condorelli et al. A comparison between 3D reconstruction using nerf neural networks and mvs algorithms on cultural heritage images
CN114549338A (zh) 一种电子地图的生成方法、装置和计算机可读存储介质
CN115330940A (zh) 一种三维重建方法、装置、设备和介质
CN112232315A (zh) 文本框检测方法、装置、电子设备和计算机存储介质
KR102025113B1 (ko) LiDAR를 이용한 이미지 생성 방법 및 이를 위한 장치
CN108986210B (zh) 三维场景重建的方法和设备
KR101039298B1 (ko) 다수의 특징점 기반 마커를 인식하기 위한 순차 검색 방법 및 이를 이용한 증강현실 구현 방법
CN111583417B (zh) 一种图像语义和场景几何联合约束的室内vr场景构建的方法、装置、电子设备和介质
WO2022097219A1 (ja) 検出方法、検出装置及びプログラム
CN116912817A (zh) 三维场景模型拆分方法、装置、电子设备和存储介质
Bonaventura et al. Information measures for terrain visualization
WO2021240766A1 (ja) ノイズ判定方法、ノイズ判定装置及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20960772

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022560554

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20960772

Country of ref document: EP

Kind code of ref document: A1