JP2019219248A - Point group processor, method for processing point group, and program - Google Patents
Point group processor, method for processing point group, and program Download PDFInfo
- Publication number
- JP2019219248A JP2019219248A JP2018116202A JP2018116202A JP2019219248A JP 2019219248 A JP2019219248 A JP 2019219248A JP 2018116202 A JP2018116202 A JP 2018116202A JP 2018116202 A JP2018116202 A JP 2018116202A JP 2019219248 A JP2019219248 A JP 2019219248A
- Authority
- JP
- Japan
- Prior art keywords
- background
- point group
- point
- point cloud
- integrated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 69
- 238000000034 method Methods 0.000 title description 21
- 230000010354 integration Effects 0.000 claims abstract description 46
- 238000000605 extraction Methods 0.000 claims abstract description 27
- 238000001514 detection method Methods 0.000 claims description 34
- 239000000284 extract Substances 0.000 claims description 20
- 238000003672 processing method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、点群処理装置、点群処理方法およびプログラムに関する。 The present invention relates to a point cloud processing device, a point cloud processing method, and a program.
近年、実空間の3次元計測および計測データの3次元モデル化の需要が高まっている。実空間の3次元計測および計測データの3次元モデル化を実現する方法には、例えばLIDAR(Laser Imaging Detection and Ranging)のように、アクティブ光(近赤外光)に対する反応を検知する3次元レーザーセンサを利用する方法が挙げられる。 In recent years, demands for three-dimensional measurement of real space and three-dimensional modeling of measurement data have been increasing. A method of realizing three-dimensional measurement of a real space and three-dimensional modeling of measurement data includes, for example, a three-dimensional laser that detects a response to active light (near infrared light), such as LIDAR (Laser Imaging Detection and Ranging). There is a method using a sensor.
3次元計測に関し、特許文献1には、LIDARを用いて得られた点群において点密度が希薄な領域に対して、画像センサから得られた情報を処理して生成した新たな点群を追加することで、点群の高解像度化を行う技術が開示されている。また、赤外線ドットによりデプスマップを得る方法では、赤外線を十分に反射しない領域がデプスマップにおける欠損領域になる。この点に関し、特許文献2には、RGBの色情報を持つ画像を用いて欠損領域を補間する方法が開示されている。なお、当該デプスマップは点群の生成に用いられることがある。 Regarding three-dimensional measurement, Patent Literature 1 adds a new point cloud generated by processing information obtained from an image sensor for an area having a low point density in a point cloud obtained using LIDAR. Thus, a technique for increasing the resolution of a point cloud has been disclosed. In the method of obtaining a depth map from infrared dots, a region that does not sufficiently reflect infrared light is a defective region in the depth map. In this regard, Patent Literature 2 discloses a method of interpolating a defective area using an image having RGB color information. The depth map may be used for generating a point cloud.
特許文献1および特許文献2に記載の技術によれば、ある時点での実空間を表現する点群またはデプスマップを得ることができる。しかし、特許文献1および特許文献2には、実空間の床または壁などの背景領域に属する背景点群を全体の点群から抽出する技術は開示されていない。ある時点での測定により得られた全体の点群から背景点群を抽出する技術があったとしても、一部の背景領域が物体に隠れている場合、背景点群の一部が欠損してしまう。 According to the techniques described in Patent Literature 1 and Patent Literature 2, a point cloud or a depth map expressing a real space at a certain point in time can be obtained. However, Patent Literature 1 and Patent Literature 2 do not disclose a technique for extracting a background point group belonging to a background area such as a floor or a wall in a real space from the entire point group. Even if there is a technology to extract the background point cloud from the whole point cloud obtained by measurement at a certain point in time, if some background area is hidden by the object, part of the background point cloud is missing I will.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、実空間の背景領域に属する背景点群をより高精度に得ることが可能な、新規かつ改良された点群処理装置、点群処理方法およびプログラムを提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved technique capable of obtaining a background point group belonging to a background area of a real space with higher accuracy. The present invention provides a point cloud processing apparatus, a point cloud processing method, and a program.
上記課題を解決するために、本発明のある観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備える、点群処理装置が提供される。 In order to solve the above-described problems, according to an aspect of the present invention, a three-dimensional point group corresponding to each timing obtained by measuring a real space with the LIDAR from the same point at each of a plurality of timings. A background extraction unit that extracts a background point group that is a point group belonging to a background area, and integrating by integrating at least a part of each background point group extracted from the point group corresponding to each of the plurality of timings. And a background integration unit for generating a background point cloud.
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新してもよい。 The background integration unit extracts a new partial point group from the new background point group extracted by the background extraction unit, and by repeatedly integrating the new partial point group with the integrated background point group, The integrated background point cloud may be updated repeatedly.
前記背景統合部は、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除してもよい。 The background integration unit may delete some of the points constituting the integrated background point group when the number of points constituting the integrated background point group exceeds an upper limit.
前記統合背景点群を構成する一部の点は、前記統合背景点群を構成するランダムな点であってもよい。 Some of the points forming the integrated background point group may be random points forming the integrated background point group.
前記背景統合部は、前記新たな背景点群からランダムに前記新たな部分点群を抽出してもよい。 The background integration unit may randomly extract the new partial point group from the new background point group.
前記背景統合部は、複数の前記新たな背景点群の各々で異なる範囲内からランダムに前記新たな部分点群を抽出してもよい。 The background integration unit may randomly extract the new partial point group from a different range for each of the plurality of new background point groups.
前記点群処理装置は、ある点群と前記統合背景点群の差分を計算することにより、物体が存在する領域を検出する物体検出部をさらに備えてもよい。 The point cloud processing device may further include an object detection unit that detects a region where an object is present by calculating a difference between a certain point cloud and the integrated background point cloud.
前記物体検出部は、第1のタイミングに対応する点群と、前記第1のタイミングより前の第2のタイミングに対応する点群から抽出された部分点群の統合により得られた統合背景点群との差分を計算することにより、物体が存在する領域を検出してもよい。 The object detection unit is configured to obtain an integrated background point obtained by integrating a point group corresponding to a first timing and a partial point group extracted from a point group corresponding to a second timing before the first timing. The area where the object exists may be detected by calculating the difference from the group.
前記背景領域は、床面領域および壁面領域の少なくともいずれかを含んでもよい。 The background area may include at least one of a floor area and a wall area.
また、上記課題を解決するために、本発明の別の観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出することと、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、を含む、点群処理方法が提供される。 According to another aspect of the present invention, there is provided a three-dimensional image corresponding to each timing, which is obtained by measuring a real space with the LIDAR from the same point at each of a plurality of timings. From the point group, extracting a background point group that is a point group belonging to a background area, and integrating at least a part of each background point group extracted from the point group corresponding to each of the plurality of timings, Generating an integrated background point cloud.
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、として機能させるための、プログラムが提供される。 According to another embodiment of the present invention, there is provided a computer configured to measure a real space by using a LIDAR from the same point at each of a plurality of timings. A background extraction unit that extracts, from the three-dimensional point group, a background point group that is a point group belonging to a background area; By integration, a program for functioning as a background integration unit that generates an integrated background point cloud is provided.
以上説明した本発明によれば、実空間の背景領域に属する背景点群をより高精度に得ることが可能である。 According to the present invention described above, it is possible to obtain a background point group belonging to a background area in a real space with higher accuracy.
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the specification and the drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。 Further, in this specification and the drawings, a plurality of components having substantially the same function and configuration may be distinguished from each other by adding different alphabets after the same reference numeral. However, unless it is necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, each of the plurality of constituent elements is given only the same reference numeral.
<点群処理システムの概要>
本発明の実施形態は、LIDAR(Laser Imaging Detection and Ranging)による実空間の測定により得られた点群を処理することで実空間に存在する物体を検出する点群処理システムに関する。本発明の実施形態の詳細な説明に先立ち、本発明の実施形態による点群処理システムの概要を説明する。
<Overview of point cloud processing system>
The embodiment of the present invention relates to a point cloud processing system that detects an object existing in a real space by processing a point cloud obtained by measuring a real space by LIDAR (Laser Imaging Detection and Ranging). Prior to a detailed description of an embodiment of the present invention, an outline of a point cloud processing system according to an embodiment of the present invention will be described.
図1は、本発明の実施形態による点群処理システムを示す説明図である。図1に示したように、本発明の実施形態による点群処理システムは、LIDAR100および点群処理装置200を有する。LIDAR100と点群処理装置200は、有線で接続されてもよいし、無線で接続されてもよいし、ネットワークを介して接続されてもよい。
FIG. 1 is an explanatory diagram showing a point cloud processing system according to an embodiment of the present invention. As shown in FIG. 1, the point cloud processing system according to the embodiment of the present invention includes a LIDAR 100 and a point
(LIDAR)
LIDAR100は、実空間の3次元環境を測定する測定装置である。LIDAR100は、例えば図1に示したように三脚110により支持されることである地点に設置される。LIDAR100は、設置された同一地点から複数フレームに亘ってレーザーを用いた測定を繰り返し、各フレームの3次元の点群を得る。LIDAR100は、測定により得た点群を点群処理装置200に出力する。
(LIDAR)
The LIDAR 100 is a measuring device that measures a three-dimensional environment in a real space. The LIDAR 100 is installed at a point to be supported by a
なお、LIDAR100に設けられるレーザー送受信センサの数、レーザーの走査方式および測定可能範囲は特に限定されない。例えば、レーザー送受信センサの数は、8個、16個、32個、64個または128個などであってもよい。また、レーザーの走査方式は、水平方向に沿ってレーザーの向きを変化させる方式であってもよいし、垂直方向に沿ってレーザーの向きを変化させる方式であってもよい。また、測定可能範囲は、水平視野において120°または全方位などであり、垂直視野角において20°、30°または40°などであってもよい。 The number of laser transmission / reception sensors provided in the LIDAR 100, the laser scanning method, and the measurable range are not particularly limited. For example, the number of laser transmission / reception sensors may be 8, 16, 32, 64, 128, or the like. The laser scanning method may be a method of changing the direction of the laser along the horizontal direction or a method of changing the direction of the laser along the vertical direction. Further, the measurable range is 120 ° or all directions in a horizontal field of view, and may be 20 °, 30 ° or 40 ° in a vertical field of view.
(点群処理装置)
点群処理装置200は、LIDAR100から入力される点群に基づき、実空間で物体が存在する物体領域を検出する。物体領域の検出は、LIDAR100から入力される点群から、背景領域(床および壁などの固定物)に属する点群を分離(セグメンテーション)することにより実現され得る。このため、点群処理装置200は、LIDAR100から入力される点群から背景領域に属する点群である背景点群を抽出する機能も有する。なお、点群処理装置200が検出対象とする物体は特に限定されず、例えば、点群処理装置200は人または車両などの動物体を検出対象としてもよい。ここで、図2および図3を参照し、点群処理装置200による背景点群の抽出の具体例を説明する。
(Point cloud processing device)
The point
図2は、実空間の具体例を示す説明図である。図2に示した実空間は、床面Fおよび壁面Wで囲まれる空間であり、床面Fには物体Oが存在する。なお、本明細書においては、XY平面が床面Fに水平な面であり、XZ平面またはYZ平面が壁面Wに水平な面となるようにLIDAR100が設置されたものとする。
FIG. 2 is an explanatory diagram showing a specific example of the real space. The real space shown in FIG. 2 is a space surrounded by a floor surface F and a wall surface W, and an object O exists on the floor surface F. In this specification, it is assumed that the
図3は、図2に示した実空間の点群から抽出された背景点群を示す説明図である。図3に示したように、背景点群は、床面Fおよび壁面Wにおいて物体Oに遮蔽された部分以外の領域に散在する。なお、図3は背景点群を簡易的に示しているに過ぎず、実際には、より多くの点からなる背景点群が得られてもよいし、円弧状に点が分布してもよい。 FIG. 3 is an explanatory diagram illustrating a background point group extracted from the point group in the real space illustrated in FIG. 2. As shown in FIG. 3, the background point group is scattered in the floor surface F and the wall surface W in a region other than the portion shielded by the object O. Note that FIG. 3 merely shows the background point group simply. In practice, a background point group including more points may be obtained, or points may be distributed in an arc shape. .
(課題の整理)
上記の物体検出は、不足の無い背景点群を用いることにより、正確に行うことが可能である。一方、図3に示したように、物体Оに遮蔽された部分の点群が欠損している背景点群では、背景領域として扱われるべき点群の一部が物体として検出される恐れがある。
(Organization of issues)
The object detection described above can be accurately performed by using a background point group having no shortage. On the other hand, as shown in FIG. 3, in the background point group in which the point group of the portion shielded by the object し is missing, a part of the point group to be treated as the background area may be detected as the object. .
そこで、本件発明者は上記事情を着眼点にして本発明の実施形態を創作するに至った。本発明の実施形態による点群処理装置200は、実空間の背景領域に属する背景点群をより高精度に得ることが可能である。以下、このような本発明の実施形態による点群処理装置200の構成および動作を順次詳細に説明する。
Thus, the present inventor has come up with an embodiment of the present invention with the above circumstances in mind. The point
<点群処理装置の構成>
図4は、本発明の実施形態による点群処理装置200の構成を示す説明図である。図4に示したように、本発明の実施形態による点群処理装置200は、点群記憶部220、背景抽出部230、背景点群記憶部240、背景統合部250、物体検出部260、表示制御部270および表示部280を有する。
<Configuration of point cloud processing device>
FIG. 4 is an explanatory diagram showing the configuration of the point
(点群記憶部)
点群記憶部220は、LIDAR100から入力された各フレームの点群を記憶する。当該点群には、背景領域に属する背景点群、および物体領域に属する物体点群が区別されずに混在していることが想定される。LIDAR100から入力された点群を以下では点群Poと称する場合がある。
(Point cloud storage unit)
The point
(背景抽出部)
背景抽出部230は、点群記憶部220に記憶された点群Poから背景領域に属する背景点群を抽出する。背景領域には例えば床面および壁面が該当し、背景点群には、図3に示したように、床面に属する床面点群Pofおよび壁面に属する壁面点群Powが含まれ得る。床面は、XY平面と水平な点群Poにおいて最も巨大な平面であり、壁面はXZ平面またはYZ平面と水平な点群Poにおいて最も巨大な平面であると推定される。このため、背景抽出部230は、RANSAC(Random Sampling Consensus)を実行することにより床面点群Pofおよび壁面点群Powを得る。以下、平面形状を構成する点群のRANSACによる点群の推定手順を説明した後に、RANSACにより床面点群Pofおよび壁面点群Powを得る具体的な方法を説明する。
(Background extraction unit)
The
点群Poに対して3つのパラメータを用いてRANSACを実行することにより、平面形状を構成する点群P_planeが出力される。3つのパラメータには、推定したい平面形状の法線方向vpl、平面を構成する点群と平面との距離の誤差しきい値dist_pl、平面を構成する点群と平面との角度の誤差しきい値angle_plが該当する。これらパラメータは人的に設定され得る。上記を要すると、点群P_planeは以下のように表現される。
P_plane:=RANSAC(Po,vpl,dist_pl,angle_pl)
By executing RANSAC on the point group Po using three parameters, a point group P_plane forming a planar shape is output. The three parameters include a normal direction vpl of the plane shape to be estimated, an error threshold value dist_pl of a distance between a point group forming the plane and the plane, and an error threshold value of an angle between the point group forming the plane and the plane. angle_pl corresponds to this. These parameters can be set manually. In summary, the point group P_plane is expressed as follows.
P_plane: = RANSAC (Po, vpl, dist_pl, angle_pl)
そして、背景抽出部230は、上述したvplにZ軸方向を適用することにより、床面点群Pofを得ることができる。当該床面点群Pofを得る処理は、以下のように表現される。
Pof:=RANSAC(Po,Z,dist_pl,angle_pl)
Then, the
Pof: = RANSAC (Po, Z, dist_pl, angle_pl)
さらに、背景抽出部230は、上述したvplにY軸方向を適用することにより、XZ平面と水平な壁面に属する壁面点群Pow_Yを得ることができる。また、背景抽出部230は、上述したvplにX軸方向を適用することにより、YZ平面と水平な壁面に属する壁面点群Pow_Xを得ることができる。これら壁面点群Pow_Yおよび壁面点群Pow_Xが組み合わされた点群が壁面点群Powである。当該壁面点群Powを得る処理は、以下のように表現される。
Pow_Y:=RANSAC(Po,Y,dist_pl,angle_pl)
Pow_X:=RANSAC(Po,X,dist_pl,angle_pl)
Pow:= Pow_Y+Pow_X
Furthermore, the
Pow_Y: = RANSAC (Po, Y, dist_pl, angle_pl)
Pow_X: = RANSAC (Po, X, dist_pl, angle_pl)
Pow: = Pow_Y + Pow_X
(背景点群記憶部)
背景点群記憶部240は、背景点群を記憶する。具体的には、上述した処理により背景抽出部230により抽出された床面点群Pofおよび壁面点群Powが1フレーム目の点群Poから抽出された点群である場合、背景点群記憶部240は、これら床面点群Pofおよび壁面点群Powを初期背景点群として記憶する。また、背景点群記憶部240は、後述する背景統合部250により得られる統合背景点群を記憶する。
(Background point cloud storage unit)
The background point
(背景統合部)
背景統合部250は、背景点群記憶部240に記憶された初期背景点群と、新たなフレームから抽出された背景点群(床面点群Pofおよび壁面点群Pow)の部分点群Piを統合することにより、統合背景点群Pbを生成する。また、背景統合部250は、既に統合背景点群Pbが背景点群記憶部240に記憶されている場合には、当該統合背景点群Pbと新たなフレームから抽出された背景点群の部分点群Piを統合することにより、統合背景点群Pbを更新する。
(Background Integration Department)
The background integration unit 250 compares the initial background point group stored in the background point
ここで、新たなフレームから抽出された床面点群Pofおよび壁面点群Powの部分点群Piは、床面点群Pofおよび壁面点群Powからランダムに抽出された点群であってもよいし、ユーザにより指定されたルールに従って抽出された点群であってもよい。このような当該部分点群Piを背景統合部250が抽出する処理は以下のように表現される。Pi_sizeは部分点群Piに含まれる点の数であり、ユーザにより与えられるパラメータである。Pi_sizeの数は、例えば、新たなフレームから抽出された床面点群Pofおよび壁面点群Powの点の数の0.3%〜1.0%であってもよい。
Pi:=Extract_pi(Pow+Pof,random or user rule,Pi_size)
Here, the partial point group Pi of the floor surface point group Pof and the wall surface point group Pow extracted from the new frame may be a point group randomly extracted from the floor surface point group Pof and the wall surface point group Pow. Alternatively, it may be a point cloud extracted according to a rule specified by the user. The process in which the background integration unit 250 extracts such a partial point group Pi is expressed as follows. Pi_size is the number of points included in the partial point group Pi, and is a parameter given by the user. The number of Pi_size may be, for example, 0.3% to 1.0% of the number of points of the floor point group Pof and the wall point group Pow extracted from the new frame.
Pi: = Extract_pi (Pow + Pof, random or user rule, Pi_size)
そして、背景統合部250は、初期背景点群または統合背景点群Pbに上述した部分点群Piを追加することで、統合背景点群Pbを生成または更新する。当該処理は以下のように表現される。
Pb:=Pb+Pi
Then, the background integration unit 250 generates or updates the integrated background point group Pb by adding the above-described partial point group Pi to the initial background point group or the integrated background point group Pb. This processing is expressed as follows.
Pb: = Pb + Pi
上述した部分点群Piの抽出、および統合背景点群Pbの生成について、図5および図6を参照してより具体的に説明する。 The extraction of the partial point group Pi and the generation of the integrated background point group Pb will be described more specifically with reference to FIGS.
図5は、部分点群Piの抽出の具体例を示す説明図である。図5には、図3に示したフレームの次のフレームで背景抽出部230により抽出された床面点群Pofおよび壁面点群Powが示されている。図3と図5を比較すると、物体Oが移動しており、物体Oに遮蔽されて点群が欠損している位置が異なる。
FIG. 5 is an explanatory diagram showing a specific example of extraction of the partial point group Pi. FIG. 5 illustrates a floor point group Pof and a wall point group Pow extracted by the
背景統合部250は、図5に示した床面点群Pofおよび壁面点群Powから、図5において太線で示した例えば6つの部分点群Piを抽出する。そして、背景統合部250は、図3に示した初期背景点群に部分点群Piを追加することにより、図6に示した統合背景点群Pbを生成する。図6に示した統合背景点群Pbでは、図3において物体Oにより遮蔽されて点群が欠損していた位置に点群が追加されている。このような部分点群Piの追加を複数フレームに亘って繰り返して統合背景点群Pbを更新することにより、統合背景点群Pbの精度を向上していくことが可能である。 The background integration unit 250 extracts, for example, six partial point groups Pi indicated by thick lines in FIG. 5 from the floor surface point group Pof and the wall surface point group Pow illustrated in FIG. Then, the background integration unit 250 generates the integrated background point group Pb shown in FIG. 6 by adding the partial point group Pi to the initial background point group shown in FIG. In the integrated background point group Pb illustrated in FIG. 6, a point group is added at a position where the point group is missing due to being blocked by the object O in FIG. By repeating such addition of the partial point group Pi over a plurality of frames to update the integrated background point group Pb, it is possible to improve the accuracy of the integrated background point group Pb.
ただし、部分点群Piの追加が繰り返されていくと、統合背景点群Pbの点数が増加し過ぎて、記憶領域および計算資源が圧迫されてしまう。そこで、統合背景点群Pbの点数の上限値として最大点数Npbmaxを設定し、背景統合部250は、統合背景点群Pbの点数と最大点数Npbmaxの関係に応じて統合背景点群Pbに関する処理を実行してもよい。 However, when the addition of the partial point group Pi is repeated, the score of the integrated background point group Pb increases too much, and the storage area and the computational resources are squeezed. Therefore, the maximum number of points Npbmax is set as the upper limit of the number of points of the integrated background point group Pb, and the background integration unit 250 performs processing on the integrated background point group Pb according to the relationship between the number of points of the integrated background point group Pb and the maximum number of points Npbmax. May be performed.
具体的には、統合背景点群Pbの点数が最大点数Npbmax未満である場合、背景統合部250は、統合背景点群Pbに部分点群Piを追加することにより統合背景点群Pbを更新する。 Specifically, when the score of the integrated background point group Pb is less than the maximum score Npbmax, the background integration unit 250 updates the integrated background point group Pb by adding the partial point group Pi to the integrated background point group Pb. .
一方、統合背景点群Pbの点数が最大点数Npbmax以上である場合、背景統合部250は、統合背景点群Pbから部分点群Piと同数の点P_dをランダムに消去する。そして、背景統合部250は、点Pb_dの消去後の統合背景点群Pbに対して部分点群Piを追加することにより統合背景点群Pbを更新する。 On the other hand, when the number of points of the integrated background point group Pb is equal to or larger than the maximum number of points Npbmax, the background integration unit 250 randomly deletes the same number of points P_d as the partial point group Pi from the integrated background point group Pb. Then, the background integration unit 250 updates the integrated background point group Pb by adding the partial point group Pi to the integrated background point group Pb after the elimination of the point Pb_d.
上記の処理は、以下のように整理される。
Pb:=Pb+Pi(最大点数Npbmax>Pbの点数である場合)
Pb:=Pb−Pb_d+Pi(最大点数Npbmax≦Pbの点数である場合)
The above processing is organized as follows.
Pb: = Pb + Pi (when the maximum score is Npbmax> Pb)
Pb: = Pb−Pb_d + Pi (when the maximum score is Npbmax ≦ Pb)
(物体検出部)
物体検出部260は、点群Poおよび統合背景点群Pbを用いて、物体が存在する領域(物体領域)を検出する。そのために、物体検出部260は、点群Poおよび統合背景点群Pbの差分を計算する。当該差分を高速に計算するために、物体検出部260は、点群Poおよび統合背景点群PbをOctree構造に変換してOct_PoおよびOct_Pbを得る。そして、物体検出部260は、Oct_PoとOct_Pbの差分の点群情報Diff_Po_Pbを得る。さらに、物体検出部260は、Diff_Po_Pbを点群Poに適用することで、点群Poおよび統合背景点群Pbの差分である差分点群Pdを得る。
(Object detection unit)
The
上述した差分点群Pdを得るための処理は以下のように表現される。
Oct_Po:=Octree(Po)
Oct_Pb:=Octree(Pb)
Diff_Po_Pb:=Octdiff(Oct_Po,Oct_Pb)
Pd:=Octindice(Po,Diff_Po_Pb)
The process for obtaining the difference point group Pd described above is expressed as follows.
Oct_Po: = Octree (Po)
Oct_Pb: = Octree (Pb)
Diff_Po_Pb: = Octdiff (Oct_Po, Oct_Pb)
Pd: = Octindice (Po, Diff_Po_Pb)
そして、物体検出部260は、差分点群Pdに対してクラスタリングを行うことにより物体領域Region_dを得る。具体的には、物体検出部260は、まずクラスタリングを行うために差分点群PdをKdtree構造に変換して、Kd_Pdを得る。そして、物体検出部260は、Kd_Pd、各クラスタ間の許容距離dist_c、最小のクラスタ点群点数Ncmin、および最大のクラスタ点群点数Ncmaxを用いてクラスタリングを行い、物体を構成する点群のクラスタPcを得る。当該クラスタリングによって、0個から複数個のPcが得られる。なお、dist_c、NcminおよびNcmaxはユーザにより指定されるパラメータであってもよい。
Then, the
さらに、物体検出部260は、Pc群から物体が存在する物体領域Region_dを計算する。Region_dはリスト構造になっており、各要素には各Pcの点群数、クラスタの最大・最小座標、クラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、物体の種類などが格納される。物体検出部260は、Pcの点群を探索することで、点群数とクラスタの座標を計算し、点群数およびクラスタの座標からクラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、および物体の種類などを計算可能である。
Further, the
上述したクラスタリングから物体領域Region_dの検出までの処理は以下のように表現される。なお、KdtreeはKdtree構造に引数を変換する関数であり、Clusteringは点群中の物体を構成するクラスタ群を出力する関数であり、Region_fは各クラスタの点群数、クラスタの最大・最小座標、クラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、および物体の種類を含む構造体のリストを出力する関数である。
Kd_Pd:=Kdtree(Pd)
Pc:=Clustering(Kd_Pd,dist_c,Ncmin,Ncmax)
Region_d:=Region_f(Pc)
The processing from the above-described clustering to detection of the object region Region_d is expressed as follows. Kdtree is a function for converting an argument into a Kdtree structure, Clustering is a function for outputting a cluster group constituting an object in a point group, Region_f is the number of point groups of each cluster, maximum / minimum coordinates of the cluster, This function outputs a list of structures including the cluster size, the center of gravity of the cluster, the distance from the cluster to the
Kd_Pd: = Kdtree (Pd)
Pc: = Clustering (Kd_Pd, dist_c, Ncmin, Ncmax)
Region_d: = Region_f (Pc)
(表示制御部)
表示制御部270は、点群記憶部220から読み出した点群Poと物体領域Region_dを用いて、点群Poにおける物体の検出結果を示す検出結果画面を生成する。検出結果画面の生成方法は、点群Poを配置すること、Region_dより得られるクラスタの最大・最小座標を用いたクラスタの領域(立方体)を配置すること、および、最大・最小座標を用いることで立方体の各頂点を計算し、立方体の辺となるように各立方体の頂点間で線を描画すること、をRegion_dに存在する各物体に対して行うこと、を含む。
(Display control unit)
The
(表示部)
表示部280は、表示制御部270により生成された検出結果画面を表示する。これにより、点群Poに存在する全ての物体領域が可視化される。
(Display)
<点群処理装置の動作>
以上、本発明の実施形態による点群処理装置200の構成を説明した。続いて、図7を参照し、本発明の実施形態による点群処理装置200の動作を説明する。
<Operation of point cloud processing device>
The configuration of the point
図7は、本発明の実施形態による点群処理装置200の動作を示すフローチャートである。図7に示したように、まず、点群記憶部220はLIDAR100から入力された1フレーム目の点群Poを記憶する(S304)。
FIG. 7 is a flowchart showing the operation of the point
そして、背景抽出部230は、点群記憶部220に記憶された点群Poから背景領域に属する背景点群(床面点群Pofおよび壁面点群Pow)を抽出する(S308)。背景点群記憶部240は、背景抽出部230により抽出された背景点群を初期背景点群として記憶する(S312)。
Then, the
その後、LIDAR100から新たなフレームの点群Poが入力されると、点群記憶部220は当該新たなフレームの点群Poを記憶する(S316)。続いて、背景抽出部230が新たなフレームの点群Poから背景点群を抽出し(S320)、背景統合部250が、当該背景点群から部分点群Piを抽出する(S324)。
Thereafter, when the point group Po of the new frame is input from the
ここで、背景点群記憶部240に統合背景点群Pbが記憶されている場合、背景統合部250は、統合背景点群Pbの点数が最大点数Npbmax以上であるか否かを判断する(S328)。統合背景点群Pbの点数が最大点数Npbmax以上である場合、または背景点群記憶部240に統合背景点群Pbが記憶されていない場合(S328/No)、処理はS336に進む。一方、統合背景点群Pbの点数が最大点数Npbmax以上である場合(S328/Yes)、背景統合部250は、統合背景点群Pbから部分点群Piと同数の点群を消去する(S332)。
Here, when the integrated background point group Pb is stored in the background point
続いて、背景統合部250は、統合背景点群Pb(1周目は初期背景点群)に部分点群Piを統合して統合背景点群Pbを更新(生成)する(S336)。そして、物体検出部260が新たなフレームの点群Poおよび統合背景点群Pbの差分を計算して物体領域を検出し(S340)、表示部280が新たなフレームの点群Poに物体領域を重畳して表示する(S344)。
Next, the background integration unit 250 updates (generates) the integrated background point group Pb by integrating the partial point group Pi with the integrated background point group Pb (the first round is the initial background point group) (S336). Then, the
その後、S316〜S344の処理がLIDAR100による計測が終了するまで繰り返される(S348)。
Thereafter, the processing of S316 to S344 is repeated until the measurement by the
<作用効果>
以上説明した本発明の実施形態によれば、多様な作用効果が得られる。
<Effects>
According to the embodiment of the present invention described above, various effects can be obtained.
例えば、背景統合部250は、新たなフレームの背景点群から一部の部分点群Piを抽出し、当該部分点群Piを追加することで統合背景点群Pbを更新する。対比的に、新たなフレームの全ての背景点群を追加していき、統合背景点群Pbの点数が最大点数Npbmaxに達した後は統合背景点群Pbの一部の点群を新たなフレームの全ての背景点群に入れ替える方法も考えられる。しかし、当該方法では、物体が移動すると、移動前の物体の位置における背景点群の欠損は補えるものの、移動後の物体の位置において、元々はあった背景点群が急速に欠損していってしまう。これに対し、本発明の実施形態によれば、物体の移動に対する統合背景領域Pbのロバスト性を向上することが可能である。 For example, the background integration unit 250 updates the integrated background point group Pb by extracting a partial point group Pi from the background point group of the new frame and adding the partial point group Pi. In contrast, all the background point groups of the new frame are added, and after the number of points of the integrated background point group Pb reaches the maximum number of points Npbmax, some of the point groups of the integrated background point group Pb are added to the new frame. It is also conceivable to replace all of the background point clouds with. However, in this method, when the object moves, although the background point cloud at the position of the object before the movement can be compensated for, the original background point cloud at the position of the object after the movement is rapidly lost. I will. On the other hand, according to the embodiment of the present invention, it is possible to improve the robustness of the integrated background area Pb with respect to the movement of the object.
また、背景統合部250は、新たなフレームの背景点群から部分点群Piをランダムに(確率的に)抽出する。かかる構成によれば、背景点群において点群が欠損している場所を特定することなく、点群の欠損を補間することが可能である。 Further, the background integration unit 250 randomly (probabilistically) extracts the partial point group Pi from the background point group of the new frame. According to such a configuration, it is possible to interpolate the loss of the point group without specifying the position where the point group is missing in the background point group.
また、背景統合部250は、統合背景点群Pbの点数が最大点数Npbmaxに達した後は、統合背景点群Pbに含まれる点をランダムに消去する。かかる構成によれば、仮に統合背景点群Pbに背景領域に属さない点群が含まれてしまった場合でも、当該点群を次第に淘汰することが可能であり、結果、統合背景点群Pbの精度を向上することが可能である。 After the number of points in the integrated background point group Pb reaches the maximum number of points Npbmax, the background integration unit 250 randomly deletes points included in the integrated background point group Pb. According to this configuration, even if a point group that does not belong to the background area is included in the integrated background point group Pb, the point group can be gradually eliminated, and as a result, the integrated background point group Pb It is possible to improve the accuracy.
<変形例>
以上、本発明の実施形態を説明した。以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
<Modification>
The embodiment of the invention has been described. Hereinafter, some modified examples of the embodiment of the present invention will be described. Each of the modified examples described below may be applied to the embodiment of the present invention alone, or may be applied to the embodiment of the present invention in combination. Further, each modification may be applied instead of the configuration described in the embodiment of the present invention, or may be additionally applied to the configuration described in the embodiment of the present invention.
(第1の変形例)
上記では、背景統合部250が背景点群の全体からランダムに部分点群Piを抽出する例を説明した。第1の変形例は、この部分点群Piの抽出に関する変形例である。背景統合部250は、フレームごとに異なる範囲内からランダムに部分点群Piを抽出してもよい。図8を参照し、当該第1の変形例をより具体的に説明する。
(First Modification)
In the above, the example in which the background integration unit 250 randomly extracts the partial point group Pi from the entire background point group has been described. The first modified example is a modified example relating to the extraction of the partial point group Pi. The background integration unit 250 may randomly extract the partial point group Pi from within a different range for each frame. The first modified example will be described more specifically with reference to FIG.
図8は、第1の変形例を示す説明図である。図8に示したように、背景統合部250は、背景点群を複数の領域D1〜D3に区分し、1のフレームの背景点群では領域D1〜D3のいずれかに含まれる点群からランダムに部分点群Piを抽出してもよい。例えば、背景統合部250は、第nフレームにおいては、太線で示した5個の点群のように、領域D1に含まれる点群からランダムに部分点群Piを抽出してもよい。そして、背景統合部250は、第n+1フレームにおいては領域D2に含まれる点群からランダムに部分点群Piを抽出し、第n+2フレームにおいては領域D3に含まれる点群からランダムに部分点群Piを抽出してもよい。 FIG. 8 is an explanatory diagram showing a first modification. As shown in FIG. 8, the background integration unit 250 divides the background point group into a plurality of regions D1 to D3, and in the background point group of one frame, the background point group is randomly divided from the point group included in any of the regions D1 to D3. May be extracted. For example, in the n-th frame, the background integration unit 250 may randomly extract the partial point group Pi from the point group included in the region D1, such as five point groups indicated by thick lines. Then, the background integration unit 250 randomly extracts the partial point group Pi from the point group included in the region D2 in the (n + 1) th frame, and randomly extracts the partial point group Pi from the point group included in the region D3 in the (n + 2) th frame. May be extracted.
(第2の変形例)
上記では、新たなフレームの点群Poを用いて統合背景点群Pbを更新し、統合背景点群Pbの更新後に、統合背景点群Pbを用いて物体検出を行う例を説明した。第2の変形例は、統合背景点群Pbの更新と物体検出の関係に関する変形例である。第2の変形例では、物体検出部260は、フレームnの点群Po(n)と、以前に得られたフレームn−1の点群Po(n−1)から抽出された部分点群Pi(n−1)の統合により得られた統合背景点群Pb(n−1)との差分を計算することにより、物体領域を検出する。以下、図9を参照し、第2の変形例をより具体的に説明する。
(Second Modification)
In the above description, an example has been described in which the integrated background point group Pb is updated using the point group Po of the new frame, and after the integrated background point group Pb is updated, object detection is performed using the integrated background point group Pb. The second modification is a modification relating to the relationship between updating of the integrated background point group Pb and object detection. In the second modification, the
図9は、第2の変形例を示す説明図である。S304〜S316の処理は図7を参照して説明した通りである。図9に示したように、背景統合部250は新たなフレームの点群Poを用いて統合背景点群Pbを更新する(S320、S324、S328、S332、S336)。物体検出部260は、背景統合部250による統合背景点群Pbの更新と並行して物体領域の検出を行う。
FIG. 9 is an explanatory diagram showing a second modification. The processing of S304 to S316 is as described with reference to FIG. As shown in FIG. 9, the background integration unit 250 updates the integrated background point group Pb using the point group Po of the new frame (S320, S324, S328, S332, S336). The
すなわち、物体検出部260は、新たなフレームの点群Poと、前フレームで更新された統合背景点群Pbとの差分を計算し、物体領域を検出する(S322)。そして、表示部280が新たなフレームの点群Poに物体領域を重畳して表示する(S326)。
That is, the
かかる構成によれば、新たなフレームの点群Poを用いて統合背景点群Pbが更新されることを待たずに物体検出を行うことができるので、物体領域の表示に関する応答性および即時性を向上することが可能である。 According to such a configuration, object detection can be performed without waiting for the integrated background point group Pb to be updated using the point group Po of the new frame. Therefore, the responsiveness and the immediacy of the display of the object area can be improved. It is possible to improve.
<ハードウェア構成>
以上、本発明の実施形態を説明した。上述した背景点群の抽出および統合背景点群の更新などの情報処理は、ソフトウェアと、以下に説明する点群処理装置200のハードウェアとの協働により実現される。
<Hardware configuration>
The embodiment of the invention has been described. The information processing such as the extraction of the background point cloud and the update of the integrated background point cloud is realized by cooperation between software and hardware of the point
図10は、点群処理装置200のハードウェア構成を示したブロック図である。点群処理装置200は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、点群処理装置200は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、表示装置209と、音声出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、ネットワークインタフェース215とを備える。
FIG. 10 is a block diagram illustrating a hardware configuration of the point
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って点群処理装置200内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。これらCPU201、ROM202およびRAM203とソフトウェアとの協働により、上述した背景抽出部230、背景統合部250、物体検出部260および表示制御部270などの機能が実現され得る。
The
ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
The
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。点群処理装置200のユーザは、該入力装置208を操作することにより、点群処理装置200に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
表示装置209は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、音声出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。
The
ストレージ装置211は、本実施形態にかかる点群処理装置200の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置211は、ストレージを駆動し、CPU201が実行するプログラムや各種データを格納する。
The
ドライブ212は、記憶媒体用リーダライタであり、点群処理装置200に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203またはストレージ装置211に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
The
ネットワークインタフェース215は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース215は、無線LAN(Local Area Network)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
The
<補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<Supplement>
As described above, the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, but the present invention is not limited to such examples. It is apparent that those skilled in the art to which the present invention pertains can conceive various changes or modifications within the scope of the technical idea described in the appended claims. It is understood that these also belong to the technical scope of the present invention.
例えば、本明細書の点群処理装置200の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、点群処理装置200の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
For example, each step in the processing of the point
また、上記では初期背景点群に対して部分点群を追加することにより統合背景点群Pbを生成する例を説明したが、複数のフレームの背景点群から抽出された各部分点群Piを統合することにより統合背景点群Pbを生成してもよい。 In the above description, an example in which the integrated background point group Pb is generated by adding a partial point group to the initial background point group has been described. However, each of the partial point groups Pi extracted from the background point group of a plurality of frames is described. The integrated background point group Pb may be generated by the integration.
また、本発明の実施形態によるLIDAR100により計測される対象は特に限定されない。例えば、LIDAR100により計測される対象は、屋内であってもよいし、屋外であってもよいし、建設現場であってもよい。
The target measured by the
また、点群処理装置200に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した点群処理装置200の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
In addition, a computer program for causing hardware such as a CPU, a ROM, and a RAM built in the point
100 LIDAR
110 三脚
200 点群処理装置
220 点群記憶部
230 背景抽出部
240 背景点群記憶部
250 背景統合部
260 物体検出部
270 表示制御部
280 表示部
100 LIDAR
110
Claims (11)
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、
を備える、点群処理装置。 Background extraction for extracting a background point group, which is a point group belonging to a background area, from a three-dimensional point group corresponding to each timing, obtained by measuring a real space by LIDAR from the same point at each of a plurality of timings Department and
A background integration unit that generates an integrated background point cloud by integrating at least a part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
A point cloud processing device comprising:
ある点群と前記統合背景点群の差分を計算することにより、物体が存在する領域を検出する物体検出部をさらに備える、請求項1〜6のいずれか一項に記載の点群処理装置。 The point cloud processing device,
The point cloud processing device according to claim 1, further comprising an object detection unit configured to calculate a difference between a certain point cloud and the integrated background point cloud to detect a region where an object is present.
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、
を含む、点群処理方法。 Extracting a background point group, which is a point group belonging to a background region, from a three-dimensional point group corresponding to each timing obtained by measuring the real space by LIDAR from the same point at each of a plurality of timings; ,
By integrating at least a part of each background point group extracted from the point group corresponding to each of the plurality of timings, to generate an integrated background point group,
And a point cloud processing method.
複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出する背景抽出部と、
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、
として機能させるための、プログラム。
Computer
Background extraction for extracting a background point group, which is a point group belonging to a background area, from a three-dimensional point group corresponding to each timing, obtained by measuring a real space by LIDAR from the same point at each of a plurality of timings Department and
A background integration unit that generates an integrated background point cloud by integrating at least a part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
Program to function as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018116202A JP7107015B2 (en) | 2018-06-19 | 2018-06-19 | Point cloud processing device, point cloud processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018116202A JP7107015B2 (en) | 2018-06-19 | 2018-06-19 | Point cloud processing device, point cloud processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019219248A true JP2019219248A (en) | 2019-12-26 |
JP7107015B2 JP7107015B2 (en) | 2022-07-27 |
Family
ID=69096315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018116202A Active JP7107015B2 (en) | 2018-06-19 | 2018-06-19 | Point cloud processing device, point cloud processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7107015B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022254602A1 (en) * | 2021-06-02 | 2022-12-08 | 日本電気株式会社 | Emergency-route deciding system, emergency-route deciding method, and non-transitory computer-readable medium |
JP7436633B2 (en) | 2020-03-23 | 2024-02-21 | ファナック株式会社 | Image processing device and image processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003123074A (en) * | 2001-10-11 | 2003-04-25 | Sanyo Electric Co Ltd | Moving object detector, moving object detection method and moving object detection program |
JP2009126660A (en) * | 2007-11-27 | 2009-06-11 | Toshiba Tec Corp | Article management system and information processing apparatus |
JP2013156718A (en) * | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | Person tracking attribute estimation device, person tracking attribute estimation method and program |
JPWO2017006577A1 (en) * | 2015-07-03 | 2017-11-24 | 三菱電機株式会社 | 3D point group selection device and 3D point group selection method |
JP2017207365A (en) * | 2016-05-18 | 2017-11-24 | 株式会社デンソーアイティーラボラトリ | Computation processing device, computation processing method, and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6893632B2 (en) | 2015-06-26 | 2021-06-23 | 株式会社アナリティックウェア | Composite objects and methods for manufacturing composite objects |
-
2018
- 2018-06-19 JP JP2018116202A patent/JP7107015B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003123074A (en) * | 2001-10-11 | 2003-04-25 | Sanyo Electric Co Ltd | Moving object detector, moving object detection method and moving object detection program |
JP2009126660A (en) * | 2007-11-27 | 2009-06-11 | Toshiba Tec Corp | Article management system and information processing apparatus |
JP2013156718A (en) * | 2012-01-27 | 2013-08-15 | National Institute Of Advanced Industrial & Technology | Person tracking attribute estimation device, person tracking attribute estimation method and program |
JPWO2017006577A1 (en) * | 2015-07-03 | 2017-11-24 | 三菱電機株式会社 | 3D point group selection device and 3D point group selection method |
JP2017207365A (en) * | 2016-05-18 | 2017-11-24 | 株式会社デンソーアイティーラボラトリ | Computation processing device, computation processing method, and program |
Non-Patent Citations (1)
Title |
---|
小倉且也 山田遊馬 梶田宗吾 山口弘純 東野輝夫 高井峰生: "複数の立体物で構成された三次元点群の切り分け手法の検討", マルチメディア,分散,協調とモバイル(DICOMO2018)シンポジウム論文集 情報処理学会シンポジ, vol. 第2018巻 第1号, JPN6021045832, 27 June 2018 (2018-06-27), JP, pages 236 - 246, ISSN: 0004726592 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7436633B2 (en) | 2020-03-23 | 2024-02-21 | ファナック株式会社 | Image processing device and image processing method |
WO2022254602A1 (en) * | 2021-06-02 | 2022-12-08 | 日本電気株式会社 | Emergency-route deciding system, emergency-route deciding method, and non-transitory computer-readable medium |
Also Published As
Publication number | Publication date |
---|---|
JP7107015B2 (en) | 2022-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10268917B2 (en) | Pre-segment point cloud data to run real-time shape extraction faster | |
JP5592011B2 (en) | Multi-scale 3D orientation | |
US11012679B2 (en) | Generating apparatus, generating method, and storage medium | |
JP6359868B2 (en) | 3D data display device, 3D data display method, and 3D data display program | |
US9514574B2 (en) | System and method for determining the extent of a plane in an augmented reality environment | |
US11490062B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6230442B2 (en) | Calculation apparatus, method and program | |
JP6518517B2 (en) | Point cloud data modeling device | |
US20230169686A1 (en) | Joint Environmental Reconstruction and Camera Calibration | |
US8587586B2 (en) | Electronic device and method for meshing curved surface | |
US11816854B2 (en) | Image processing apparatus and image processing method | |
JP7107015B2 (en) | Point cloud processing device, point cloud processing method and program | |
US9639975B1 (en) | System and method for generating shadows | |
KR101850134B1 (en) | Method and apparatus for generating 3d motion model | |
US20240093992A1 (en) | Building change detection device, building change detection system, and building change detection method | |
US20210304417A1 (en) | Observation device and observation method | |
JP6564259B2 (en) | Image processing apparatus and image processing method | |
JP2023110212A (en) | Point cloud processing apparatus, point cloud processing method, and program | |
US11935182B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2019168251A (en) | Shape measuring apparatus, shape measuring method, and program | |
US20240144624A1 (en) | Measurement apparatus, measurement system, and measurement method | |
CN118608689A (en) | Virtual line laser camera simulation imaging method and device and electronic equipment | |
CN116824105A (en) | Display adjustment method, device and equipment for building information model and storage medium | |
JP5811721B2 (en) | Design support apparatus, design support method, and design support program | |
JP2023011218A (en) | Map information generation device, position identifying device, map information generation method, position identifying method, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190327 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220627 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7107015 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |