JP2019219248A - Point group processor, method for processing point group, and program - Google Patents

Point group processor, method for processing point group, and program Download PDF

Info

Publication number
JP2019219248A
JP2019219248A JP2018116202A JP2018116202A JP2019219248A JP 2019219248 A JP2019219248 A JP 2019219248A JP 2018116202 A JP2018116202 A JP 2018116202A JP 2018116202 A JP2018116202 A JP 2018116202A JP 2019219248 A JP2019219248 A JP 2019219248A
Authority
JP
Japan
Prior art keywords
background
point group
point
point cloud
integrated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018116202A
Other languages
Japanese (ja)
Other versions
JP7107015B2 (en
Inventor
真隆 福泉
Masataka Fukumizu
真隆 福泉
美智代 松井
Michiyo Matsui
美智代 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2018116202A priority Critical patent/JP7107015B2/en
Publication of JP2019219248A publication Critical patent/JP2019219248A/en
Application granted granted Critical
Publication of JP7107015B2 publication Critical patent/JP7107015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To obtain a background point group of a background region in an actual space more precisely.SOLUTION: The point group processor includes: a background extraction unit for extracting a background point group as a point group of background region from a three-dimensional point group corresponding to each of different timings obtained by measuring an actual space by LIDAR from the same point at the timings; and a background integration unit for generating an integrated background point group by integrating at least a part of the background point groups extracted from the point groups for the different timings.SELECTED DRAWING: Figure 4

Description

本発明は、点群処理装置、点群処理方法およびプログラムに関する。   The present invention relates to a point cloud processing device, a point cloud processing method, and a program.

近年、実空間の3次元計測および計測データの3次元モデル化の需要が高まっている。実空間の3次元計測および計測データの3次元モデル化を実現する方法には、例えばLIDAR(Laser Imaging Detection and Ranging)のように、アクティブ光(近赤外光)に対する反応を検知する3次元レーザーセンサを利用する方法が挙げられる。   In recent years, demands for three-dimensional measurement of real space and three-dimensional modeling of measurement data have been increasing. A method of realizing three-dimensional measurement of a real space and three-dimensional modeling of measurement data includes, for example, a three-dimensional laser that detects a response to active light (near infrared light), such as LIDAR (Laser Imaging Detection and Ranging). There is a method using a sensor.

3次元計測に関し、特許文献1には、LIDARを用いて得られた点群において点密度が希薄な領域に対して、画像センサから得られた情報を処理して生成した新たな点群を追加することで、点群の高解像度化を行う技術が開示されている。また、赤外線ドットによりデプスマップを得る方法では、赤外線を十分に反射しない領域がデプスマップにおける欠損領域になる。この点に関し、特許文献2には、RGBの色情報を持つ画像を用いて欠損領域を補間する方法が開示されている。なお、当該デプスマップは点群の生成に用いられることがある。   Regarding three-dimensional measurement, Patent Literature 1 adds a new point cloud generated by processing information obtained from an image sensor for an area having a low point density in a point cloud obtained using LIDAR. Thus, a technique for increasing the resolution of a point cloud has been disclosed. In the method of obtaining a depth map from infrared dots, a region that does not sufficiently reflect infrared light is a defective region in the depth map. In this regard, Patent Literature 2 discloses a method of interpolating a defective area using an image having RGB color information. The depth map may be used for generating a point cloud.

特許第5778237号Patent No. 5778237 特表2016−522923号公報JP 2006-522923 A

特許文献1および特許文献2に記載の技術によれば、ある時点での実空間を表現する点群またはデプスマップを得ることができる。しかし、特許文献1および特許文献2には、実空間の床または壁などの背景領域に属する背景点群を全体の点群から抽出する技術は開示されていない。ある時点での測定により得られた全体の点群から背景点群を抽出する技術があったとしても、一部の背景領域が物体に隠れている場合、背景点群の一部が欠損してしまう。   According to the techniques described in Patent Literature 1 and Patent Literature 2, a point cloud or a depth map expressing a real space at a certain point in time can be obtained. However, Patent Literature 1 and Patent Literature 2 do not disclose a technique for extracting a background point group belonging to a background area such as a floor or a wall in a real space from the entire point group. Even if there is a technology to extract the background point cloud from the whole point cloud obtained by measurement at a certain point in time, if some background area is hidden by the object, part of the background point cloud is missing I will.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、実空間の背景領域に属する背景点群をより高精度に得ることが可能な、新規かつ改良された点群処理装置、点群処理方法およびプログラムを提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved technique capable of obtaining a background point group belonging to a background area of a real space with higher accuracy. The present invention provides a point cloud processing apparatus, a point cloud processing method, and a program.

上記課題を解決するために、本発明のある観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、を備える、点群処理装置が提供される。   In order to solve the above-described problems, according to an aspect of the present invention, a three-dimensional point group corresponding to each timing obtained by measuring a real space with the LIDAR from the same point at each of a plurality of timings. A background extraction unit that extracts a background point group that is a point group belonging to a background area, and integrating by integrating at least a part of each background point group extracted from the point group corresponding to each of the plurality of timings. And a background integration unit for generating a background point cloud.

前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新してもよい。   The background integration unit extracts a new partial point group from the new background point group extracted by the background extraction unit, and by repeatedly integrating the new partial point group with the integrated background point group, The integrated background point cloud may be updated repeatedly.

前記背景統合部は、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除してもよい。   The background integration unit may delete some of the points constituting the integrated background point group when the number of points constituting the integrated background point group exceeds an upper limit.

前記統合背景点群を構成する一部の点は、前記統合背景点群を構成するランダムな点であってもよい。   Some of the points forming the integrated background point group may be random points forming the integrated background point group.

前記背景統合部は、前記新たな背景点群からランダムに前記新たな部分点群を抽出してもよい。   The background integration unit may randomly extract the new partial point group from the new background point group.

前記背景統合部は、複数の前記新たな背景点群の各々で異なる範囲内からランダムに前記新たな部分点群を抽出してもよい。   The background integration unit may randomly extract the new partial point group from a different range for each of the plurality of new background point groups.

前記点群処理装置は、ある点群と前記統合背景点群の差分を計算することにより、物体が存在する領域を検出する物体検出部をさらに備えてもよい。   The point cloud processing device may further include an object detection unit that detects a region where an object is present by calculating a difference between a certain point cloud and the integrated background point cloud.

前記物体検出部は、第1のタイミングに対応する点群と、前記第1のタイミングより前の第2のタイミングに対応する点群から抽出された部分点群の統合により得られた統合背景点群との差分を計算することにより、物体が存在する領域を検出してもよい。   The object detection unit is configured to obtain an integrated background point obtained by integrating a point group corresponding to a first timing and a partial point group extracted from a point group corresponding to a second timing before the first timing. The area where the object exists may be detected by calculating the difference from the group.

前記背景領域は、床面領域および壁面領域の少なくともいずれかを含んでもよい。   The background area may include at least one of a floor area and a wall area.

また、上記課題を解決するために、本発明の別の観点によれば、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出することと、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、を含む、点群処理方法が提供される。   According to another aspect of the present invention, there is provided a three-dimensional image corresponding to each timing, which is obtained by measuring a real space with the LIDAR from the same point at each of a plurality of timings. From the point group, extracting a background point group that is a point group belonging to a background area, and integrating at least a part of each background point group extracted from the point group corresponding to each of the plurality of timings, Generating an integrated background point cloud.

また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出する背景抽出部と、前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、として機能させるための、プログラムが提供される。   According to another embodiment of the present invention, there is provided a computer configured to measure a real space by using a LIDAR from the same point at each of a plurality of timings. A background extraction unit that extracts, from the three-dimensional point group, a background point group that is a point group belonging to a background area; By integration, a program for functioning as a background integration unit that generates an integrated background point cloud is provided.

以上説明した本発明によれば、実空間の背景領域に属する背景点群をより高精度に得ることが可能である。   According to the present invention described above, it is possible to obtain a background point group belonging to a background area in a real space with higher accuracy.

本発明の実施形態による点群処理システムを示す説明図である。It is an explanatory view showing a point cloud processing system by an embodiment of the present invention. 実空間の具体例を示す説明図である。FIG. 3 is an explanatory diagram illustrating a specific example of a real space. 図2に示した実空間の点群から抽出された背景点群を示す説明図である。FIG. 3 is an explanatory diagram showing a background point group extracted from the real space point group shown in FIG. 2. 本発明の実施形態による点群処理装置200の構成を示す説明図である。FIG. 1 is an explanatory diagram illustrating a configuration of a point cloud processing device 200 according to an embodiment of the present invention. 部分点群Piの抽出の具体例を示す説明図である。It is explanatory drawing which shows the specific example of extraction of the partial point group Pi. 統合背景点群の具体例を示す説明図である。It is explanatory drawing which shows the specific example of an integrated background point group. 本発明の実施形態による点群処理装置200の動作を示すフローチャートである。5 is a flowchart illustrating an operation of the point cloud processing device 200 according to the embodiment of the present invention. 第1の変形例を示す説明図である。It is an explanatory view showing a first modification. 第2の変形例を示す説明図である。It is an explanatory view showing a second modification. 点群処理装置200のハードウェア構成を示したブロック図である。FIG. 2 is a block diagram illustrating a hardware configuration of a point cloud processing apparatus 200.

以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the specification and the drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。   Further, in this specification and the drawings, a plurality of components having substantially the same function and configuration may be distinguished from each other by adding different alphabets after the same reference numeral. However, unless it is necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, each of the plurality of constituent elements is given only the same reference numeral.

<点群処理システムの概要>
本発明の実施形態は、LIDAR(Laser Imaging Detection and Ranging)による実空間の測定により得られた点群を処理することで実空間に存在する物体を検出する点群処理システムに関する。本発明の実施形態の詳細な説明に先立ち、本発明の実施形態による点群処理システムの概要を説明する。
<Overview of point cloud processing system>
The embodiment of the present invention relates to a point cloud processing system that detects an object existing in a real space by processing a point cloud obtained by measuring a real space by LIDAR (Laser Imaging Detection and Ranging). Prior to a detailed description of an embodiment of the present invention, an outline of a point cloud processing system according to an embodiment of the present invention will be described.

図1は、本発明の実施形態による点群処理システムを示す説明図である。図1に示したように、本発明の実施形態による点群処理システムは、LIDAR100および点群処理装置200を有する。LIDAR100と点群処理装置200は、有線で接続されてもよいし、無線で接続されてもよいし、ネットワークを介して接続されてもよい。   FIG. 1 is an explanatory diagram showing a point cloud processing system according to an embodiment of the present invention. As shown in FIG. 1, the point cloud processing system according to the embodiment of the present invention includes a LIDAR 100 and a point cloud processing device 200. The LIDAR 100 and the point cloud processing apparatus 200 may be connected by wire, may be connected wirelessly, or may be connected via a network.

(LIDAR)
LIDAR100は、実空間の3次元環境を測定する測定装置である。LIDAR100は、例えば図1に示したように三脚110により支持されることである地点に設置される。LIDAR100は、設置された同一地点から複数フレームに亘ってレーザーを用いた測定を繰り返し、各フレームの3次元の点群を得る。LIDAR100は、測定により得た点群を点群処理装置200に出力する。
(LIDAR)
The LIDAR 100 is a measuring device that measures a three-dimensional environment in a real space. The LIDAR 100 is installed at a point to be supported by a tripod 110, for example, as shown in FIG. The LIDAR 100 repeats the measurement using the laser from the same installed point over a plurality of frames to obtain a three-dimensional point group of each frame. The LIDAR 100 outputs the point cloud obtained by the measurement to the point cloud processing device 200.

なお、LIDAR100に設けられるレーザー送受信センサの数、レーザーの走査方式および測定可能範囲は特に限定されない。例えば、レーザー送受信センサの数は、8個、16個、32個、64個または128個などであってもよい。また、レーザーの走査方式は、水平方向に沿ってレーザーの向きを変化させる方式であってもよいし、垂直方向に沿ってレーザーの向きを変化させる方式であってもよい。また、測定可能範囲は、水平視野において120°または全方位などであり、垂直視野角において20°、30°または40°などであってもよい。   The number of laser transmission / reception sensors provided in the LIDAR 100, the laser scanning method, and the measurable range are not particularly limited. For example, the number of laser transmission / reception sensors may be 8, 16, 32, 64, 128, or the like. The laser scanning method may be a method of changing the direction of the laser along the horizontal direction or a method of changing the direction of the laser along the vertical direction. Further, the measurable range is 120 ° or all directions in a horizontal field of view, and may be 20 °, 30 ° or 40 ° in a vertical field of view.

(点群処理装置)
点群処理装置200は、LIDAR100から入力される点群に基づき、実空間で物体が存在する物体領域を検出する。物体領域の検出は、LIDAR100から入力される点群から、背景領域(床および壁などの固定物)に属する点群を分離(セグメンテーション)することにより実現され得る。このため、点群処理装置200は、LIDAR100から入力される点群から背景領域に属する点群である背景点群を抽出する機能も有する。なお、点群処理装置200が検出対象とする物体は特に限定されず、例えば、点群処理装置200は人または車両などの動物体を検出対象としてもよい。ここで、図2および図3を参照し、点群処理装置200による背景点群の抽出の具体例を説明する。
(Point cloud processing device)
The point cloud processing device 200 detects an object area where an object exists in a real space based on the point cloud input from the LIDAR 100. The detection of the object region can be realized by separating (segmenting) a point group belonging to a background region (fixed objects such as floors and walls) from a point group input from the LIDAR 100. Therefore, the point cloud processing apparatus 200 also has a function of extracting a background point cloud, which is a point cloud belonging to the background area, from the point cloud input from the LIDAR 100. The object to be detected by the point cloud processing device 200 is not particularly limited. For example, the point cloud processing device 200 may detect a moving object such as a person or a vehicle. Here, a specific example of extraction of a background point cloud by the point cloud processing device 200 will be described with reference to FIGS.

図2は、実空間の具体例を示す説明図である。図2に示した実空間は、床面Fおよび壁面Wで囲まれる空間であり、床面Fには物体Oが存在する。なお、本明細書においては、XY平面が床面Fに水平な面であり、XZ平面またはYZ平面が壁面Wに水平な面となるようにLIDAR100が設置されたものとする。   FIG. 2 is an explanatory diagram showing a specific example of the real space. The real space shown in FIG. 2 is a space surrounded by a floor surface F and a wall surface W, and an object O exists on the floor surface F. In this specification, it is assumed that the LIDAR 100 is installed such that the XY plane is a plane horizontal to the floor F, and the XZ plane or the YZ plane is a plane horizontal to the wall surface W.

図3は、図2に示した実空間の点群から抽出された背景点群を示す説明図である。図3に示したように、背景点群は、床面Fおよび壁面Wにおいて物体Oに遮蔽された部分以外の領域に散在する。なお、図3は背景点群を簡易的に示しているに過ぎず、実際には、より多くの点からなる背景点群が得られてもよいし、円弧状に点が分布してもよい。   FIG. 3 is an explanatory diagram illustrating a background point group extracted from the point group in the real space illustrated in FIG. 2. As shown in FIG. 3, the background point group is scattered in the floor surface F and the wall surface W in a region other than the portion shielded by the object O. Note that FIG. 3 merely shows the background point group simply. In practice, a background point group including more points may be obtained, or points may be distributed in an arc shape. .

(課題の整理)
上記の物体検出は、不足の無い背景点群を用いることにより、正確に行うことが可能である。一方、図3に示したように、物体Оに遮蔽された部分の点群が欠損している背景点群では、背景領域として扱われるべき点群の一部が物体として検出される恐れがある。
(Organization of issues)
The object detection described above can be accurately performed by using a background point group having no shortage. On the other hand, as shown in FIG. 3, in the background point group in which the point group of the portion shielded by the object し is missing, a part of the point group to be treated as the background area may be detected as the object. .

そこで、本件発明者は上記事情を着眼点にして本発明の実施形態を創作するに至った。本発明の実施形態による点群処理装置200は、実空間の背景領域に属する背景点群をより高精度に得ることが可能である。以下、このような本発明の実施形態による点群処理装置200の構成および動作を順次詳細に説明する。   Thus, the present inventor has come up with an embodiment of the present invention with the above circumstances in mind. The point cloud processing device 200 according to the embodiment of the present invention can obtain the background point cloud belonging to the background area of the real space with higher accuracy. Hereinafter, the configuration and operation of the point cloud processing apparatus 200 according to the embodiment of the present invention will be sequentially described in detail.

<点群処理装置の構成>
図4は、本発明の実施形態による点群処理装置200の構成を示す説明図である。図4に示したように、本発明の実施形態による点群処理装置200は、点群記憶部220、背景抽出部230、背景点群記憶部240、背景統合部250、物体検出部260、表示制御部270および表示部280を有する。
<Configuration of point cloud processing device>
FIG. 4 is an explanatory diagram showing the configuration of the point cloud processing device 200 according to the embodiment of the present invention. As shown in FIG. 4, the point cloud processing apparatus 200 according to the embodiment of the present invention includes a point cloud storage unit 220, a background extraction unit 230, a background point cloud storage unit 240, a background integration unit 250, an object detection unit 260, a display. It has a control unit 270 and a display unit 280.

(点群記憶部)
点群記憶部220は、LIDAR100から入力された各フレームの点群を記憶する。当該点群には、背景領域に属する背景点群、および物体領域に属する物体点群が区別されずに混在していることが想定される。LIDAR100から入力された点群を以下では点群Poと称する場合がある。
(Point cloud storage unit)
The point cloud storage unit 220 stores the point cloud of each frame input from the LIDAR 100. It is assumed that the point group includes a background point group belonging to the background region and an object point group belonging to the object region without being distinguished. Hereinafter, the point group input from the LIDAR 100 may be referred to as a point group Po in some cases.

(背景抽出部)
背景抽出部230は、点群記憶部220に記憶された点群Poから背景領域に属する背景点群を抽出する。背景領域には例えば床面および壁面が該当し、背景点群には、図3に示したように、床面に属する床面点群Pofおよび壁面に属する壁面点群Powが含まれ得る。床面は、XY平面と水平な点群Poにおいて最も巨大な平面であり、壁面はXZ平面またはYZ平面と水平な点群Poにおいて最も巨大な平面であると推定される。このため、背景抽出部230は、RANSAC(Random Sampling Consensus)を実行することにより床面点群Pofおよび壁面点群Powを得る。以下、平面形状を構成する点群のRANSACによる点群の推定手順を説明した後に、RANSACにより床面点群Pofおよび壁面点群Powを得る具体的な方法を説明する。
(Background extraction unit)
The background extraction unit 230 extracts a background point group belonging to a background area from the point group Po stored in the point group storage unit 220. The background area includes, for example, a floor surface and a wall surface, and the background point group may include a floor surface point group Pof belonging to the floor surface and a wall surface point group Pow belonging to the wall surface, as shown in FIG. The floor surface is the largest plane in the point group Po horizontal to the XY plane, and the wall surface is estimated to be the largest plane in the point group Po horizontal to the XZ plane or the YZ plane. For this reason, the background extraction unit 230 obtains the floor surface point group Pof and the wall surface point group Pow by executing RANSAC (Random Sampling Consensus). Hereinafter, a procedure for estimating a point group constituting a planar shape by RANSAC will be described, and then a specific method for obtaining a floor point group Pof and a wall point group Pow by RANSAC will be described.

点群Poに対して3つのパラメータを用いてRANSACを実行することにより、平面形状を構成する点群P_planeが出力される。3つのパラメータには、推定したい平面形状の法線方向vpl、平面を構成する点群と平面との距離の誤差しきい値dist_pl、平面を構成する点群と平面との角度の誤差しきい値angle_plが該当する。これらパラメータは人的に設定され得る。上記を要すると、点群P_planeは以下のように表現される。
P_plane:=RANSAC(Po,vpl,dist_pl,angle_pl)
By executing RANSAC on the point group Po using three parameters, a point group P_plane forming a planar shape is output. The three parameters include a normal direction vpl of the plane shape to be estimated, an error threshold value dist_pl of a distance between a point group forming the plane and the plane, and an error threshold value of an angle between the point group forming the plane and the plane. angle_pl corresponds to this. These parameters can be set manually. In summary, the point group P_plane is expressed as follows.
P_plane: = RANSAC (Po, vpl, dist_pl, angle_pl)

そして、背景抽出部230は、上述したvplにZ軸方向を適用することにより、床面点群Pofを得ることができる。当該床面点群Pofを得る処理は、以下のように表現される。
Pof:=RANSAC(Po,Z,dist_pl,angle_pl)
Then, the background extraction unit 230 can obtain the floor surface point group Pof by applying the Z-axis direction to the above-described vpl. The process of obtaining the floor surface point group Pof is expressed as follows.
Pof: = RANSAC (Po, Z, dist_pl, angle_pl)

さらに、背景抽出部230は、上述したvplにY軸方向を適用することにより、XZ平面と水平な壁面に属する壁面点群Pow_Yを得ることができる。また、背景抽出部230は、上述したvplにX軸方向を適用することにより、YZ平面と水平な壁面に属する壁面点群Pow_Xを得ることができる。これら壁面点群Pow_Yおよび壁面点群Pow_Xが組み合わされた点群が壁面点群Powである。当該壁面点群Powを得る処理は、以下のように表現される。
Pow_Y:=RANSAC(Po,Y,dist_pl,angle_pl)
Pow_X:=RANSAC(Po,X,dist_pl,angle_pl)
Pow:= Pow_Y+Pow_X
Furthermore, the background extraction unit 230 can obtain a wall surface point group Pow_Y belonging to a wall surface horizontal to the XZ plane by applying the Y-axis direction to the above-described vpl. In addition, the background extraction unit 230 can obtain a wall surface point group Pow_X belonging to a wall surface horizontal to the YZ plane by applying the X-axis direction to the above-described vpl. A point group obtained by combining the wall surface point group Pow_Y and the wall surface point group Pow_X is a wall surface point group Pow. The process of obtaining the wall surface point group Pow is expressed as follows.
Pow_Y: = RANSAC (Po, Y, dist_pl, angle_pl)
Pow_X: = RANSAC (Po, X, dist_pl, angle_pl)
Pow: = Pow_Y + Pow_X

(背景点群記憶部)
背景点群記憶部240は、背景点群を記憶する。具体的には、上述した処理により背景抽出部230により抽出された床面点群Pofおよび壁面点群Powが1フレーム目の点群Poから抽出された点群である場合、背景点群記憶部240は、これら床面点群Pofおよび壁面点群Powを初期背景点群として記憶する。また、背景点群記憶部240は、後述する背景統合部250により得られる統合背景点群を記憶する。
(Background point cloud storage unit)
The background point cloud storage unit 240 stores the background point cloud. Specifically, when the floor point group Pof and the wall surface point group Pow extracted by the background extraction unit 230 by the above-described processing are point groups extracted from the point group Po of the first frame, the background point group storage unit 240 stores the floor surface point group Pof and the wall surface point group Pow as an initial background point group. Further, the background point group storage unit 240 stores an integrated background point group obtained by the background integration unit 250 described later.

(背景統合部)
背景統合部250は、背景点群記憶部240に記憶された初期背景点群と、新たなフレームから抽出された背景点群(床面点群Pofおよび壁面点群Pow)の部分点群Piを統合することにより、統合背景点群Pbを生成する。また、背景統合部250は、既に統合背景点群Pbが背景点群記憶部240に記憶されている場合には、当該統合背景点群Pbと新たなフレームから抽出された背景点群の部分点群Piを統合することにより、統合背景点群Pbを更新する。
(Background Integration Department)
The background integration unit 250 compares the initial background point group stored in the background point group storage unit 240 and the partial point group Pi of the background point group (floor point group Pof and wall surface point group Pow) extracted from the new frame. By performing integration, an integrated background point group Pb is generated. When the integrated background point group Pb is already stored in the background point group storage unit 240, the background integration unit 250 determines the integrated background point group Pb and the partial points of the background point group extracted from the new frame. By integrating the group Pi, the integrated background point group Pb is updated.

ここで、新たなフレームから抽出された床面点群Pofおよび壁面点群Powの部分点群Piは、床面点群Pofおよび壁面点群Powからランダムに抽出された点群であってもよいし、ユーザにより指定されたルールに従って抽出された点群であってもよい。このような当該部分点群Piを背景統合部250が抽出する処理は以下のように表現される。Pi_sizeは部分点群Piに含まれる点の数であり、ユーザにより与えられるパラメータである。Pi_sizeの数は、例えば、新たなフレームから抽出された床面点群Pofおよび壁面点群Powの点の数の0.3%〜1.0%であってもよい。
Pi:=Extract_pi(Pow+Pof,random or user rule,Pi_size)
Here, the partial point group Pi of the floor surface point group Pof and the wall surface point group Pow extracted from the new frame may be a point group randomly extracted from the floor surface point group Pof and the wall surface point group Pow. Alternatively, it may be a point cloud extracted according to a rule specified by the user. The process in which the background integration unit 250 extracts such a partial point group Pi is expressed as follows. Pi_size is the number of points included in the partial point group Pi, and is a parameter given by the user. The number of Pi_size may be, for example, 0.3% to 1.0% of the number of points of the floor point group Pof and the wall point group Pow extracted from the new frame.
Pi: = Extract_pi (Pow + Pof, random or user rule, Pi_size)

そして、背景統合部250は、初期背景点群または統合背景点群Pbに上述した部分点群Piを追加することで、統合背景点群Pbを生成または更新する。当該処理は以下のように表現される。
Pb:=Pb+Pi
Then, the background integration unit 250 generates or updates the integrated background point group Pb by adding the above-described partial point group Pi to the initial background point group or the integrated background point group Pb. This processing is expressed as follows.
Pb: = Pb + Pi

上述した部分点群Piの抽出、および統合背景点群Pbの生成について、図5および図6を参照してより具体的に説明する。   The extraction of the partial point group Pi and the generation of the integrated background point group Pb will be described more specifically with reference to FIGS.

図5は、部分点群Piの抽出の具体例を示す説明図である。図5には、図3に示したフレームの次のフレームで背景抽出部230により抽出された床面点群Pofおよび壁面点群Powが示されている。図3と図5を比較すると、物体Oが移動しており、物体Oに遮蔽されて点群が欠損している位置が異なる。   FIG. 5 is an explanatory diagram showing a specific example of extraction of the partial point group Pi. FIG. 5 illustrates a floor point group Pof and a wall point group Pow extracted by the background extraction unit 230 in a frame subsequent to the frame illustrated in FIG. When FIG. 3 is compared with FIG. 5, the position where the object O is moving and the point group is missing due to being blocked by the object O is different.

背景統合部250は、図5に示した床面点群Pofおよび壁面点群Powから、図5において太線で示した例えば6つの部分点群Piを抽出する。そして、背景統合部250は、図3に示した初期背景点群に部分点群Piを追加することにより、図6に示した統合背景点群Pbを生成する。図6に示した統合背景点群Pbでは、図3において物体Oにより遮蔽されて点群が欠損していた位置に点群が追加されている。このような部分点群Piの追加を複数フレームに亘って繰り返して統合背景点群Pbを更新することにより、統合背景点群Pbの精度を向上していくことが可能である。   The background integration unit 250 extracts, for example, six partial point groups Pi indicated by thick lines in FIG. 5 from the floor surface point group Pof and the wall surface point group Pow illustrated in FIG. Then, the background integration unit 250 generates the integrated background point group Pb shown in FIG. 6 by adding the partial point group Pi to the initial background point group shown in FIG. In the integrated background point group Pb illustrated in FIG. 6, a point group is added at a position where the point group is missing due to being blocked by the object O in FIG. By repeating such addition of the partial point group Pi over a plurality of frames to update the integrated background point group Pb, it is possible to improve the accuracy of the integrated background point group Pb.

ただし、部分点群Piの追加が繰り返されていくと、統合背景点群Pbの点数が増加し過ぎて、記憶領域および計算資源が圧迫されてしまう。そこで、統合背景点群Pbの点数の上限値として最大点数Npbmaxを設定し、背景統合部250は、統合背景点群Pbの点数と最大点数Npbmaxの関係に応じて統合背景点群Pbに関する処理を実行してもよい。   However, when the addition of the partial point group Pi is repeated, the score of the integrated background point group Pb increases too much, and the storage area and the computational resources are squeezed. Therefore, the maximum number of points Npbmax is set as the upper limit of the number of points of the integrated background point group Pb, and the background integration unit 250 performs processing on the integrated background point group Pb according to the relationship between the number of points of the integrated background point group Pb and the maximum number of points Npbmax. May be performed.

具体的には、統合背景点群Pbの点数が最大点数Npbmax未満である場合、背景統合部250は、統合背景点群Pbに部分点群Piを追加することにより統合背景点群Pbを更新する。   Specifically, when the score of the integrated background point group Pb is less than the maximum score Npbmax, the background integration unit 250 updates the integrated background point group Pb by adding the partial point group Pi to the integrated background point group Pb. .

一方、統合背景点群Pbの点数が最大点数Npbmax以上である場合、背景統合部250は、統合背景点群Pbから部分点群Piと同数の点P_dをランダムに消去する。そして、背景統合部250は、点Pb_dの消去後の統合背景点群Pbに対して部分点群Piを追加することにより統合背景点群Pbを更新する。   On the other hand, when the number of points of the integrated background point group Pb is equal to or larger than the maximum number of points Npbmax, the background integration unit 250 randomly deletes the same number of points P_d as the partial point group Pi from the integrated background point group Pb. Then, the background integration unit 250 updates the integrated background point group Pb by adding the partial point group Pi to the integrated background point group Pb after the elimination of the point Pb_d.

上記の処理は、以下のように整理される。
Pb:=Pb+Pi(最大点数Npbmax>Pbの点数である場合)
Pb:=Pb−Pb_d+Pi(最大点数Npbmax≦Pbの点数である場合)
The above processing is organized as follows.
Pb: = Pb + Pi (when the maximum score is Npbmax> Pb)
Pb: = Pb−Pb_d + Pi (when the maximum score is Npbmax ≦ Pb)

(物体検出部)
物体検出部260は、点群Poおよび統合背景点群Pbを用いて、物体が存在する領域(物体領域)を検出する。そのために、物体検出部260は、点群Poおよび統合背景点群Pbの差分を計算する。当該差分を高速に計算するために、物体検出部260は、点群Poおよび統合背景点群PbをOctree構造に変換してOct_PoおよびOct_Pbを得る。そして、物体検出部260は、Oct_PoとOct_Pbの差分の点群情報Diff_Po_Pbを得る。さらに、物体検出部260は、Diff_Po_Pbを点群Poに適用することで、点群Poおよび統合背景点群Pbの差分である差分点群Pdを得る。
(Object detection unit)
The object detection unit 260 detects an area where an object exists (object area) using the point cloud Po and the integrated background point cloud Pb. For this purpose, the object detection unit 260 calculates the difference between the point group Po and the integrated background point group Pb. In order to calculate the difference at high speed, the object detection unit 260 converts the point group Po and the integrated background point group Pb into an Octree structure to obtain Oct_Po and Oct_Pb. Then, the object detection unit 260 obtains the point group information Diff_Po_Pb of the difference between Oct_Po and Oct_Pb. Furthermore, the object detection unit 260 obtains a difference point group Pd that is a difference between the point group Po and the integrated background point group Pb by applying Diff_Po_Pb to the point group Po.

上述した差分点群Pdを得るための処理は以下のように表現される。
Oct_Po:=Octree(Po)
Oct_Pb:=Octree(Pb)
Diff_Po_Pb:=Octdiff(Oct_Po,Oct_Pb)
Pd:=Octindice(Po,Diff_Po_Pb)
The process for obtaining the difference point group Pd described above is expressed as follows.
Oct_Po: = Octree (Po)
Oct_Pb: = Octree (Pb)
Diff_Po_Pb: = Octdiff (Oct_Po, Oct_Pb)
Pd: = Octindice (Po, Diff_Po_Pb)

そして、物体検出部260は、差分点群Pdに対してクラスタリングを行うことにより物体領域Region_dを得る。具体的には、物体検出部260は、まずクラスタリングを行うために差分点群PdをKdtree構造に変換して、Kd_Pdを得る。そして、物体検出部260は、Kd_Pd、各クラスタ間の許容距離dist_c、最小のクラスタ点群点数Ncmin、および最大のクラスタ点群点数Ncmaxを用いてクラスタリングを行い、物体を構成する点群のクラスタPcを得る。当該クラスタリングによって、0個から複数個のPcが得られる。なお、dist_c、NcminおよびNcmaxはユーザにより指定されるパラメータであってもよい。   Then, the object detection unit 260 obtains an object region Region_d by performing clustering on the difference point group Pd. Specifically, the object detection unit 260 first converts the difference point group Pd into a Kdtree structure in order to perform clustering, and obtains Kd_Pd. Then, the object detection unit 260 performs clustering using Kd_Pd, the allowable distance dist_c between each cluster, the minimum number of cluster point cloud points Ncmin, and the maximum number of cluster point cloud points Ncmax, and performs a cluster Pc of the point cloud forming the object. Get. By this clustering, zero to a plurality of Pc are obtained. Note that dist_c, Ncmin and Ncmax may be parameters specified by the user.

さらに、物体検出部260は、Pc群から物体が存在する物体領域Region_dを計算する。Region_dはリスト構造になっており、各要素には各Pcの点群数、クラスタの最大・最小座標、クラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、物体の種類などが格納される。物体検出部260は、Pcの点群を探索することで、点群数とクラスタの座標を計算し、点群数およびクラスタの座標からクラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、および物体の種類などを計算可能である。   Further, the object detection unit 260 calculates an object region Region_d where the object exists from the Pc group. Region_d has a list structure, and each element stores the number of point groups of each Pc, the maximum and minimum coordinates of the cluster, the cluster size, the center of gravity of the cluster, the distance from the cluster to the LIDAR 100, the type of object, and the like. The object detection unit 260 calculates the number of point groups and the coordinates of the cluster by searching for the point group of Pc, and calculates the cluster size, the center of gravity of the cluster, the distance from the cluster to the LIDAR 100, The type of the object can be calculated.

上述したクラスタリングから物体領域Region_dの検出までの処理は以下のように表現される。なお、KdtreeはKdtree構造に引数を変換する関数であり、Clusteringは点群中の物体を構成するクラスタ群を出力する関数であり、Region_fは各クラスタの点群数、クラスタの最大・最小座標、クラスタサイズ、クラスタの重心、クラスタからLIDAR100までの距離、および物体の種類を含む構造体のリストを出力する関数である。
Kd_Pd:=Kdtree(Pd)
Pc:=Clustering(Kd_Pd,dist_c,Ncmin,Ncmax)
Region_d:=Region_f(Pc)
The processing from the above-described clustering to detection of the object region Region_d is expressed as follows. Kdtree is a function for converting an argument into a Kdtree structure, Clustering is a function for outputting a cluster group constituting an object in a point group, Region_f is the number of point groups of each cluster, maximum / minimum coordinates of the cluster, This function outputs a list of structures including the cluster size, the center of gravity of the cluster, the distance from the cluster to the LIDAR 100, and the type of object.
Kd_Pd: = Kdtree (Pd)
Pc: = Clustering (Kd_Pd, dist_c, Ncmin, Ncmax)
Region_d: = Region_f (Pc)

(表示制御部)
表示制御部270は、点群記憶部220から読み出した点群Poと物体領域Region_dを用いて、点群Poにおける物体の検出結果を示す検出結果画面を生成する。検出結果画面の生成方法は、点群Poを配置すること、Region_dより得られるクラスタの最大・最小座標を用いたクラスタの領域(立方体)を配置すること、および、最大・最小座標を用いることで立方体の各頂点を計算し、立方体の辺となるように各立方体の頂点間で線を描画すること、をRegion_dに存在する各物体に対して行うこと、を含む。
(Display control unit)
The display control unit 270 uses the point cloud Po and the object region Region_d read from the point cloud storage unit 220 to generate a detection result screen indicating the detection result of the object in the point cloud Po. The detection result screen is generated by arranging the point group Po, arranging a cluster region (cube) using the maximum and minimum coordinates of the cluster obtained from Region_d, and using the maximum and minimum coordinates. Calculating each vertex of the cube, and drawing a line between the vertices of each cube so as to be an edge of the cube, for each object existing in Region_d.

(表示部)
表示部280は、表示制御部270により生成された検出結果画面を表示する。これにより、点群Poに存在する全ての物体領域が可視化される。
(Display)
Display unit 280 displays the detection result screen generated by display control unit 270. Thereby, all the object regions existing in the point group Po are visualized.

<点群処理装置の動作>
以上、本発明の実施形態による点群処理装置200の構成を説明した。続いて、図7を参照し、本発明の実施形態による点群処理装置200の動作を説明する。
<Operation of point cloud processing device>
The configuration of the point cloud processing device 200 according to the embodiment of the present invention has been described above. Subsequently, the operation of the point cloud processing device 200 according to the embodiment of the present invention will be described with reference to FIG.

図7は、本発明の実施形態による点群処理装置200の動作を示すフローチャートである。図7に示したように、まず、点群記憶部220はLIDAR100から入力された1フレーム目の点群Poを記憶する(S304)。   FIG. 7 is a flowchart showing the operation of the point cloud processing device 200 according to the embodiment of the present invention. As shown in FIG. 7, first, the point cloud storage unit 220 stores the point cloud Po of the first frame input from the LIDAR 100 (S304).

そして、背景抽出部230は、点群記憶部220に記憶された点群Poから背景領域に属する背景点群(床面点群Pofおよび壁面点群Pow)を抽出する(S308)。背景点群記憶部240は、背景抽出部230により抽出された背景点群を初期背景点群として記憶する(S312)。   Then, the background extraction unit 230 extracts a background point group (floor point group Pof and wall surface point group Pow) belonging to the background area from the point group Po stored in the point group storage unit 220 (S308). The background point group storage unit 240 stores the background point group extracted by the background extraction unit 230 as an initial background point group (S312).

その後、LIDAR100から新たなフレームの点群Poが入力されると、点群記憶部220は当該新たなフレームの点群Poを記憶する(S316)。続いて、背景抽出部230が新たなフレームの点群Poから背景点群を抽出し(S320)、背景統合部250が、当該背景点群から部分点群Piを抽出する(S324)。   Thereafter, when the point group Po of the new frame is input from the LIDAR 100, the point group storage unit 220 stores the point group Po of the new frame (S316). Subsequently, the background extraction unit 230 extracts a background point group from the point group Po of the new frame (S320), and the background integration unit 250 extracts a partial point group Pi from the background point group (S324).

ここで、背景点群記憶部240に統合背景点群Pbが記憶されている場合、背景統合部250は、統合背景点群Pbの点数が最大点数Npbmax以上であるか否かを判断する(S328)。統合背景点群Pbの点数が最大点数Npbmax以上である場合、または背景点群記憶部240に統合背景点群Pbが記憶されていない場合(S328/No)、処理はS336に進む。一方、統合背景点群Pbの点数が最大点数Npbmax以上である場合(S328/Yes)、背景統合部250は、統合背景点群Pbから部分点群Piと同数の点群を消去する(S332)。   Here, when the integrated background point group Pb is stored in the background point group storage unit 240, the background integration unit 250 determines whether or not the score of the integrated background point group Pb is equal to or more than the maximum number of points Npbmax (S328). ). If the score of the integrated background point group Pb is equal to or greater than the maximum score Npbmax, or if the integrated background point group Pb is not stored in the background point group storage unit 240 (S328 / No), the process proceeds to S336. On the other hand, when the number of points of the integrated background point group Pb is equal to or greater than the maximum number of points Npbmax (S328 / Yes), the background integration unit 250 deletes the same number of point groups as the partial point group Pi from the integrated background point group Pb (S332). .

続いて、背景統合部250は、統合背景点群Pb(1周目は初期背景点群)に部分点群Piを統合して統合背景点群Pbを更新(生成)する(S336)。そして、物体検出部260が新たなフレームの点群Poおよび統合背景点群Pbの差分を計算して物体領域を検出し(S340)、表示部280が新たなフレームの点群Poに物体領域を重畳して表示する(S344)。   Next, the background integration unit 250 updates (generates) the integrated background point group Pb by integrating the partial point group Pi with the integrated background point group Pb (the first round is the initial background point group) (S336). Then, the object detection unit 260 calculates the difference between the point group Po of the new frame and the integrated background point group Pb to detect the object region (S340), and the display unit 280 displays the object region in the point group Po of the new frame. It is superimposed and displayed (S344).

その後、S316〜S344の処理がLIDAR100による計測が終了するまで繰り返される(S348)。   Thereafter, the processing of S316 to S344 is repeated until the measurement by the LIDAR 100 ends (S348).

<作用効果>
以上説明した本発明の実施形態によれば、多様な作用効果が得られる。
<Effects>
According to the embodiment of the present invention described above, various effects can be obtained.

例えば、背景統合部250は、新たなフレームの背景点群から一部の部分点群Piを抽出し、当該部分点群Piを追加することで統合背景点群Pbを更新する。対比的に、新たなフレームの全ての背景点群を追加していき、統合背景点群Pbの点数が最大点数Npbmaxに達した後は統合背景点群Pbの一部の点群を新たなフレームの全ての背景点群に入れ替える方法も考えられる。しかし、当該方法では、物体が移動すると、移動前の物体の位置における背景点群の欠損は補えるものの、移動後の物体の位置において、元々はあった背景点群が急速に欠損していってしまう。これに対し、本発明の実施形態によれば、物体の移動に対する統合背景領域Pbのロバスト性を向上することが可能である。   For example, the background integration unit 250 updates the integrated background point group Pb by extracting a partial point group Pi from the background point group of the new frame and adding the partial point group Pi. In contrast, all the background point groups of the new frame are added, and after the number of points of the integrated background point group Pb reaches the maximum number of points Npbmax, some of the point groups of the integrated background point group Pb are added to the new frame. It is also conceivable to replace all of the background point clouds with. However, in this method, when the object moves, although the background point cloud at the position of the object before the movement can be compensated for, the original background point cloud at the position of the object after the movement is rapidly lost. I will. On the other hand, according to the embodiment of the present invention, it is possible to improve the robustness of the integrated background area Pb with respect to the movement of the object.

また、背景統合部250は、新たなフレームの背景点群から部分点群Piをランダムに(確率的に)抽出する。かかる構成によれば、背景点群において点群が欠損している場所を特定することなく、点群の欠損を補間することが可能である。   Further, the background integration unit 250 randomly (probabilistically) extracts the partial point group Pi from the background point group of the new frame. According to such a configuration, it is possible to interpolate the loss of the point group without specifying the position where the point group is missing in the background point group.

また、背景統合部250は、統合背景点群Pbの点数が最大点数Npbmaxに達した後は、統合背景点群Pbに含まれる点をランダムに消去する。かかる構成によれば、仮に統合背景点群Pbに背景領域に属さない点群が含まれてしまった場合でも、当該点群を次第に淘汰することが可能であり、結果、統合背景点群Pbの精度を向上することが可能である。   After the number of points in the integrated background point group Pb reaches the maximum number of points Npbmax, the background integration unit 250 randomly deletes points included in the integrated background point group Pb. According to this configuration, even if a point group that does not belong to the background area is included in the integrated background point group Pb, the point group can be gradually eliminated, and as a result, the integrated background point group Pb It is possible to improve the accuracy.

<変形例>
以上、本発明の実施形態を説明した。以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
<Modification>
The embodiment of the invention has been described. Hereinafter, some modified examples of the embodiment of the present invention will be described. Each of the modified examples described below may be applied to the embodiment of the present invention alone, or may be applied to the embodiment of the present invention in combination. Further, each modification may be applied instead of the configuration described in the embodiment of the present invention, or may be additionally applied to the configuration described in the embodiment of the present invention.

(第1の変形例)
上記では、背景統合部250が背景点群の全体からランダムに部分点群Piを抽出する例を説明した。第1の変形例は、この部分点群Piの抽出に関する変形例である。背景統合部250は、フレームごとに異なる範囲内からランダムに部分点群Piを抽出してもよい。図8を参照し、当該第1の変形例をより具体的に説明する。
(First Modification)
In the above, the example in which the background integration unit 250 randomly extracts the partial point group Pi from the entire background point group has been described. The first modified example is a modified example relating to the extraction of the partial point group Pi. The background integration unit 250 may randomly extract the partial point group Pi from within a different range for each frame. The first modified example will be described more specifically with reference to FIG.

図8は、第1の変形例を示す説明図である。図8に示したように、背景統合部250は、背景点群を複数の領域D1〜D3に区分し、1のフレームの背景点群では領域D1〜D3のいずれかに含まれる点群からランダムに部分点群Piを抽出してもよい。例えば、背景統合部250は、第nフレームにおいては、太線で示した5個の点群のように、領域D1に含まれる点群からランダムに部分点群Piを抽出してもよい。そして、背景統合部250は、第n+1フレームにおいては領域D2に含まれる点群からランダムに部分点群Piを抽出し、第n+2フレームにおいては領域D3に含まれる点群からランダムに部分点群Piを抽出してもよい。   FIG. 8 is an explanatory diagram showing a first modification. As shown in FIG. 8, the background integration unit 250 divides the background point group into a plurality of regions D1 to D3, and in the background point group of one frame, the background point group is randomly divided from the point group included in any of the regions D1 to D3. May be extracted. For example, in the n-th frame, the background integration unit 250 may randomly extract the partial point group Pi from the point group included in the region D1, such as five point groups indicated by thick lines. Then, the background integration unit 250 randomly extracts the partial point group Pi from the point group included in the region D2 in the (n + 1) th frame, and randomly extracts the partial point group Pi from the point group included in the region D3 in the (n + 2) th frame. May be extracted.

(第2の変形例)
上記では、新たなフレームの点群Poを用いて統合背景点群Pbを更新し、統合背景点群Pbの更新後に、統合背景点群Pbを用いて物体検出を行う例を説明した。第2の変形例は、統合背景点群Pbの更新と物体検出の関係に関する変形例である。第2の変形例では、物体検出部260は、フレームnの点群Po(n)と、以前に得られたフレームn−1の点群Po(n−1)から抽出された部分点群Pi(n−1)の統合により得られた統合背景点群Pb(n−1)との差分を計算することにより、物体領域を検出する。以下、図9を参照し、第2の変形例をより具体的に説明する。
(Second Modification)
In the above description, an example has been described in which the integrated background point group Pb is updated using the point group Po of the new frame, and after the integrated background point group Pb is updated, object detection is performed using the integrated background point group Pb. The second modification is a modification relating to the relationship between updating of the integrated background point group Pb and object detection. In the second modification, the object detection unit 260 determines the point group Po (n) of the frame n and the partial point group Pi extracted from the point group Po (n-1) of the frame n-1 obtained earlier. The object region is detected by calculating the difference from the integrated background point group Pb (n-1) obtained by the integration of (n-1). Hereinafter, the second modified example will be described more specifically with reference to FIG.

図9は、第2の変形例を示す説明図である。S304〜S316の処理は図7を参照して説明した通りである。図9に示したように、背景統合部250は新たなフレームの点群Poを用いて統合背景点群Pbを更新する(S320、S324、S328、S332、S336)。物体検出部260は、背景統合部250による統合背景点群Pbの更新と並行して物体領域の検出を行う。   FIG. 9 is an explanatory diagram showing a second modification. The processing of S304 to S316 is as described with reference to FIG. As shown in FIG. 9, the background integration unit 250 updates the integrated background point group Pb using the point group Po of the new frame (S320, S324, S328, S332, S336). The object detection unit 260 detects an object region in parallel with the update of the integrated background point group Pb by the background integration unit 250.

すなわち、物体検出部260は、新たなフレームの点群Poと、前フレームで更新された統合背景点群Pbとの差分を計算し、物体領域を検出する(S322)。そして、表示部280が新たなフレームの点群Poに物体領域を重畳して表示する(S326)。   That is, the object detection unit 260 calculates the difference between the point group Po of the new frame and the integrated background point group Pb updated in the previous frame, and detects an object region (S322). Then, the display unit 280 superimposes and displays the object area on the point group Po of the new frame (S326).

かかる構成によれば、新たなフレームの点群Poを用いて統合背景点群Pbが更新されることを待たずに物体検出を行うことができるので、物体領域の表示に関する応答性および即時性を向上することが可能である。   According to such a configuration, object detection can be performed without waiting for the integrated background point group Pb to be updated using the point group Po of the new frame. Therefore, the responsiveness and the immediacy of the display of the object area can be improved. It is possible to improve.

<ハードウェア構成>
以上、本発明の実施形態を説明した。上述した背景点群の抽出および統合背景点群の更新などの情報処理は、ソフトウェアと、以下に説明する点群処理装置200のハードウェアとの協働により実現される。
<Hardware configuration>
The embodiment of the invention has been described. The information processing such as the extraction of the background point cloud and the update of the integrated background point cloud is realized by cooperation between software and hardware of the point cloud processing device 200 described below.

図10は、点群処理装置200のハードウェア構成を示したブロック図である。点群処理装置200は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、点群処理装置200は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、表示装置209と、音声出力装置210と、ストレージ装置(HDD)211と、ドライブ212と、ネットワークインタフェース215とを備える。   FIG. 10 is a block diagram illustrating a hardware configuration of the point cloud processing apparatus 200. The point cloud processing apparatus 200 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, and a host bus 204. Further, the point cloud processing device 200 includes a bridge 205, an external bus 206, an interface 207, an input device 208, a display device 209, an audio output device 210, a storage device (HDD) 211, a drive 212, A network interface 215.

CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って点群処理装置200内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。これらCPU201、ROM202およびRAM203とソフトウェアとの協働により、上述した背景抽出部230、背景統合部250、物体検出部260および表示制御部270などの機能が実現され得る。   The CPU 201 functions as an arithmetic processing device and a control device, and controls overall operations in the point cloud processing device 200 according to various programs. Further, the CPU 201 may be a microprocessor. The ROM 202 stores programs used by the CPU 201, operation parameters, and the like. The RAM 203 temporarily stores programs used in the execution of the CPU 201, parameters that appropriately change in the execution, and the like. These are mutually connected by a host bus 204 composed of a CPU bus and the like. By the cooperation of the CPU 201, the ROM 202, the RAM 203, and the software, the functions of the above-described background extraction unit 230, background integration unit 250, object detection unit 260, and display control unit 270 can be realized.

ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。   The host bus 204 is connected to an external bus 206 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 205. Note that the host bus 204, the bridge 205, and the external bus 206 do not necessarily need to be separately configured, and these functions may be mounted on one bus.

入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。点群処理装置200のユーザは、該入力装置208を操作することにより、点群処理装置200に対して各種のデータを入力したり処理動作を指示したりすることができる。   The input device 208 includes an input unit such as a mouse, a keyboard, a touch panel, a button, a microphone, a sensor, a switch, and a lever for a user to input information, and an input that generates an input signal based on an input by the user and outputs the input signal to the CPU 201. It is composed of a control circuit and the like. By operating the input device 208, the user of the point cloud processing apparatus 200 can input various data to the point cloud processing apparatus 200 or instruct a processing operation.

表示装置209は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、音声出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。   The display device 209 includes, for example, a display device such as a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, a projector device, an OLED (Organic Light Emitting Diode) device, and a lamp. The audio output device 210 includes an audio output device such as a speaker and headphones.

ストレージ装置211は、本実施形態にかかる点群処理装置200の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置211は、ストレージを駆動し、CPU201が実行するプログラムや各種データを格納する。   The storage device 211 is a data storage device configured as an example of a storage unit of the point cloud processing device 200 according to the present embodiment. The storage device 211 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 211 is composed of, for example, a hard disk drive (HDD) or a solid storage drive (SSD), or a memory having an equivalent function. The storage device 211 drives a storage and stores programs executed by the CPU 201 and various data.

ドライブ212は、記憶媒体用リーダライタであり、点群処理装置200に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203またはストレージ装置211に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。   The drive 212 is a reader / writer for a storage medium, and is built in or external to the point cloud processing device 200. The drive 212 reads information recorded on a removable storage medium 24 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 203 or the storage device 211. The drive 212 can also write information on the removable storage medium 24.

ネットワークインタフェース215は、例えば、ネットワークに接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース215は、無線LAN(Local Area Network)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。   The network interface 215 is a communication interface including, for example, a communication device for connecting to a network. The network interface 215 may be a wireless LAN (Local Area Network) compatible communication device or a wire communication device that performs wired communication.

<補足>
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
<Supplement>
As described above, the preferred embodiments of the present invention have been described in detail with reference to the accompanying drawings, but the present invention is not limited to such examples. It is apparent that those skilled in the art to which the present invention pertains can conceive various changes or modifications within the scope of the technical idea described in the appended claims. It is understood that these also belong to the technical scope of the present invention.

例えば、本明細書の点群処理装置200の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、点群処理装置200の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   For example, each step in the processing of the point cloud processing apparatus 200 in the present specification does not necessarily need to be processed in a time series in the order described in the flowchart. For example, each step in the processing of the point cloud processing device 200 may be processed in an order different from the order described in the flowchart, or may be processed in parallel.

また、上記では初期背景点群に対して部分点群を追加することにより統合背景点群Pbを生成する例を説明したが、複数のフレームの背景点群から抽出された各部分点群Piを統合することにより統合背景点群Pbを生成してもよい。   In the above description, an example in which the integrated background point group Pb is generated by adding a partial point group to the initial background point group has been described. However, each of the partial point groups Pi extracted from the background point group of a plurality of frames is described. The integrated background point group Pb may be generated by the integration.

また、本発明の実施形態によるLIDAR100により計測される対象は特に限定されない。例えば、LIDAR100により計測される対象は、屋内であってもよいし、屋外であってもよいし、建設現場であってもよい。   The target measured by the LIDAR 100 according to the embodiment of the present invention is not particularly limited. For example, the object measured by the LIDAR 100 may be indoors, outdoors, or a construction site.

また、点群処理装置200に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した点群処理装置200の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。   In addition, a computer program for causing hardware such as a CPU, a ROM, and a RAM built in the point cloud processing apparatus 200 to exhibit the same functions as those of the configuration of the point cloud processing apparatus 200 can be created. Also, a storage medium storing the computer program is provided.

100 LIDAR
110 三脚
200 点群処理装置
220 点群記憶部
230 背景抽出部
240 背景点群記憶部
250 背景統合部
260 物体検出部
270 表示制御部
280 表示部


100 LIDAR
110 Tripod 200 Point cloud processing unit 220 Point cloud storage unit 230 Background extraction unit 240 Background point cloud storage unit 250 Background integration unit 260 Object detection unit 270 Display control unit 280 Display unit


Claims (11)

複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出する背景抽出部と、
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、
を備える、点群処理装置。
Background extraction for extracting a background point group, which is a point group belonging to a background area, from a three-dimensional point group corresponding to each timing, obtained by measuring a real space by LIDAR from the same point at each of a plurality of timings Department and
A background integration unit that generates an integrated background point cloud by integrating at least a part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
A point cloud processing device comprising:
前記背景統合部は、前記背景抽出部により抽出された新たな背景点群から新たな部分点群を抽出し、前記新たな部分点群を前記統合背景点群に統合することを繰り返すことにより、前記統合背景点群を繰り返し更新する、請求項1に記載の点群処理装置。   The background integration unit extracts a new partial point group from the new background point group extracted by the background extraction unit, and by repeatedly integrating the new partial point group with the integrated background point group, The point cloud processing device according to claim 1, wherein the integrated background point cloud is repeatedly updated. 前記背景統合部は、前記統合背景点群を構成する点の数が上限値を上回る場合に、前記統合背景点群を構成する一部の点を削除する、請求項2に記載の点群処理装置。   The point group processing according to claim 2, wherein the background integration unit deletes some of the points constituting the integrated background point group when the number of points constituting the integrated background point group exceeds an upper limit. apparatus. 前記統合背景点群を構成する一部の点は、前記統合背景点群を構成するランダムな点である、請求項3に記載の点群処理装置。   The point cloud processing device according to claim 3, wherein some of the points forming the integrated background cloud are random points forming the integrated background cloud. 前記背景統合部は、前記新たな背景点群からランダムに前記新たな部分点群を抽出する、請求項2〜4のいずれか一項に記載の点群処理装置。   The point group processing device according to claim 2, wherein the background integration unit randomly extracts the new partial point group from the new background point group. 前記背景統合部は、複数の前記新たな背景点群の各々で異なる範囲内からランダムに前記新たな部分点群を抽出する、請求項5に記載の点群処理装置。   The point group processing device according to claim 5, wherein the background integration unit randomly extracts the new partial point group from a different range for each of the plurality of new background point groups. 前記点群処理装置は、
ある点群と前記統合背景点群の差分を計算することにより、物体が存在する領域を検出する物体検出部をさらに備える、請求項1〜6のいずれか一項に記載の点群処理装置。
The point cloud processing device,
The point cloud processing device according to claim 1, further comprising an object detection unit configured to calculate a difference between a certain point cloud and the integrated background point cloud to detect a region where an object is present.
前記物体検出部は、第1のタイミングに対応する点群と、前記第1のタイミングより前の第2のタイミングに対応する点群から抽出された部分点群の統合により得られた統合背景点群との差分を計算することにより、物体が存在する領域を検出する、請求項7に記載の点群処理装置。   The object detection unit is configured to obtain an integrated background point obtained by integrating a point group corresponding to a first timing and a partial point group extracted from a point group corresponding to a second timing before the first timing. The point cloud processing device according to claim 7, wherein a region where the object exists is detected by calculating a difference from the cloud. 前記背景領域は、床面領域および壁面領域の少なくともいずれかを含む、請求項1〜8のいずれか一項に記載の点群処理装置。   The point cloud processing device according to claim 1, wherein the background area includes at least one of a floor area and a wall area. 複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出することと、
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成することと、
を含む、点群処理方法。
Extracting a background point group, which is a point group belonging to a background region, from a three-dimensional point group corresponding to each timing obtained by measuring the real space by LIDAR from the same point at each of a plurality of timings; ,
By integrating at least a part of each background point group extracted from the point group corresponding to each of the plurality of timings, to generate an integrated background point group,
And a point cloud processing method.
コンピュータを、
複数のタイミングの各々で同一地点から実空間をLIDARで測定することにより得られた、各タイミングに対応する3次元の点群から、背景領域に属する点群である背景点群を抽出する背景抽出部と、
前記複数のタイミングの各々に対応する点群から抽出された各背景点群の少なくとも一部を統合することにより、統合背景点群を生成する背景統合部と、
として機能させるための、プログラム。

Computer
Background extraction for extracting a background point group, which is a point group belonging to a background area, from a three-dimensional point group corresponding to each timing, obtained by measuring a real space by LIDAR from the same point at each of a plurality of timings Department and
A background integration unit that generates an integrated background point cloud by integrating at least a part of each background point cloud extracted from the point cloud corresponding to each of the plurality of timings;
Program to function as

JP2018116202A 2018-06-19 2018-06-19 Point cloud processing device, point cloud processing method and program Active JP7107015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018116202A JP7107015B2 (en) 2018-06-19 2018-06-19 Point cloud processing device, point cloud processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116202A JP7107015B2 (en) 2018-06-19 2018-06-19 Point cloud processing device, point cloud processing method and program

Publications (2)

Publication Number Publication Date
JP2019219248A true JP2019219248A (en) 2019-12-26
JP7107015B2 JP7107015B2 (en) 2022-07-27

Family

ID=69096315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116202A Active JP7107015B2 (en) 2018-06-19 2018-06-19 Point cloud processing device, point cloud processing method and program

Country Status (1)

Country Link
JP (1) JP7107015B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022254602A1 (en) * 2021-06-02 2022-12-08 日本電気株式会社 Emergency-route deciding system, emergency-route deciding method, and non-transitory computer-readable medium
JP7436633B2 (en) 2020-03-23 2024-02-21 ファナック株式会社 Image processing device and image processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123074A (en) * 2001-10-11 2003-04-25 Sanyo Electric Co Ltd Moving object detector, moving object detection method and moving object detection program
JP2009126660A (en) * 2007-11-27 2009-06-11 Toshiba Tec Corp Article management system and information processing apparatus
JP2013156718A (en) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program
JPWO2017006577A1 (en) * 2015-07-03 2017-11-24 三菱電機株式会社 3D point group selection device and 3D point group selection method
JP2017207365A (en) * 2016-05-18 2017-11-24 株式会社デンソーアイティーラボラトリ Computation processing device, computation processing method, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6893632B2 (en) 2015-06-26 2021-06-23 株式会社アナリティックウェア Composite objects and methods for manufacturing composite objects

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123074A (en) * 2001-10-11 2003-04-25 Sanyo Electric Co Ltd Moving object detector, moving object detection method and moving object detection program
JP2009126660A (en) * 2007-11-27 2009-06-11 Toshiba Tec Corp Article management system and information processing apparatus
JP2013156718A (en) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology Person tracking attribute estimation device, person tracking attribute estimation method and program
JPWO2017006577A1 (en) * 2015-07-03 2017-11-24 三菱電機株式会社 3D point group selection device and 3D point group selection method
JP2017207365A (en) * 2016-05-18 2017-11-24 株式会社デンソーアイティーラボラトリ Computation processing device, computation processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小倉且也 山田遊馬 梶田宗吾 山口弘純 東野輝夫 高井峰生: "複数の立体物で構成された三次元点群の切り分け手法の検討", マルチメディア,分散,協調とモバイル(DICOMO2018)シンポジウム論文集 情報処理学会シンポジ, vol. 第2018巻 第1号, JPN6021045832, 27 June 2018 (2018-06-27), JP, pages 236 - 246, ISSN: 0004726592 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7436633B2 (en) 2020-03-23 2024-02-21 ファナック株式会社 Image processing device and image processing method
WO2022254602A1 (en) * 2021-06-02 2022-12-08 日本電気株式会社 Emergency-route deciding system, emergency-route deciding method, and non-transitory computer-readable medium

Also Published As

Publication number Publication date
JP7107015B2 (en) 2022-07-27

Similar Documents

Publication Publication Date Title
US10268917B2 (en) Pre-segment point cloud data to run real-time shape extraction faster
JP5592011B2 (en) Multi-scale 3D orientation
US11012679B2 (en) Generating apparatus, generating method, and storage medium
JP6359868B2 (en) 3D data display device, 3D data display method, and 3D data display program
US9514574B2 (en) System and method for determining the extent of a plane in an augmented reality environment
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP6230442B2 (en) Calculation apparatus, method and program
JP6518517B2 (en) Point cloud data modeling device
US20230169686A1 (en) Joint Environmental Reconstruction and Camera Calibration
US8587586B2 (en) Electronic device and method for meshing curved surface
US11816854B2 (en) Image processing apparatus and image processing method
JP7107015B2 (en) Point cloud processing device, point cloud processing method and program
US9639975B1 (en) System and method for generating shadows
KR101850134B1 (en) Method and apparatus for generating 3d motion model
US20240093992A1 (en) Building change detection device, building change detection system, and building change detection method
US20210304417A1 (en) Observation device and observation method
JP6564259B2 (en) Image processing apparatus and image processing method
JP2023110212A (en) Point cloud processing apparatus, point cloud processing method, and program
US11935182B2 (en) Information processing apparatus, information processing method, and storage medium
JP2019168251A (en) Shape measuring apparatus, shape measuring method, and program
US20240144624A1 (en) Measurement apparatus, measurement system, and measurement method
CN118608689A (en) Virtual line laser camera simulation imaging method and device and electronic equipment
CN116824105A (en) Display adjustment method, device and equipment for building information model and storage medium
JP5811721B2 (en) Design support apparatus, design support method, and design support program
JP2023011218A (en) Map information generation device, position identifying device, map information generation method, position identifying method, program, and recording medium

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220627

R150 Certificate of patent or registration of utility model

Ref document number: 7107015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150