JP6742157B2 - Object detection device, object detection system, object detection method, and program - Google Patents
Object detection device, object detection system, object detection method, and program Download PDFInfo
- Publication number
- JP6742157B2 JP6742157B2 JP2016112983A JP2016112983A JP6742157B2 JP 6742157 B2 JP6742157 B2 JP 6742157B2 JP 2016112983 A JP2016112983 A JP 2016112983A JP 2016112983 A JP2016112983 A JP 2016112983A JP 6742157 B2 JP6742157 B2 JP 6742157B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- cluster
- pixels
- relative distance
- object candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 138
- 238000000034 method Methods 0.000 claims description 55
- 238000005259 measurement Methods 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 37
- 238000000605 extraction Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 5
- 230000007704 transition Effects 0.000 claims description 2
- 239000013598 vector Substances 0.000 description 26
- 238000010586 diagram Methods 0.000 description 19
- 238000004364 calculation method Methods 0.000 description 13
- 241000238631 Hexapoda Species 0.000 description 4
- 238000013500 data storage Methods 0.000 description 3
- 238000010835 comparative analysis Methods 0.000 description 2
- 101100455985 Arabidopsis thaliana MAM3 gene Proteins 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Description
本発明は、物体を検出する物体検出装置、物体検出システム、物体検出方法およびプログラムに関する。 The present invention relates to an object detection device that detects an object, an object detection system, an object detection method, and a program.
周囲の物体をリアルタイムで高精度に検知するライダー(LIDAR)というセンサーが注目されている。ライダーは、光を用いたリモートセンシング技術の一つで、測定光を発光し、対象物で反射した光を受光するまでの時間によって対象物までの距離を求める。発光方向を走査することにより、周囲にある対象物を検出することができる。こうしたセンサーは、車両や人物などの監視対象物の検出に用いられる。 A sensor called a lidar (LIDAR), which detects surrounding objects in real time with high accuracy, has been attracting attention. The lidar is one of the remote sensing techniques using light, and determines the distance to the object by the time until the measurement light is emitted and the light reflected by the object is received. By scanning the light emission direction, it is possible to detect the surrounding objects. Such sensors are used to detect monitored objects such as vehicles and people.
例えば、微小な虫や落ち葉などのように監視対象物とは異なる物が測定光を遮ると、その障害物によって監視対象物からの反射光が得られず、監視対象物を適切に検出できない場合があった。 For example, when an object that is different from the monitored object, such as a small insect or a fallen leaf, blocks the measurement light, the reflected light from the monitored object cannot be obtained due to the obstacle, and the monitored object cannot be detected properly. was there.
特許文献1は、上記の課題を解決する測距装置を開示している。特許文献1に記載された測距装置は、監視対象領域内であることを示す距離データが隣接する複数の走査角度方向に存在するときに、複数の距離データをまとめたグループを生成し、グループに含まれる距離データの個数または最大走査角度によって、走査方向に沿った物体のサイズを定義する。そして、物体のサイズが、物体検出最小幅を示す個数または走査角度以上となる場合に、監視対象の物体があると判定し、そうでない場合にはノイズであると判定する。
本発明は、微小な虫や落ち葉などのノイズ源の影響を低減し、適切に物体を検出することができる物体検出装置を提供することを目的とする。 It is an object of the present invention to provide an object detection device capable of appropriately detecting an object by reducing the influence of noise sources such as minute insects and fallen leaves.
本発明の物体検出システムは、測距装置と、物体検出装置とを備える。物体検出装置は、測距装置の各測距方向における測距データを画素値とする距離画像を取得する距離画像取得部と、前記距離画像から非背景画素を抽出する非背景画素抽出部と、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成する第1クラスタリング部と、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成する第2クラスタリング部と、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出する物体検出部とを備える。 The object detection system of the present invention includes a distance measuring device and an object detection device. The object detection device, a distance image acquisition unit that acquires a distance image having distance measurement data in each distance measurement direction of the distance measurement device as a pixel value, a non-background pixel extraction unit that extracts a non-background pixel from the distance image, The relative distance between two points in the space corresponding to two adjacent non-background pixels is calculated based on the distance measurement direction of the non-background pixel and the distance measurement data, and the adjacent non-pixels are calculated based on the relative distance. A first clustering unit that generates an object candidate cluster that is a set of the non-background pixels by repeatedly performing a process of determining whether or not the background pixels belong to the same cluster, and a distance image whose acquisition times are adjacent to each other. A set of the object candidate clusters is obtained by repeatedly performing a process of determining whether or not two object candidate clusters to be determined belong to the same cluster based on the relative distance in space of the determined object candidate clusters. A second clustering unit that generates a multi-layered cluster, and an object that detects one or more object candidate clusters in each range image included in the multi-layered cluster as an object when the multi-layered cluster satisfies a predetermined condition. And a detector.
このように、本発明は、距離画像から抽出した非背景画素をクラスタリングして物体の候補の画素の集合である物体候補クラスタを生成する。物体候補クラスタは、空間内における対応点の相対距離が近い画素の集まりであり、物体候補クラスタを構成する各画素は物体または物体の一部に対応すると考えられる。なお、本明細書では、測距装置から対象物までの距離に対して、空間内での対応点の間の距離を「相対距離」と呼ぶ。 As described above, the present invention clusters the non-background pixels extracted from the distance image to generate an object candidate cluster that is a set of object candidate pixels. An object candidate cluster is a group of pixels whose relative distances between corresponding points in space are short, and each pixel forming the object candidate cluster is considered to correspond to an object or a part of an object. In this specification, the distance between corresponding points in space with respect to the distance from the distance measuring device to the object is referred to as “relative distance”.
そして、本発明は、取得時刻が異なる複数の距離画像から生成された複数の物体候補クラスタを時間方向にクラスタリングすることにより、多層化クラスタを生成する。多層化クラスタに含まれる物体候補クラスタは、時間の経過と共に移動する物体候補クラスタの集まりであると考えられる。 Then, the present invention generates a multi-layered cluster by clustering in the time direction a plurality of object candidate clusters generated from a plurality of range images having different acquisition times. The object candidate clusters included in the multi-layered cluster are considered to be a group of object candidate clusters that move over time.
多層化クラスタが所定の条件を満たすときに、多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出することにより、ある時刻の距離画像にノイズが含まれていたとしてもそのノイズの影響を受けにくく、適切に物体を検出することができる。例えば、時刻t−1の距離画像から生成された物体候補クラスタB1と時刻tの距離画像から生成された物体候補クラスタB2,B3が多層化クラスタを構成し、所定の条件を満たした場合、物体候補クラスタB1が物体であると検出されると共に、物体候補クラスタB2,B3が物体候補クラスタB1と同じ物体として検出される。このように、時刻tにおいてはノイズによって物体候補クラスタB2,B3に分断された場合であっても、物体候補クラスタB2,B3を一つの物体として適切に判定できる。 When the multi-layered cluster satisfies a predetermined condition, one or a plurality of object candidate clusters in each range image included in the multi-layered cluster are detected as an object, so that the range image at a certain time contains noise. However, the object is not easily affected by the noise, and the object can be appropriately detected. For example, when the object candidate cluster B1 generated from the distance image at time t−1 and the object candidate clusters B2 and B3 generated from the distance image at time t form a multi-layered cluster and satisfy a predetermined condition, the object The candidate cluster B1 is detected as an object, and the object candidate clusters B2 and B3 are detected as the same object as the object candidate cluster B1. Thus, at time t, even if the object candidate clusters B2 and B3 are divided by noise, the object candidate clusters B2 and B3 can be appropriately determined as one object.
また、本発明の第1クラスタリング部は、非背景画素を3次元空間座標に変換することなく、隣接する2つの非背景画素に対応する空間内の2点間の相対距離を画素値(測距方向及びその測距データ)から計算し、その相対距離に基づいてクラスタリングを行う。このように画素値に対応する3次元空間座標に変換するのではなく、画素値から相対距離を計算することにより、非背景画素に対応する空間内の点までの遠近にかかわらず、適切なクラスタリングを行うことができる。 In addition, the first clustering unit of the present invention calculates the relative distance between two points in the space corresponding to two adjacent non-background pixels as a pixel value (ranging distance) without converting the non-background pixels into three-dimensional space coordinates. Direction and its distance measurement data), and clustering is performed based on the relative distance. In this way, by calculating the relative distance from the pixel value instead of converting it into the three-dimensional space coordinates corresponding to the pixel value, it is possible to perform appropriate clustering regardless of the perspective to the point in the space corresponding to the non-background pixel. It can be performed.
また、隣接する非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うクラスタリングを行うので、クラスタリング処理の計算量を抑えることができる。なお、第2クラスタリング部も、第1クラスタリング部と同様に、計算量を抑えつつ適切なクラスタリングを行うことができる。 In addition, since clustering is performed by repeatedly performing the process of determining whether adjacent non-background pixels belong to the same cluster, the amount of calculation of the clustering process can be suppressed. Note that the second clustering unit can also perform appropriate clustering while suppressing the amount of calculation, similarly to the first clustering unit.
本発明の物体検出装置において、前記第2クラスタリング部は、判定対象の前記物体候補クラスタの空間内での相対距離に、その物体候補クラスタを生成した距離画像の取得時刻の時間間隔に応じた重み付けをし、重み付け後の距離に基づいて前記物体候補クラスタのクラスタリングを行ってもよい。 In the object detection device of the present invention, the second clustering unit weights the relative distance in space of the object candidate cluster to be determined according to the time interval of the acquisition time of the distance image that generated the object candidate cluster. The object candidate clusters may be clustered based on the weighted distance.
距離画像の取得時刻の時間間隔が異なる場合には、その時間間隔の間に物体が移動する距離が異なるが、本発明の構成によれば、距離画像の取得時刻の時間間隔が異なる場合にも、取得時刻の間隔に応じて適切に多層化クラスタを生成できる。 When the time intervals of the acquisition times of the range images are different, the distances that the object moves during the time intervals are different, but according to the configuration of the present invention, even when the time intervals of the acquisition times of the range images are different. , It is possible to appropriately generate a multi-layered cluster according to the interval of acquisition time.
本発明の物体検出装置において、前記測距装置は、主方向及び副方向の2次元に走査する測距装置であって、前記第1クラスタリング部は、前記距離画像を前記主方向に対応する複数の領域に分割し、分割された各領域内で前記非背景画素のクラスタリングを行って線セグメントを生成する主方向クラスタリング部と、隣接した領域で生成された前記線セグメントの空間内での相対距離に基づいて、前記線セグメントのクラスタリングを行って前記物体候補クラスタを生成する副方向クラスタリング部とを備えてもよい。 In the object detection device of the present invention, the distance measuring device is a distance measuring device that performs two-dimensional scanning in a main direction and a sub direction, and the first clustering unit includes a plurality of distance images corresponding to the main direction. And a main direction clustering unit that generates a line segment by performing clustering of the non-background pixels in each divided region, and a relative distance in space of the line segment generated in an adjacent region. And a sub-direction clustering unit that clusters the line segments to generate the object candidate clusters.
このように主方向と副方向のそれぞれについてクラスタリングを行うことにより、クラスタリングの計算量を抑えつつ、3次元の物体候補クラスタを生成することができる。 By performing clustering in each of the main direction and the sub-direction in this way, it is possible to generate a three-dimensional object candidate cluster while suppressing the amount of clustering calculation.
前記第2クラスタリング部において、前記判定対象の2つの前記物体候補クラスタの相対距離を求める処理は、前記2つの物体候補クラスタにおいて、副方向が共通する画素の間で相対距離の計算を行い、当該副方向が共通する画素の組合せのうちで最小の相対距離を求める第1の処理と、前記第1の処理を副方向を変えて行ってそれぞれの方向での最小相対距離を求め、求めた最小相対距離のうちで最も小さい最小相対距離を、前記2つの物体候補クラスタの相対距離として求める第2の処理とを行ってもよい。このように副方向の異なる画素間の組合せによる相対距離を考慮しないことにより、大幅に計算量が削減できる。 In the second clustering unit, the process of obtaining the relative distance between the two object candidate clusters to be determined is performed by calculating a relative distance between pixels having a common sub-direction in the two object candidate clusters. A first process for obtaining the minimum relative distance among combinations of pixels having a common sub-direction, and a minimum relative distance in each direction obtained by performing the first process while changing the sub-direction. A second process of obtaining the smallest minimum relative distance among the relative distances as the relative distance between the two object candidate clusters may be performed. As described above, the calculation amount can be significantly reduced by not considering the relative distance due to the combination of pixels in different sub-directions.
本発明の物体検出装置において、前記物体検出部は、前記多層化クラスタに含まれる前記物体候補クラスタの大きさと、前記多層化クラスタに含まれる画素数とに基づいて物体を検出してもよい。 In the object detection device of the present invention, the object detection unit may detect an object based on the size of the object candidate cluster included in the multilayer cluster and the number of pixels included in the multilayer cluster.
この構成により、検出したい物体とノイズとを切り分けて物体を検出することができる。例えば、飛び回っている虫などのようなノイズ源を物体候補クラスタとして多層化クラスタを生成してしまった場合にも、物体候補クラスタの大きさや多層化クラスタに含まれる画素数の条件によって除外できる。 With this configuration, an object can be detected by separating the object to be detected from noise. For example, even if a noise source such as a flying insect is used as an object candidate cluster and a multi-layered cluster is generated, it can be excluded depending on the size of the object candidate cluster and the number of pixels included in the multi-layered cluster.
本発明の物体検出装置は、前記多層化クラスタから検出された各距離画像における物体の位置の遷移に基づいて、前記物体の移動方向及び移動速度を求める物体移動検知部を備えてもよい。また、前記物体移動検知部は、検出された物体の画素値を3次元空間座標系の位置データに変換して3次元空間内で物体が占める空間を特定し、物体の移動方向及び移動速度を求めてもよい。 The object detection device of the present invention may include an object movement detection unit that obtains a movement direction and a movement speed of the object based on the transition of the position of the object in each distance image detected from the multilayer cluster. In addition, the object movement detection unit converts the pixel value of the detected object into position data of a three-dimensional space coordinate system to specify a space occupied by the object in the three-dimensional space, and determines a moving direction and a moving speed of the object. You may ask.
この構成により、ノイズの影響を低減して検出した物体の情報に基づいて、物体の移動方向及び移動速度を精度良く求めることができる。 With this configuration, the moving direction and the moving speed of the object can be accurately obtained based on the information of the object detected by reducing the influence of noise.
本発明の物体検出装置は、前記物体の移動方向及び移動速度に基づいて、異なる時刻に検出された物体の中から同一の物体を検出し、物体の追跡を行う物体追跡部を備えてもよい。 The object detection device of the present invention may include an object tracking unit that detects the same object from the objects detected at different times based on the moving direction and the moving speed of the object and tracks the object. ..
物体の移動方向及び移動速度は、短時間のうちには大きく変化しないことが多いので、本発明の構成により、先に検出した物体と同一の物体を検出し、物体の追跡を行える。 Since the moving direction and moving speed of an object often do not change significantly in a short time, the same object as the previously detected object can be detected and the object can be tracked by the configuration of the present invention.
本発明の物体検出装置は、前記物体検出部にて検出された物体の移動方向及び移動速度に基づいて、所定時間経過後にその物体が存在する範囲を推定し、その範囲を物体の探索範囲として設定する探索範囲設定部を備え、前記物体追跡部は、前記所定時間経過後に前記探索範囲の中から検出された物体を先の時刻に検出された物体と同一の物体であると判定してもよい。 The object detection device of the present invention, based on the moving direction and the moving speed of the object detected by the object detection unit, estimates the range in which the object exists after a lapse of a predetermined time, the range as the search range of the object A search range setting unit for setting is provided, and the object tracking unit determines that the object detected from the search range after the predetermined time has passed is the same object as the object detected at the previous time. Good.
このように物体の移動先と推定される探索範囲を設定することにより、同一の物体の追跡精度を高めることができる。 By setting the search range estimated to be the moving destination of the object in this way, it is possible to improve the tracking accuracy of the same object.
本発明の物体検出方法は、物体検出装置によって、測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出する方法であって、前記物体検出装置が、前記距離画像を取得するステップと、前記物体検出装置が、前記距離画像から非背景画素を抽出するステップと、前記物体検出装置が、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、前記物体検出装置が、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、前記物体検出装置が、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップとを備える。 An object detection method of the present invention is a method for detecting an object by an object detection device based on a distance image having distance measurement data in each distance measurement direction of a distance measurement device as a pixel value, wherein the object detection device comprises: Obtaining the range image, the object detecting device extracting non-background pixels from the range image, and the object detecting device having two points in a space corresponding to two adjacent non-background pixels. Repeat the process of calculating the relative distance between the non-background pixels based on the distance measurement direction and the distance measurement data, and determining whether the adjacent non-background pixels belong to the same cluster based on the relative distance. By performing the step of generating an object candidate cluster that is a set of non-background pixels, the object detection apparatus, the acquisition time to the relative distance in space of the object candidate cluster respectively generated from the adjacent distance image. A step of generating a multi-layered cluster that is a set of the object candidate clusters by repeatedly performing a process of determining whether or not two object candidate clusters to be determined belong to the same cluster based on the above; However, when the multi-layered cluster satisfies a predetermined condition, one or a plurality of object candidate clusters in each range image included in the multi-layered cluster are detected as an object.
本発明のプログラムは、測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出するためのプログラムであって、コンピュータに、前記距離画像を取得するステップと、前記距離画像から非背景画素を抽出するステップと、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップとを実行させる。 A program of the present invention is a program for detecting an object based on a distance image having distance measurement data in each distance measurement direction of a distance measuring device as a pixel value, and a step of acquiring the distance image in a computer. A step of extracting a non-background pixel from the distance image, and a relative distance between two points in a space corresponding to two adjacent non-background pixels, based on a ranging direction of the non-background pixel and the ranging data. A step of generating an object candidate cluster, which is a set of the non-background pixels, by repeatedly performing a process of determining whether or not the adjacent non-background pixels belong to the same cluster based on the relative distance. , The process of determining whether two object candidate clusters to be determined belong to the same cluster is repeatedly performed based on the relative distance in space of the object candidate clusters that are respectively generated from the distance images whose acquisition times are adjacent to each other. Thereby generating a multi-layered cluster which is a set of the object candidate clusters, and when the multi-layered cluster satisfies a predetermined condition, one or more objects in each distance image included in the multi-layered cluster. Detecting the candidate cluster as an object.
本発明は、測距装置から取得した距離画像の中から、ノイズの影響を低減して、適切に物体を検出することができる。 According to the present invention, it is possible to appropriately detect an object by reducing the influence of noise from the range image acquired from the range finder.
以下、本発明に係る実施の形態に係る物体検出システムについて、図面を参照しながら具体的に説明する。本実施の形態では、所定の物体検出領域に進入する人物を検出する物体検出装置を例として説明する。 Hereinafter, an object detection system according to an embodiment of the present invention will be specifically described with reference to the drawings. In the present embodiment, an object detection device that detects a person who enters a predetermined object detection area will be described as an example.
(第1の実施の形態)
図1は、本発明の第1の実施形態に係る物体検出システム1の概略構成を示すブロック図である。物体検出システム1は、測距装置10と、物体検出装置20とを備えている。
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an
[測距装置]
測距装置10は、測定光を照射し、照射方向にある対象物からの反射光に基づいて照射方向にある対象物との距離を算出する。測距装置10は2次元走査型の測距装置であり、3次元空間を2次元方向に測距方向を走査する。測距装置10は、各測距方向について対象物までの距離を算出する。これにより、各測距方向における測距データを画素値とする距離画像が得られる。
[Distance measuring device]
The
距離画像は2次元画像であり、走査方向の一方(主方向)のインデックスをims1とし、他方(副方向)のインデックスをims2とする。距離画像の主方向および副方向の画素数をそれぞれNms1,Nms2とすると、インデックスims1は1〜Nms1の値をとり得、インデックスims2は1〜Nms2の値をとり得る。 The range image is a two-dimensional image, and one index (main direction) in the scanning direction is ims1 and the other index (sub direction) is ims2. When the number of pixels in the main direction and the number of pixels in the sub direction of the range image are Nms1 and Nms2, respectively, the index ims1 can take a value of 1 to Nms1 and the index ims2 can take a value of 1 to Nms2.
図2(a)及び図2(b)は、測距装置10を詳しく説明する図である。測距装置10は、物体検出領域内の遮蔽物をできるだけ避けられるよう、物体検出領域の上方に設置されるのが望ましい。そして、本実施の形態の測距装置10は、2次元方向として、水平方向および垂直方向に走査を行う機能を有する。すなわち、測距装置10は、水平方向に走査する走査系を、さらに垂直方向に走査する。図2(a)に示すように、水平方向の測距角度θms1は正面を0度として−95〜+95度をとり得る。図2(b)に示すように、垂直方向の測距角度θms2は水平方向を0度として0〜−90度をとり得る。測距角度の組(θms1,θms2)は、測距の方向を示す。
2A and 2B are diagrams for explaining the
測距装置10は、ある測距角度の組(θms1,θms2)が示す方向に測定光を照射する。そして、測距装置10は、反射光に基づいて、この方向にある対象物と測距装置10との距離Rを算出する。そして、測距装置10は、算出された距離Rを、当該測距角度の組(θms1,θms2)と対応する、距離画像における画素(ims1,ims2)の値とする。以下、距離画像における画素(ims1,ims2)が示す距離(データ)をR(ims1,ims2)と表記する。測距装置10は、測距角度の組における距離データを得るため、図2に示す走査範囲を離散的に走査する。
The
なお、ある測距角度の組(θms1,θms2)と、距離画像における画素(ims1,ims2)との対応関係は予め一意に定められている。逆にいうと、距離画像における画素(ims1,ims2)に対して、測距角度の組(θms1,θms2)が定まる。 Note that the correspondence between a set of distance measurement angles (θms1, θms2) and the pixels (ims1, ims2) in the distance image is uniquely determined in advance. Conversely, a set of distance measurement angles (θms1, θms2) is determined for the pixels (ims1, ims2) in the distance image.
測距方式としては、公知の手法を適用することができる。例えば特許第4837413号に記載のTOF(Time of Flight)方式は、物体検出領域に向かってパルス状の測定光を照射し、照射時と反射光検出時との時間差に基づいて、対象物までの距離を算出するものである。また、特許第4703830号に記載のAM(Amplitude Modulation)方式は、物体検出領域に向かって振幅変調された測定光を照射し、測定光と反射光の位相差に基づいて、対象物までの距離を算出するものである。なお、測距装置10の構成や、主副走査パターン、測距方式に特に制限はなく、上述した例とは異なるものであっても構わない。
A known method can be applied as the distance measuring method. For example, the TOF (Time of Flight) method described in Japanese Patent No. 4837413 irradiates a pulsed measurement light toward an object detection area, and based on the time difference between the irradiation time and the reflected light detection time, The distance is calculated. Further, the AM (Amplitude Modulation) method described in Japanese Patent No. 4703830 irradiates an object detection area with measurement light whose amplitude is modulated, and based on the phase difference between the measurement light and the reflected light, the distance to the object. Is calculated. The configuration of the
以上に測距装置10の構成について説明した。測距装置10は、水平方向と垂直方向の2方向に走査可能な装置であるが、第1の実施の形態では、水平方向にのみ走査を行って物体検出装置20に1次元の距離画像のデータを入力する例について説明し、第2の実施の形態において、水平方向および垂直方向に走査を行って物体検出装置20に2次元の距離画像のデータを入力する例を説明する。
The configuration of the
[物体検出の概要]
物体検出装置20の詳しい説明に入る前に、本実施の形態の物体検出装置20による物体検出の概要について説明する。ここでは、物体検出の概要の理解のため、水平方向の1元走査のみを行う例を挙げて説明するが、2次元走査を行う場合にももちろんあてはまる。
[Outline of object detection]
Before entering a detailed description of the
図3(a)は、検出対象である人物が時刻t−4から時刻tにかけて移動する例を示している。測距装置10を水平方向に走査して測距を行うと、図3(b)に示すように角度θms1ごとに対象物までの距離Rが得られる。なお、測距装置10による走査は人物の動きよりも十分早く、各時刻において水平方向の走査を完了する。
FIG. 3A illustrates an example in which a person who is a detection target moves from time t-4 to time t. When the
図3(b)に記載した「×」の印は、時刻t−2の測距においてノイズが入ったことを示す。つまり、時刻t−2に測距画像を取得する際に、測距装置10と人物との間に虫や落ち葉などのノイズ源が介在して、人物の一部を測距できなかったことを示している。
The mark "x" described in FIG. 3B indicates that noise is included in the distance measurement at time t-2. That is, when a distance measurement image is acquired at time t-2, a noise source such as an insect or a fallen leaf is interposed between the
図4は、測距装置10により得られた測距データについて説明する図である。時刻t−4から時刻tの各時刻に取得した測距画像は、測距方向ごとに距離データを有する。具体的には、測距方向を示すインデックスims1に関連付けて距離R(ims1)のデータを有している。
FIG. 4 is a diagram illustrating distance measurement data obtained by the
図4において、網掛けをした画素は非背景画素であり、網掛けのない画素は背景画素である。あらかじめ物体検出領域内の背景の距離データを記憶しておき、観測された測距データから背景データを差し引き、差分の大きい画素を抽出することで、非背景画素を求めることができる。 In FIG. 4, shaded pixels are non-background pixels, and non-shaded pixels are background pixels. By storing background distance data in the object detection area in advance, subtracting the background data from the observed distance measurement data, and extracting pixels with a large difference, non-background pixels can be obtained.
図4において、網掛けの種類は、同じ物体から得られたデータであることを示している。ここでは説明の便宜上、物体ごとに異なる網掛けをしているが、実際には、物体検出を行わなければ物体が同じなのか異なるかは分からない。図4において斜めの網掛けは、図3(a)及び図3(b)で示した人物までの距離Rを表わす。時刻t−2の画素N1は、その左右の画素とは異なる対象物からの測距データであるが、これは人物と測距装置10との間に(つまり人物よりも手前に)ノイズ源が介在し、測定光を遮ったために生じたものである。本実施の物体検出は、このようなノイズ源があっても人物を適切に検出するものである。 In FIG. 4, the shaded type indicates that the data is obtained from the same object. Here, for convenience of explanation, different objects are shaded, but in reality, it is not known whether the objects are the same or different unless the objects are detected. In FIG. 4, diagonal hatching represents the distance R to the person shown in FIGS. 3A and 3B. The pixel N1 at time t-2 is distance measurement data from an object different from the left and right pixels, but this is because a noise source is present between the person and the distance measuring device 10 (that is, in front of the person). It is caused by intervening and blocking the measuring light. The object detection according to the present embodiment appropriately detects a person even if there is such a noise source.
本実施の形態では、各時刻に取得した距離画像ごとに、その距離画像に含まれる非背景画素をクラスタリングし、物体候補クラスタを生成する。ここでのクラスタリングは、隣接する非背景画素が同じクラスタに含まれるか否かを順次判定することにより行う。隣接する2つの非背景画素にそれぞれ対応する空間内の2点の相対距離が所定の閾値以下である場合に隣接する2つの画素が同じクラスタに含まれると判定し、相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する。 In the present embodiment, for each distance image acquired at each time, non-background pixels included in the distance image are clustered to generate an object candidate cluster. The clustering here is performed by sequentially determining whether or not adjacent non-background pixels are included in the same cluster. When the relative distance between two points in the space corresponding to two adjacent non-background pixels is less than or equal to a predetermined threshold value, it is determined that the two adjacent pixels are included in the same cluster, and the relative distance is greater than the predetermined threshold value. If they are larger, it is determined that they are not included in the same cluster.
図5(a)は、物体候補クラスタの例を示す図である。時刻t−4の距離画像においては物体候補クラスタB4が生成され、時刻t−3の距離画像においては物体候補クラスタB3が生成され、時刻tの距離画像においては物体候補クラスタB0が生成された。時刻t−2の距離画像においては、画素N1とその左右の非背景画素とが同じクラスタではないと判定され、2つの物体候補クラスタB21,B22が生成された。時刻t−1の距離画像においては、人物以外にも非背景画素N2,N3があるため、この2つの非背景画素N2,N3からなる物体候補クラスタB11が生成された。 FIG. 5A is a diagram showing an example of object candidate clusters. An object candidate cluster B4 is generated in the distance image at time t-4, an object candidate cluster B3 is generated in the distance image at time t-3, and an object candidate cluster B0 is generated in the distance image at time t. In the distance image at time t-2, it is determined that the pixel N1 and the left and right non-background pixels are not the same cluster, and two object candidate clusters B21 and B22 are generated. In the distance image at time t−1, since there are non-background pixels N2 and N3 in addition to the person, the object candidate cluster B11 composed of these two non-background pixels N2 and N3 was generated.
次に、物体候補クラスタを時間方向にクラスタリングして、多層化クラスタを生成する。ここでのクラスタリングは、取得時刻が隣接する2つの距離画像から得られたそれぞれの物体候補クラスタが同じクラスタに含まれるか否かを順次判定することにより行う。2つの物体候補クラスタの相対距離が所定の閾値以下である場合に隣接する物体候補クラスタが同じクラスタに含まれると判定し、相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する。 Next, the object candidate clusters are clustered in the time direction to generate a multi-layered cluster. The clustering here is performed by sequentially determining whether or not respective object candidate clusters obtained from two distance images whose acquisition times are adjacent to each other are included in the same cluster. When the relative distance between two object candidate clusters is less than or equal to a predetermined threshold value, it is determined that adjacent object candidate clusters are included in the same cluster, and when the relative distance is greater than the predetermined threshold value, they are not included in the same cluster. judge.
図5(b)は、多層化クラスタCmの例を示す図である。物体候補クラスタB4と物体候補クラスタB3は同じクラスタに含まれると判定され、物体候補クラスタB3と物体候補クラスタB21,B22は同じクラスタに含まれると判定され、物体候補クラスタB21,B22と物体候補クラスタB12は同じクラスタに含まれると判定され、物体候補クラスタB12と物体候補クラスタB0が同じクラスタに含まれると判定された結果、物体クラスタB4,B3,B21,B22,B12,B0からなる多層化クラスタCmが生成された。 FIG. 5B is a diagram showing an example of the multilayer cluster Cm. It is determined that the object candidate cluster B4 and the object candidate cluster B3 are included in the same cluster, the object candidate cluster B3 and the object candidate clusters B21, B22 are included in the same cluster, and the object candidate clusters B21, B22 and the object candidate clusters are included. B12 is determined to be included in the same cluster, and it is determined that the object candidate cluster B12 and the object candidate cluster B0 are included in the same cluster, and as a result, a multi-layered cluster including object clusters B4, B3, B21, B22, B12, B0. Cm was produced.
そして、多層化クラスタCmが所定の条件を満たす場合に多層化クラスタCmに含まれる物体候補クラスタを物体として検出する。所定の条件は、物体候補クラスタのサイズや多層化クラスタCmに含まれる物体候補クラスタの総画素数に関するものであり、例えば、多層化クラスタCmに含まれる物体候補クラスタのサイズが所定の大きさより大きく、かつ、多層化クラスタCmに含まれる物体候補クラスタの総画素数が所定の閾値以上である場合に、多層化クラスタCmに含まれる物体候補クラスタを物体であると判定する。 Then, when the multilayer cluster Cm satisfies a predetermined condition, the object candidate cluster included in the multilayer cluster Cm is detected as an object. The predetermined condition relates to the size of the object candidate cluster or the total number of pixels of the object candidate cluster included in the multi-layered cluster Cm. For example, the size of the object candidate cluster included in the multi-layered cluster Cm is larger than the predetermined size. Further, when the total number of pixels of the object candidate clusters included in the multilayer cluster Cm is equal to or larger than a predetermined threshold value, the object candidate clusters included in the multilayer cluster Cm are determined to be objects.
多層化クラスタCmが所定の条件を満たす場合には、距離画像ごとに物体を検出する。例えば、時刻t−4の距離画像のように多層化クラスタCmに1つの物体候補クラスタB4が含まれる場合には、物体候補クラスタB4を物体であると検出する。時刻t−2の距離画像のように、2つの物体候補クラスタB21,B22を含んでいる場合には、2つの物体候補クラスタB21,B22は時刻t−4で検出した物体と同じ1つの物体を示していると判定する。これにより、時刻t−2のようにノイズ源によって2つの物体候補クラスタに分かれてしまった場合でも、他の時刻に取得した距離画像も含めて生成した多層化クラスタCmの情報を用いて1つの物体であることを検出することができる。 When the multilayer cluster Cm satisfies a predetermined condition, an object is detected for each range image. For example, when one layer of the object candidate cluster B4 is included in the multi-layered cluster Cm as in the distance image at time t-4, the object candidate cluster B4 is detected as an object. When two object candidate clusters B21 and B22 are included as in the distance image at time t-2, the two object candidate clusters B21 and B22 are the same one object detected at time t-4. It is determined to indicate. As a result, even when the object is divided into two object candidate clusters due to the noise source as at time t-2, one object is obtained by using the information of the multi-layered cluster Cm generated including the range images acquired at other times. It can be detected as an object.
また、時刻t−1における画素N2,N3のように一瞬だけ現れた非背景画素については、その前後の時刻において物体候補クラスタが連続していないことからノイズであると判断でき、ノイズ源を物体と誤って検出してしまうことがない。 In addition, non-background pixels that appear for a moment, such as the pixels N2 and N3 at time t-1, can be determined to be noise because the object candidate clusters are not continuous at the times before and after that, and the noise source is the object. It will not be erroneously detected.
[物体検出装置の構成]
図1を参照して物体検出装置20の構成について説明する。物体検出装置20は、距離画像取得部21と、非背景画素抽出部22と、第1クラスタリング部23と、第2クラスタリング部24と、物体検出部25と、出力部26とを有している。これら各部の一部または全部は、ハードウェアで構成されてもよいし、コンピュータのプロセッサが所定のプログラムを実行することによって実現されてもよい。
[Configuration of object detection device]
The configuration of the
距離画像取得部21は、測距装置10によって生成された距離画像を取得する。第1の実施の形態においては、水平方向の走査をしたときの距離画像のデータを取得するものとする。この場合、距離画像の各画素(ims1)の値は、画素に対応する方向にある対象物までの距離R(ims1)を示す。
The distance
非背景画素抽出部22は、距離画像から非背景の画素(ims1)を抽出する。なお、「背景」は、測距装置10の測距対象となり得るが、物体として検出する必要がないものであり、例えば床や天井、固定された家具などである。非背景画素抽出部22は、背景画像データ記憶部27に記憶された背景画像と距離画像とを比較して、その差分が所定の閾値以上の画素を非背景画素として抽出する。
The non-background
ここで、背景画像データ記憶部27に記憶される背景画像は、例えば物体検出領域内に物体が何もない状態で、測距装置10によって生成された距離画像とすることができる。あるいは、測距装置10によって生成された多数の距離画像を画素ごとに平均した平均距離画像であってもよい。後者の場合、測距装置10のノイズの影響を抑えることができるし、物体検出領域内に物体が何もない状態を実現することが難しい場合でも、背景画像を生成できる。なお、平均としては、算術平均のほか、幾何平均や刈り込み平均などを用いることができる。
Here, the background image stored in the background image
第1クラスタリング部23は、非背景画素抽出部22にて抽出した非背景画素をクラスタリングして、物体候補クラスタを生成する。第1クラスタリング部23は、ある非背景画素(画素(ims1)とする)が示す空間内での点と、隣接する非背景画素(画素(i’ms1)とする)が示す空間内での点との相対距離Rrltvを算出し、この相対距離Rrltvに基づいてクラスタリングを行う。ここで、「隣接する非背景画素」について説明する。距離画像は、測距方向ごとの距離データを画素として有しており、測距方向によって隣接する画素を規定することができる。画素には、背景画素と非背景画素があり、非背景画素の隣りの画素は必ずしも非背景画素であるとは限らないが、「隣接する非背景画素」とは、隣りが背景画素の場合には、その背景画素を飛ばして隣りの画素を見ていき、最初に現れる非背景画素が「隣接する非背景画素」である。
The
隣接する非背景画素の相対距離は、非背景画素(ims1)が示す対象物と測距装置10との距離R(i’ms1)と、隣接する非背景画素(i’ms1)が示す対象物と測距装置10との距離R(i’ms1)とに基づいて算出される。図6は、画素間の相対距離Rrltvを算出する手法を説明する図である。図示のように、画素(ims1)が示す点P(ims1)は、測距装置10を原点Oとして、距離R(ims1)とその測距方向を表わすベクトルD(ims1)によって特定される。同様に、画素(i’ms1)が示す点P’(i’ms1)は、距離R(i’ms1)とその測距方向を表わすベクトルD(i’ms1)によって特定される。
The relative distance between adjacent non-background pixels is the distance R (i'ms1) between the object indicated by the non-background pixel (ims1) and the
第1クラスタリング部23は、これらの距離R,R’と測距方向を表わすベクトルD,D’に基づき、三角形OPP’に余弦定理を適用して相対距離Rrltvを算出する。具体的には、下記(1)式により、画素(ims1)と、画素(i’ms1)との相対距離Rrltv((ims1),(i'ms1))が得られる。
The
第1クラスタリング部23は、隣接する非背景画素の相対距離Rrltvが所定の閾値(例えば0.20[m])以下である場合、その2画素が同一のクラスタに属すると判定し、相対距離Rrltvが所定の閾値より大きい場合、その2画素は同一のクラスタには属しないと判定する。隣接する2つの非背景画素間の相対距離Rrltvと閾値との比較評価を、距離画像を構成する全画素について順次行うことで、距離画像に含まれる非背景画素を複数の物体候補クラスタに分ける。
When the relative distance R rltv between adjacent non-background pixels is equal to or smaller than a predetermined threshold value (for example, 0.20 [m]), the
図1に戻って第2クラスタリング部24について説明する。第2クラスタリング部24は、第1のクラスタリングで生成された複数の物体候補クラスタを時間方向にクラスタリングして、多層化クラスタを生成する。第2クラスタリング部24は、所定の時刻の距離画像から得られた物体候補クラスタと、隣接する時刻の距離画像から得られた物体候補クラスタとの間の相対距離RB2rltvを算出する。
Returning to FIG. 1, the
物体候補クラスタどうしの相対距離RB2rltvは、各物体候補クラスタに含まれるすべての画素どうしの相対距離を算出し、最小の相対距離を物体候補クラスタの相対距離RB2rltvとして求める。具体的には、下記(2)式により、所定の時刻tに取得した距離画像から得られたjt番目の物体候補クラスタB(t,jt)と、隣接する時刻t−1に取得した距離画像から得られたj't-1番目の物体候補クラスタB(t-1,j't-1)との相対距離RB2rltvが得られる。
第2クラスタリング部24も、各画素が示す点をXY座標系に変換することなく、距離画像の各画素が示す距離Rと測距走査方向ベクトルDとに基づいて画素間の相対距離RB2rltvを算出する。これにより、クラスタリングの計算量を減らすことができる。
The
そして、第2クラスタリング部24は、相対距離RB2rltvが所定の閾値(例えば0.50[m])以下である場合、その2つの物体候補クラスタが同一のクラスタに属すると判断し、相対距離RB2rltvが所定の閾値より大きい場合、その2つの物体候補クラスタが異なるクラスタに属すると判断する。隣接する時刻に取得した距離画像から得られた物体候補クラスタの間の相対距離RB2rltvと閾値との比較評価を、全ての物体候補クラスタについて順次行うことで、1または複数の多層化クラスタが形成される。
Then, when the relative distance R B2rltv is equal to or less than a predetermined threshold value (for example, 0.50 [m]), the
図1に戻って物体検出部25について説明する。物体検出部25は、第2クラスタリング部24にて生成された多層化クラスタが所定の条件を満たすか否かに基づいて、物体を検出する。本実施の形態において用いる条件は、多層化クラスタCmに含まれる最大の物体候補クラスタのサイズが所定の大きさ(例えば、0.5m)より大きく、かつ、多層化クラスタCmに含まれる物体候補クラスタの総画素数が所定の閾値(例えば、20画素)以上である場合に、多層化クラスタCmに含まれる物体候補クラスタを物体であると判定する。多層化クラスタCmが所定の条件を満たす場合には、物体検出部25は、距離画像ごとに物体を検出する。つまり、距離画像から得られた1又は複数の物体候補クラスタを1つの物体として検出する。
Returning to FIG. 1, the
出力部26は、物体検出部25にて検出された物体を出力座標系に応じて出力する。物体検出部25で検出された物体はθms1,R,Tの3次元の観測点の集合である。そのままで出力するのならば、出力部26は、R-θms1-T座標系で出力する。時間の情報が不要な場合には、例えば距離画像と同様なR-θms1座標系で出力する。また、XYT座標系に変換しても良いし、この場合も時間の情報が不要ならXY座標系に変換しても良い。本実施の形態では、XYT座標系に変換して出力する例を取り上げて説明する。出力の態様としては、例えば、モニタ等の表示手段に表示してもよい。
The
図7は、出力部26により出力された物体Kの検出結果の例を示す図である。図7に示すように、XYT座標系において物体Kの検出結果を表示することで、物体の動きを容易に把握することができる。
FIG. 7 is a diagram showing an example of the detection result of the object K output by the
[物体検出装置の動作]
次に、本実施の形態の物体検出装置20の動作について説明する。図8は、物体検出装置20により物体を検出する動作を示すフローチャートである。物体検出装置20は、測距装置10から距離画像のデータを取得する(S10)。測距装置10は、定期的に測距を行って距離画像を生成し、物体検出装置20は測距装置10から定期的に距離画像のデータを取得する。
[Operation of Object Detection Device]
Next, the operation of the
物体検出装置20は、取得した距離画像の中から非背景画素を抽出する(S11)。続いて、物体検出装置20は、距離画像に含まれる非背景画素に対して第1のクラスタリングを行い、非背景画素の集合である物体候補クラスタを生成する(S12)。第1のクラスタリングの処理については、図9を参照して後述する。物体検出装置20は、物体候補クラスタに対して第2のクラスタリングを行い、物体候補クラスタの集合である多層化クラスタを生成する(S13)。第2のクラスタリング処理については、図10を参照して後述する。
The
物体検出装置20は、多層化クラスタが所定の条件を満たすか否かを判定し、物体を検出する(S14)。第2のクラスタリング処理により、複数の多層化クラスタが生成されるが、所定の条件を満たす多層化クラスタからは物体が検出され、所定の条件を満たさない多層化クラスタはノイズとして判断される。
The
物体検出装置20は、検出した物体を示す画素値を空間座標系に変換する(S15)。上述したとおり、検出した物体の位置情報を出力する際には、出力座標系に対応するように変換を行えばよいが、本実施の形態では、物体の位置情報をXYT座標系に変換する。続いて、物体検出装置20は、検出結果を出力する(S16)。
The
図9は、第1のクラスタリングの処理を示すフローチャートである。まず、第1クラスタリング部23は、物体候補クラスタに属する画素を順次追加していくための一時保存領域を確保する(ステップS20)。
FIG. 9 is a flowchart showing the process of the first clustering. First, the
そして、第1クラスタリング部23は、距離画像から処理対象の画素(ims1)を取得する(ステップS21)。処理対象の画素の取得の順序としては、最初に走査範囲の端にある非背景画素を取得し、その後は順次、前の非背景画素に隣接する非背景画素を取得していく。処理対象の画素の取得の順序を記憶した記憶部を備えてもよい。
Then, the
第1クラスタリング部23は、一時保存領域に画素が保存されているか否かを判定する(S22)。一時保存領域に画素が保存されていない場合には(S22でNO)、処理対象の画素を保存領域に保存する(S28)。距離画像から最初に非背景画素を取得したときには、一時保存領域には画素が保存されていないので、最初の処理対象画素は一時保存領域に保存される(S28)。
The
一時保存領域に画素が保存されている場合には(S22でYES)、処理対象画素と隣接する1つ前の処理対象画素を一時保存領域から読み出す(S23)。上述したとおり、第1クラスタリング部23は、隣接する非背景画素を順次読み出しているので、ここで一時保存領域から読み出される非背景画素は、処理対象画素に隣接する非背景画素である。第1クラスタリング部23は、処理対象画素と1つ前の処理対象画素との相対距離Rrltvを上述した式(1)によって算出する(S24)。
If the pixel is stored in the temporary storage area (YES in S22), the immediately preceding processing target pixel adjacent to the processing target pixel is read from the temporary storage area (S23). As described above, since the
第1クラスタリング部23は、求めた相対距離Rrltvが所定の閾値以下であるか否かを判定する(S25)。相対距離Rrltvが所定の閾値以下である場合には(S25でYES)、処理対象画素と、1つ前の処理対象画素が同じクラスタに属すると判定し、第1クラスタリング部23は、処理対象画素を一時保存領域に保存する(S26)。相対距離Rrltvが所定の閾値以下でない場合(S25でNO)、処理対象画素と、1つ前の処理対象画素とは異なるクラスタに属すると判定し、第1クラスタリング部23は、一時保存領域に記憶されている処理対象画素が物体候補クラスタを構成すると確定する(S27)。
The
第1クラスタリング部23は、確定した物体候補クラスタを構成する画素データを別の保存領域に移動すると共に、一時保存領域のデータをクリアする(S27)。このときに、一時保存領域に1つの画素しか保存されていなかったときには、その画素は前後の隣接画素とクラスタを構成するものではないので、別の保存領域に移動することなく一時保存領域からクリアしてもよい。続いて、第1クラスタリング部23は、処理対象画素を一時保存領域に保存する(S28)。
The
第1クラスタリング部23は、距離画像に含まれるすべての非背景画素について処理を行ったか否かを判定し(S29)、まだ未処理の非背景画素がある場合には(S29でNO)、未処理の非背景画素を処理対象画素として抽出するステップに戻り(S21)、上述した処理を繰り返す。
The
図10は、第2のクラスタリングの処理を示すフローチャートである。図11及び図12は、第2のクラスタリングの処理によって多層化クラスタが生成される過程を示す図である。 FIG. 10 is a flowchart showing the process of the second clustering. 11 and 12 are diagrams showing a process in which a multilayer cluster is generated by the second clustering process.
第2クラスタリング部24は、取得時刻が最先の距離画像から生成された物体候補クラスタを多層化クラスタ候補として保存する(S30)。図11(a)に示す例では、最先の取得時刻t−3の2つの物体候補クラスタを多層化クラスタ候補Cm1,Cm2として保存する。
The
第2クラスタリング部24は、隣接する時刻に取得した距離画像を処理対象として選択し(S31)、処理対象の距離画像から得られた物体候補クラスタを処理対象として選択する(S32)。そして、選択された物体候補クラスタと多層化クラスタ候補との相対距離RB2rltvを計算する(S33)。図11(a)に示す例では、取得時刻t−3に隣接する取得時刻t−2の距離画像を処理対象として選択し(S31)、物体候補クラスタB1を処理対象として選択する(S32)。そして、物体候補クラスタB1と多層化クラスタ候補Cm1,Cm2との相対距離RB2rltvを計算する(S33)。
The
第2クラスタリング部24は、相対距離RB2rltvが閾値以下の多層化クラスタ候補があるか否かを判定し(S34)、相対距離RB2rltvが閾値以下の多層化クラスタ候補がある場合には(S34でYES)、その多層化クラスタ候補に処理対象の物体候補クラスタを追加する(S35)。もし、相対距離RB2rltvが閾値以下の多層化クラスタ候補がない場合には(S34でNO)、処理対象の物体候補クラスタを新たな多層化クラスタ候補として保存する(S36)。
The
図11(a)に示す例では、相対距離RB2rltvが閾値以下であることを実線の矢印で示し、閾値以下でないことを点線の矢印で示している。ここでは、物体候補クラスタB1と多層化クラスタ候補Cm1との相対距離RB2rltvが所定の閾値以下であるので、図11(b)に示すように多層化クラスタ候補Cm1に物体候補クラスタB1を加える。多層化クラスタ候補Cm2については、追加される物体候補クラスタがないので、この時点で多層化クラスタ候補Cm2の更新は終了する。 In the example shown in FIG. 11A, a solid arrow indicates that the relative distance R B2rltv is less than or equal to the threshold, and a dotted arrow indicates that the relative distance R B2rltv is not less than or equal to the threshold. Here, since the relative distance R B2rltv between the object candidate cluster B1 and the multi-layered cluster candidate Cm1 is less than or equal to a predetermined threshold value, the object candidate cluster B1 is added to the multi-layered cluster candidate Cm1 as shown in FIG. 11B. With respect to the multi-layered cluster candidate Cm2, there is no object candidate cluster to be added, so the update of the multi-layered cluster candidate Cm2 ends at this point.
第2クラスタリング部24は、処理対象の距離画像の全ての物体候補クラスタについて処理を行ったか否かを判定し(S37)、まだ未処理の物体候補クラスタがある場合には(S37でNO)、未処理の物体候補クラスタを処理対象として選択して(S32)、上述した処理を行う。
The
処理対象の距離画像の全ての物体候補クラスタについて処理を行った場合には(S37でYES)、第2クラスタリング部24は、全ての距離画像を処理したか否か判定し(S38)、未処理の距離画像がある場合には(S38でNO)、処理を行った距離画像と隣接する時刻に取得した距離画像を新たな処理対象として選択し(S31)、上述した処理を行う。全ての距離画像について処理を行った場合には(S38でYES)、生成された多層化クラスタ候補を多層化クラスタとして確定し(S39)、処理を終了する。
When the processing has been performed on all the object candidate clusters of the distance image to be processed (YES in S37), the
図11及び図12を参照して多層化クラスタの生成の過程についてさらに説明する。取得時刻t−2の距離画像についての処理が完了すると、取得時刻t−1の距離画像を処理対象として選択する。その距離画像から処理対象の物体候補クラスタB2〜B4を順次選択して処理を行う。図11(c)に示すように物体候補クラスタB2と多層化クラスタ候補Cm1との相対距離RB2rltvを計算し、所定の閾値以下であると判定し、物体候補クラスタB2を多層化クラスタ候補Cm1に追加する。 The process of generating the multi-layered cluster will be further described with reference to FIGS. 11 and 12. When the processing of the distance image at the acquisition time t-2 is completed, the distance image at the acquisition time t-1 is selected as a processing target. Object candidate clusters B2 to B4 to be processed are sequentially selected from the distance image and processed. As shown in FIG. 11C, the relative distance R B2rltv between the object candidate cluster B2 and the multilayer cluster candidate Cm1 is calculated, and it is determined that the relative distance R B2rltv is less than or equal to a predetermined threshold, and the object candidate cluster B2 is set as the multilayer cluster candidate Cm1. to add.
なお、物体候補クラスタB2と多層化クラスタ候補Cm1との相対距離RB2rltvを求める際に用いるのは、多層化クラスタ候補Cm1に含まれる物体候補クラスタのうち、処理対象である時刻t−1の距離画像と隣接する時刻t−2の距離画像から生成された物体候補クラスタB1との相対距離であり、隣接していない時刻t−3の距離画像から生成された物体候補クラスタとの相対距離ではない。 Note that, when the relative distance R B2rltv between the object candidate cluster B2 and the multi-layered cluster candidate Cm1 is obtained, the distance at the time t−1 that is the processing target among the object candidate clusters included in the multi-layered cluster candidate Cm1 is used. It is the relative distance to the object candidate cluster B1 generated from the distance image at time t-2 adjacent to the image, and is not the relative distance to the object candidate cluster generated from the distance image at time t-3 that is not adjacent. ..
同様に、物体候補クラスタB3と多層化クラスタ候補Cm1との相対距離RB2rltvを計算し、所定の閾値以下であると判定し、物体候補クラスタB3を多層化クラスタ候補Cm1に追加する。続いて、物体候補クラスタB4と多層化クラスタ候補Cm1との相対距離RB2rltvを計算し、所定の閾値以下ではないと判定し、図12(a)に示すように、物体候補クラスタB4を新たな多層化クラスタ候補Cm3とする。 Similarly, the relative distance R B2rltv between the object candidate cluster B3 and the multilayer cluster candidate Cm1 is calculated, and it is determined that the relative distance R B2rltv is equal to or smaller than a predetermined threshold value, and the object candidate cluster B3 is added to the multilayer cluster candidate Cm1. Subsequently, the relative distance R B2rltv between the object candidate cluster B4 and the multilayer cluster candidate Cm1 is calculated, it is determined that the relative distance R B2rltv is not less than or equal to a predetermined threshold, and the object candidate cluster B4 is newly created as shown in FIG. The candidate is a multilayer cluster candidate Cm3.
以上で、時刻t−1の距離画像に含まれる物体候補クラスタB2〜B4の処理が完了したので、時刻tの距離画像を処理対象とする。その距離画像から処理対象の物体候補クラスタB5を選択して処理を行う。図12(b)に示すように、物体候補クラスタB5と多層化クラスタ候補Cm1,Cm3との相対距離RB2rltvを計算し、多層化クラスタ候補Cm1との相対距離RB2rltvが所定の閾値より大きく、多層化クラスタ候補Cm3との相対距離RB2rltvが所定の閾値以下であると判定し、物体候補クラスタB5を多層化クラスタ候補Cm3に追加する。なお、本実施の形態では、取得時刻の古い距離画像の物体候補クラスタから順に多層化クラスタ候補を追加していったが、取得時刻の新しい距離画像から順に多層化クラスタ候補を追加していってもよい。 With the above processing of the object candidate clusters B2 to B4 included in the distance image at time t−1 is completed, the distance image at time t is set as the processing target. The object candidate cluster B5 to be processed is selected from the distance image and processed. As shown in FIG. 12 (b), the relative distance R B2rltv between object candidate clusters B5 and multilayered cluster candidates Cm1, Cm3 calculates the relative distance R B2rltv the multilayered cluster candidates Cm1 is greater than a predetermined threshold value, determining the relative distance R B2rltv the multilayered cluster candidate Cm3 is below a predetermined threshold value, adds an object candidate cluster B5 in multilayered cluster candidates Cm3. In the present embodiment, the multi-layered cluster candidates are added in order from the object candidate cluster of the distance image with the old acquisition time, but the multi-layered cluster candidates are added in order from the new distance image with the acquisition time. Good.
以上のようにした多層化クラスタCm1,Cm2,Cm3を生成する。そして、多層化クラスタ候補を多層化クラスタとして確定する。なお、多層化クラスタ候補の更新を終了したときに1層しかない多層化クラスタ候補Cm2は、多層化クラスタとして確定しない構成としてもよい。 The multi-layered clusters Cm1, Cm2 and Cm3 as described above are generated. Then, the multi-layered cluster candidate is determined as the multi-layered cluster. The multi-layered cluster candidate Cm2 having only one layer when the update of the multi-layered cluster candidate is completed may not be determined as the multi-layered cluster.
本実施の形態の物体検出システム1は、複数の時刻に取得した距離画像から抽出した物体候補クラスタを時間方向にクラスタリングして多層化クラスタを生成し、多層化クラスタが所定の条件を満たすか否かによって物体を検出する。したがって、ある取得時刻においてノイズが含まれていたとしてもそのノイズの影響を受けにくく、適切に物体を検出することができる。図12(c)に示す例では、時刻t−1に取得した距離画像に含まれる2つの物体候補クラスタB2,B3は、多層化クラスタCm1に基づいて物体検出を行うことにより、時刻t−2に検出された物体候補クラスタB1と同じ物体であることを検出することができる。
The
(第2の実施の形態)
図13は、第2の実施の形態の物体検出システム2の構成を示す図である。第2の実施の形態の物体検出システム2の基本的な構成は、第1の実施の形態の物体検出システム1と同じであるが、第2の実施の形態の物体検出システム2は、測距装置10から水平方向及び垂直方向に走査したときの距離画像のデータを取得する。この場合、距離画像の各画素(ims1,ims2)の値は、画素に対応する方向にある対象物までの距離R(ims1,ims2)を示す。
(Second embodiment)
FIG. 13 is a diagram showing the configuration of the
第2の実施の形態の物体検出システム2は、2次元の距離画像を処理するため、物体検出装置20が備える第1クラスタリング部28の構成が異なる。第1クラスタリング部28は、距離画像に含まれる非背景画素をクラスタリングして物体候補クラスタを生成する際に、主方向クラスタリングと副方向クラスタリングを行う。
Since the
第1クラスタリング部28は、主方向クラスタリング部29と副方向クラスタリング部30を有している。主方向クラスタリング部29は、処理対象の距離画像を副方向に分割して主方向クラスタリング単位を生成し、主方向クラスタリング単位で非背景画素のクラスタリングを行う。本明細書では、主方向クラスタリングによって生成されるクラスタを「線セグメント」という。
The
図14(a)は、距離画像を主方向クラスタリング単位に分割した例を示す図である。図示のように、例えば距離画像を副方向に8等分(実際は例えば60等分程度)して8つの主方向クラスタリング単位1〜8を設定する。各主方向クラスタリング単位は、複数ライン(同図では3ライン)の画素から構成されるようにすることができる。主方向クラスタリング部29は、隣接する非背景画素を順次読み出して、隣接する非背景画素が示す3次元空間内の点間の相対距離が所定の閾値以下であるか否かに基づいてクラスタリングを行う。
FIG. 14A is a diagram showing an example in which the distance image is divided into main direction clustering units. As shown in the figure, for example, the distance image is divided into eight equal parts in the sub direction (actually, for example, about 60 equal parts) to set eight main
図14(b)は、主方向クラスタリングが画素を読み出す順序を規定した主方向クラスタリング走査マップを模式的に説明する図である。各主方向クラスタリング単位に属する画素の順序は、主方向インデックスims1の昇順とし、主方向インデックスims1が同一の画素が複数ある場合には副方向インデックスims2の降順とすることができる。例えば、画素(1,1)と画素(1,2)が隣接しているほか、画素(1,1)と画素(2,3)も隣接しているとする。主方向クラスタリング部29は、図14(b)に示すような主方向クラスタリング走査マップを有しており、主方向クラスタリング走査マップにしたがって非背景画素の読み出しを行う。
FIG. 14B is a diagram schematically illustrating a main-direction clustering scan map that defines the order in which the main-direction clustering reads out pixels. The order of the pixels belonging to each main direction clustering unit may be the ascending order of the main direction index ims1, and the descending order of the sub direction index ims2 when there are a plurality of pixels having the same main direction index ims1. For example, it is assumed that the pixel (1,1) and the pixel (1,2) are adjacent to each other, and the pixel (1,1) and the pixel (2,3) are also adjacent to each other. The main
副方向クラスタリング部30は、主方向クラスタリング部29にて生成された線セグメントのクラスタリングを行い、物体候補クラスタを生成する。副方向クラスタリング部30は、隣接する主方向クラスタリング単位で生成された線セグメントどうしの相対距離に基づいて、線セグメントが同じクラスタに属するか否かを判定する処理を繰り返し行い、クラスタリングを行って、物体候補クラスタを生成する。この処理は、第2クラスタリング部24で説明した「隣接する時刻に取得した距離画像」を「隣接した主方向クラスタリング単位」に置き換え、「物体候補クラスタ」を「線セグメント」に置き換えたものと理解することができる。
The
第2クラスタリング部24は、第1のクラスタリングで生成された複数の物体候補クラスタを時間方向にクラスタリングして、多層化クラスタを生成する。第2クラスタリング部24は、所定の時刻の距離画像から得られた物体候補クラスタと、隣接する時刻の距離画像から得られた物体候補クラスタとの間の相対距離を算出する。
The
本実施の形態においては、物体候補クラスタは、線セグメントを副方向にクラスタリングして作成され、主方向及び副方向に広がりを有する。したがって、物体候補クラスタに含まれるすべての画素について総当たりで距離を計算すると、物体候補クラスタどうしの距離の計算処理が非常に重くなり、物体を迅速に検出できないおそれがある。本実施の形態では、物体候補クラスタどうしの距離を効率良く計算する方法を提案する。 In the present embodiment, the object candidate cluster is created by clustering the line segments in the sub direction and has a spread in the main direction and the sub direction. Therefore, if the distances are calculated by brute force for all the pixels included in the object candidate cluster, the calculation process of the distance between the object candidate clusters becomes very heavy, and the object may not be detected quickly. The present embodiment proposes a method of efficiently calculating the distance between object candidate clusters.
図15(a)及び図15(b)は、第2の実施の形態の第2クラスタリング部24が物体候補クラスタどうしの距離を求める方法を説明するための図である。図15(a)及び図15(b)はともに、時刻t−1に取得した距離画像から得られた物体候補クラスタBt-1,1,Bt-1,2,Bt-1,3,Bt-1,4と時刻tに取得した距離画像から得られた物体候補クラスタBt,1,Bt,2,Bt,3,Bt,4とを示している。図15において、網掛けした部分が物体候補クラスタを構成する画素である。第2クラスタリング部24は、これらの2つの物体候補クラスタの距離を計算する際に、副方向のラインを固定して、対応する副方向に含まれる画素の距離を計算する。
FIG. 15A and FIG. 15B are diagrams for explaining a method of the
図15(a)では、副方向を第1番目のラインに固定して、第1番目のラインにある物体候補クラスタの画素どうしの相対距離を計算する。時刻t−1の第1番目のラインに含まれる画素と、時刻tの第2番目、第3番目・・・のラインにある画素との相対距離は計算しないし、時刻tの第1番目のラインに含まれる画素と、時刻t−1の第2番目、第3番目・・・のラインにある画素との相対距離は計算しない。このように副方向の異なる画素間の組合せによる相対距離を考慮しないことで、単純に物体候補クラスタ間の相対距離を求める場合に比べ、大幅に計算量が削減できる。 In FIG. 15A, the sub-direction is fixed to the first line, and the relative distance between the pixels of the object candidate cluster on the first line is calculated. The relative distance between the pixels included in the first line at time t−1 and the pixels on the second, third,... Lines at time t is not calculated, and the first distance at time t is calculated. The relative distance between the pixels included in the line and the pixels in the second, third,... Lines at time t−1 is not calculated. By not considering the relative distance due to the combination of pixels in different sub-directions as described above, the amount of calculation can be significantly reduced as compared with the case where the relative distance between object candidate clusters is simply obtained.
なお、ここでは、物体候補クラスタどうしの距離をどの画素間の距離で規定するかを視覚的に理解しやすく説明したが、実際の処理においては、距離画像の画素データR(ims1,ims2)において、副方向インデックスims2が所定の値を有する画素だけ計算対象にすることで、副方向のラインを固定した計算を行える。 It should be noted that here, although it has been described that the distance between the object candidate clusters is defined by the distance between the pixels in an easily understandable manner, in actual processing, the pixel data R (ims1, ims2) of the distance image is used. By setting only the pixels whose sub-direction index ims2 has a predetermined value as the calculation target, it is possible to perform the calculation with the line in the sub-direction fixed.
副方向のラインを固定した状態は、水平方向の走査により取得した距離画像と同等であり、この相対距離の計算には第1の実施の形態で説明した方法を用いる。第1番目のラインにある画素どうしの距離計算が完了すると、図15(b)に示すように計算対象の画素を第2番目のラインに移して、画素どうしの距離計算を行う。そして、物体候補クラスタに含まれる画素どうしの距離のうち最小の距離を物体候補クラスタの距離とする。 The state in which the line in the sub-direction is fixed is equivalent to a range image acquired by scanning in the horizontal direction, and the method described in the first embodiment is used to calculate this relative distance. When the calculation of the distance between the pixels on the first line is completed, the calculation target pixel is moved to the second line as shown in FIG. 15B, and the distance between the pixels is calculated. Then, the minimum distance among the distances between pixels included in the object candidate cluster is set as the distance of the object candidate cluster.
例えば、図15に示す例では、物体候補クラスタBt-1,1と物体候補クラスタBt,1に含まれる画素間の相対距離は、第1番目のラインで4通り(2画素×2画素)、第2番目のラインで2通り(2画素×1画素)、第3番目のラインで4通り(2画素×2画素)の合計10通りの相対距離が求まるが、このうちで最小値となるものを物体候補クラスタBt-1,1と物体候補クラスタBt,1の相対距離とする。 For example, in the example shown in FIG. 15, the relative distance between the object candidate cluster B t-1,1 and the pixels included in the object candidate cluster B t,1 is four (2 pixels×2 pixels) in the first line. ), 2 ways (2 pixels x 1 pixel) on the second line, and 4 ways (2 pixels x 2 pixels) on the third line, a total of 10 ways of relative distances are obtained. Let be the relative distance between the object candidate cluster B t-1,1 and the object candidate cluster B t,1 .
なお、以上の説明と図15(a)及び図15(b)から分かるように、例えば、物体候補クラスタBt-1,1と物体候補クラスタBt,4や物体候補クラスタBt-1,1と物体候補クラスタBt,4のように、そもそも副方向の位置が対応しない存在しない物体候補クラスタは、距離計算の対象になることはなく、計算を省略できる。 As can be seen from the above description and FIGS. 15A and 15B, for example, the object candidate cluster B t-1,1 and the object candidate cluster B t,4 and the object candidate cluster B t-1, Object candidate clusters such as 1 and the object candidate cluster B t,4 that do not exist in the sub-direction position do not correspond to the distance calculation, and the calculation can be omitted.
図15の模式図を用いて説明した内容を、より詳細に述べる。B(t,jt)を時刻tの距離画像に含まれるjt番目の物体候補クラスタ、B(t-1,j't-1)を時刻t-1の距離画像に含まれるj't-1番目の物体候補クラスタとする。隣接する時刻間t,t-1にそれぞれ属する2つの物体候補クラスタB(t,jt)とB(t-1,j't-1)の相対距離RB2rltvは、クラスタに含まれる同一の副方向位置の画素間の相対距離のうちで最小となる値を選ぶ。具体的には物体候補クラスタB(t,jt)に含まれる画素のそれぞれの副方向に関して、副方向ims2を固定し、副方向ims2であるB(t,jt)の画素とB(t-1,j't-1)の画素間の相対距離のうちで最小となるものをRanyims1(ims2)として求める。続いて、物体候補クラスタB(t,jt)に含まれるすべて副方向ims2に関して求めたRanyims1(ims2)の中から最小値を選び、これを物体候補クラスタ間相対距離RB2rltvとする。 The contents described with reference to the schematic diagram of FIG. 15 will be described in more detail. B (t, j t) time t j t th object candidate cluster distance included in the image of, B (t-1, j 't-1) included in the time t-1 of the range image are j' t -1st object candidate cluster. The relative distance R B2rltv between two object candidate clusters B(t,j t ) and B(t-1,j′ t-1 ) respectively belonging to adjacent time intervals t,t−1 is the same in the clusters. The smallest value among the relative distances between pixels at the sub-direction position is selected. Specifically, with respect to each sub-direction of the pixels included in the object candidate cluster B(t,j t ), the sub-direction ims2 is fixed, and the sub-direction ims2 of the pixels of B(t,j t ) and B(t) are fixed. -1,j' t-1 ), the smallest relative distance between pixels is obtained as R anyims1(ims2) . Then, select the minimum value from among the object candidate cluster B (t, j t) R anyims1 (ims2) determined for all sub-direction IMS2 contained in, this is the object candidate inter-cluster relative distance R B2rltv.
下記(3)式により、所定の時刻tに取得した距離画像から得られた物体候補クラスタB(t,jt)と、隣接する時刻t−1に取得した距離画像から得られた物体候補クラスタB(t-1,j't-1)との相対距離RB2rltvが得られる。
R(ims1,ims2,t):時刻tにおける画素(ims1,ims2)の距離
R(i'ms1,ims2,t-1):時刻t-1における画素(i'ms1,ims2)の距離
According to the following equation (3), the object candidate cluster B(t,j t ) obtained from the distance image acquired at the predetermined time t and the object candidate cluster obtained from the distance image acquired at the adjacent time t-1 The relative distance R B2rltv with B(t-1,j' t-1 ) is obtained.
R(i ms1 , i ms2 , t): Distance of pixel (i ms1 , i ms2 ) at time t R(i' ms1 , i ms2 , t-1): Pixel (i' ms1 , i at time t-1 ms2 ) distance
以上、第2の実施の形態の物体検出システム2について、第1の実施の形態の物体検出システム1と異なる構成について説明した。第2の実施の形態の物体検出システム2の第1の実施の形態と同様に多層化クラスタを用いて、精度の良い物体検出を行うことができる。
The configuration of the
第2の実施の形態の物体検出システム2は、物体候補クラスタを生成する際に、隣接する非背景画素を2つの走査方向についてクラスタリングするので、立体的な物体の形状を検出することができる。
Since the
図16は、第2の実施の形態の物体検出システム2にて出力された物体Kの検出結果の例を示す図である。第2の実施の形態の物体検出システム2では、物体Kの動きを立体的に把握することができる。
FIG. 16 is a diagram showing an example of the detection result of the object K output by the
(第3の実施の形態)
図17は、第3の実施の形態の物体検出システム3の構成を示す図である。第3の物体検出システム3は、検出した物体の移動方向及び移動速度を検知し、この移動に関するデータを用いて物体を追跡する機能を有する。
(Third Embodiment)
FIG. 17 is a diagram showing the configuration of the
第3の実施の形態の物体検出システム3の基本的な構成は、第1の実施の形態の物体検出システム1と基本的な構成は同じであるが、第3の実施の形態では、物体検出装置20が、第1の実施の形態の物体検出装置20の構成に加えて、物体移動検知部31と、探索範囲設定部32と、物体追跡部33とをさらに備えている。
The basic configuration of the
物体移動検知部31は、物体検知部25に検知した物体の位置をXY座標系に変換し、多層化クラスタの両端の物体の位置と時間から物体の移動方向と移動速度を求める。図18は、物体の移動方向と移動速度を求める例を示す図である。
The object
図18に示すように、物体移動検知部31は、検出した物体の画素値をXYT座標系に変換する。そして、各時刻において物体が占める領域の平均位置を求める。そして、時刻t−4の物体の平均位置p1(x,y)と時刻tの物体の平均位置p5(x,y)から、物体の移動方向と移動速度、すなわち、移動ベクトルv(X,Y)を求める。ここでは、XYT座標系において物体の移動方向と移動速度を求める例を説明したが、移動方向と移動速度は、R-θ座標系において求めてもよい。
As shown in FIG. 18, the object
探索範囲設定部32は、追跡対象の物体が存在すると推定される探索範囲を設定する機能を有している。物体追跡部33は、異なる時刻に検出された物体の結び付け(アソシエーション)を行い、異なる時刻の間で物体を追跡する。なお、ここでいう異なる時刻とは、多層化クラスタリングを行う時間範囲よりも大きく異なる時刻である。多層化クラスタを生成する際には、物体を追跡していることを前提として物体検出を行っているからである。探索範囲設定部32は、物体の移動方向と移動速度に基づいて、所定時間経過後に物体の存在する場所を推定し、その周辺に探索範囲を設定する。なお、探索範囲を「ゲート」、探索範囲の設定を「ゲートをオープンする」ともいう。
The search
図19は、探索範囲設定部32の処理について説明するための図である。探索範囲設定部32は、物体の現在位置P1と物体の移動ベクトルvとに基づいて、所定時間後の物体の推定位置P2aを求め、物体の推定位置を中心とする円形の探索範囲Saを設定する。探索範囲設定部32が設定する探索範囲の半径は、物体の追跡を行う時間間隔に応じて決定してもよい。すなわち、追跡の時間間隔が長くなれば探索範囲の半径を大きくし、短ければ探索範囲の半径を小さくしてもよい。
FIG. 19 is a diagram for explaining the processing of the search
本実施の形態の探索範囲設定部32は、物体の移動ベクトルvを用いて所定時間後の物体の位置を推定するので、適切に探索範囲を設定できる。これにより、探索範囲で検出された物体と同一の物体であるという結び付けを行うことができ、物体の追跡を行える。この例では、所定時間後の物体の位置はP2であり、所定時間の経過後に探索範囲で見つかった物体が、現在検出された物体であると正しく追跡できる。もし、移動ベクトルvを用いない場合には、物体の1つ前の位置と現在位置とを結ぶ直線上に推定位置P2bが求められ、推定位置P2bを中心とする円形の探索範囲Sbが設定されることになるが、誤った物体とのアソシエーションを行ってしまう可能性がある。
Since the search
物体追跡部33は、探索範囲において検出された物体の中で追跡対象の物体の移動方向及び移動速度が近い物体を、追跡対象の物体と同一であると判定し、アソシエーションを行う。なお、探索範囲において物体を検出する方法は、上で説明した多層化クラスタを用いた検出方法を採用し、物体の現在位置と共にその移動ベクトルも求められているものとする。
The
図20は、探索範囲内で3つの物体O1〜O3が検出されたときに、追跡対象の物体と同一の物体を求める方法を示す図である。観測点1で検出された物体O1は移動ベクトルVo1を持ち、観測点2で検出された物体O2は移動ベクトルVo2を持ち、観測点3で検出された物体O3は移動ベクトルVo3を持つ。追跡対象の物体は移動ベクトルVoを持つ。追跡対象の物体の移動ベクトルVoは、探索範囲を設定する際に用いた移動ベクトルである。
FIG. 20 is a diagram showing a method of obtaining the same object as the tracking target object when three objects O1 to O3 are detected within the search range. The object O1 detected at the
物体追跡部33は、追跡対象の物体の移動ベクトルVoと近い移動ベクトルを有する物体を特定する。2つの移動ベクトルの近さは、2つの移動ベクトルの方向及び大きさの差分に関して閾値を設定しておき、差分が閾値以下となる場合に2つの移動ベクトルが近いと判断する。図20に示す例では、移動ベクトルが近い物体として物体O1及び物体O3が特定され、物体O2は除外される。物体追跡部33は、絞り込まれた物体のうち、予測点A1からの距離が近い物体を追跡対象の物体と同一の物体であると特定する。この例では、距離L1<距離L3なので、物体O1が特定される。このように物体追跡部33は、追跡対象の物体の移動ベクトルを用いることで、同一の物体を特定できる。
The
図21は、複数の物体の探索範囲が重なりあった場合の処理について説明するための図である。図21に示す例では、追跡物体A1の探索範囲S1と、追跡物体A2の探索範囲S2が重なり合っている。そして、物体O2が探索範囲S1と探索範囲S2とが重なった領域の観測点2で物体O2が検出された。ここで、物体O2の移動ベクトルは、追跡物体A1とも追跡物体A2とも移動ベクトルが近いとする。この場合、追跡対象の物体の移動ベクトルの近さに基づいて物体の同一性判定を行っても、物体O2が追跡物体A1,A2のいずれとも結びつけることができない。このような場合には、物体追跡部33は、探索範囲の中心である予測点までの距離が短い方の探索範囲の追跡物体と結びつける。この例では、予測点1との距離L2_1<予測点2との距離L2_2であることから、探索範囲S1の追跡物体A1と結びつける。
FIG. 21 is a diagram for explaining processing when the search ranges of a plurality of objects overlap. In the example shown in FIG. 21, the search range S1 of the tracking object A1 and the search range S2 of the tracking object A2 overlap. Then, the object O2 is detected at the
以上、第3の実施の形態の物体検出システム3について説明した。第3の実施の形態の物体検出システム3は、物体の位置の情報のみならず、移動方向及び移動速度(すなわち、移動ベクトル)を求めることができる。そして、この移動ベクトルの情報を物体の追跡に生かすことにより、物体の追跡を効率的かつ精度良く行うことができる。
The
以上、本発明の物体検出システムについて実施の形態を挙げて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。多層化クラスタを生成する際に、物体候補クラスタどうしの距離が所定の閾値以下の場合に同じクラスタに属すると判断することを説明したが、この閾値は検出すべき物体の種類に応じて決定することができる。例えば、検出すべき物体が車両の場合と人物の場合とでは、車両の場合の方が閾値を大きくしてもよい。車両の方が移動速度が速いため、同じ時間間隔に大きく動く可能性があるからである。 The object detection system of the present invention has been described in detail above with reference to the embodiments, but the present invention is not limited to the above-mentioned embodiments. When generating a multi-layered cluster, it was explained that if the distance between object candidate clusters is less than or equal to a predetermined threshold, it is determined that they belong to the same cluster, but this threshold is determined according to the type of object to be detected. be able to. For example, depending on whether the object to be detected is a vehicle or a person, the threshold may be larger in the case of a vehicle. This is because the moving speed of the vehicle is higher, and thus the vehicle may move greatly in the same time interval.
また、この閾値は、距離画像を取得する時間間隔に応じて変えてもよい。すなわち、距離画像の取得間隔が1秒の場合は0.5秒の場合に比べて、2つの距離画像間での移動距離が2倍になる可能性があるからである。 Further, this threshold may be changed according to the time interval for acquiring the range image. That is, when the distance image acquisition interval is 1 second, the moving distance between the two distance images may be twice as large as when the distance image acquisition interval is 0.5 seconds.
本発明は、ノイズの影響を受けにくく、適切に物体を検出することができ、測距装置を用いた物体検出装置等として有用である。 INDUSTRIAL APPLICABILITY The present invention is not easily affected by noise, can appropriately detect an object, and is useful as an object detection device using a distance measuring device.
1〜3 物体検出システム
10 測距装置
20 物体検出装置
21 距離画像取得部
22 非背景画素抽出部
23 第1クラスタリング部
24 第2クラスタリング部
25 物体検出部
26 出力部
27 背景データ記憶部
28 第1クラスタリング部
29 主方向クラスタリング部
30 副方向クラスタリング部
31 物体移動検知部
32 探索範囲設定部
33 物体追跡部
1-3
Claims (12)
前記距離画像から非背景画素を抽出する非背景画素抽出部と、
隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成する第1クラスタリング部と、
取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での第2の相対距離であって当該物体候補クラスタを構成する画素の相対距離によって規定される第2の相対距離に基づいて、前記第2の相対距離が所定の閾値以下である場合に隣接する物体候補クラスタが同じクラスタに含まれると判定し、前記第2の相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成する第2クラスタリング部と、
前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出する物体検出部と、
を備える物体検出装置。 A distance image acquisition unit for acquiring a distance image having the distance measurement data in each distance measurement direction of the distance measurement device as a pixel value;
A non-background pixel extraction unit that extracts non-background pixels from the distance image,
The relative distance between two points in the space corresponding to two adjacent non-background pixels is calculated based on the distance measurement direction of the non-background pixel and the distance measurement data, and the adjacent non-pixels are calculated based on the relative distance. A first clustering unit that generates an object candidate cluster that is a set of the non-background pixels by repeatedly performing a process of determining whether background pixels belong to the same cluster;
Based on the second relative distance in space of the object candidate clusters whose acquisition times are respectively generated from the adjacent distance images , and which is defined by the relative distances of the pixels forming the object candidate clusters. Then, it is determined that adjacent object candidate clusters are included in the same cluster when the second relative distance is less than or equal to a predetermined threshold, and the adjacent object candidate clusters are included in the same cluster when the second relative distance is greater than a predetermined threshold. A second clustering unit that generates a multi-layered cluster that is a set of the object candidate clusters by repeatedly performing a process of determining that the object clusters are not included ;
An object detection unit that detects one or a plurality of object candidate clusters in each distance image included in the multi-layered cluster as an object when the multi-layered cluster satisfies a predetermined condition,
An object detection device comprising.
前記第1クラスタリング部は、
前記距離画像を前記主方向に対応する複数の領域に分割し、分割された各領域内で前記非背景画素のクラスタリングを行って線セグメントを生成する主方向クラスタリング部と、
隣接した領域で生成された前記線セグメントの空間内での距離に基づいて、前記線セグメントのクラスタリングを行って前記物体候補クラスタを生成する副方向クラスタリング部と、
を備える請求項1または2に記載の物体検出装置。 The distance measuring device is a distance measuring device that performs two-dimensional scanning in a main direction and a sub direction,
The first clustering unit is
A main direction clustering unit that divides the distance image into a plurality of regions corresponding to the main direction, and performs line clustering of the non-background pixels in each of the divided regions to generate a line segment,
Based on the distance in space of the line segment generated in the adjacent region, a sub-direction clustering unit that performs clustering of the line segment to generate the object candidate cluster,
The object detection device according to claim 1 or 2, further comprising:
前記2つの物体候補クラスタにおいて、副方向が共通する画素の間で相対距離の計算を行い、当該副方向が共通する画素の組合せのうちで最小の相対距離を求める第1の処理と、
前記第1の処理を副方向を変えて行ってそれぞれの方向での最小相対距離を求め、求めた最小相対距離のうちで最も小さい最小相対距離を、前記第2の相対距離として求める第2の処理と、
を行う請求項3に記載の物体検出装置。 In the second clustering unit, the process of obtaining the second relative distance between the two object candidate clusters to be determined is
A first process of calculating a relative distance between pixels having a common sub-direction in the two object candidate clusters, and obtaining a minimum relative distance among combinations of pixels having a common sub-direction;
Determining the minimum relative distance to the first treatment in each direction performed by changing the sub-direction, the smallest minimum relative distance among the minimum relative distance seek, the second obtaining as the second relative distance Processing,
The object detection device according to claim 3, wherein
前記物体追跡部は、前記所定時間経過後に前記探索範囲の中から検出された物体を先の時刻に検出された物体と同一の物体であると判定する請求項8に記載の物体検出装置。 Based on the moving direction and moving speed of the object detected by the object detection unit, a range in which the object exists is estimated after a lapse of a predetermined time, and a search range setting unit that sets the range as a search range of the object is provided. ,
The object detection device according to claim 8, wherein the object tracking unit determines that an object detected from the search range after the predetermined time has passed is the same object as an object detected at a previous time.
請求項1乃至9のいずれかに記載の物体検出装置と、
を備える物体検出システム。 Rangefinder,
An object detection device according to any one of claims 1 to 9,
An object detection system including.
前記物体検出装置が、前記距離画像を取得するステップと、
前記物体検出装置が、前記距離画像から非背景画素を抽出するステップと、
前記物体検出装置が、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、
前記物体検出装置が、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での第2の相対距離であって当該物体候補クラスタを構成する画素の相対距離によって規定される第2の相対距離に基づいて、前記第2の相対距離が所定の閾値以下である場合に隣接する物体候補クラスタが同じクラスタに含まれると判定し、前記第2の相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、
前記物体検出装置が、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップと、
を備える物体検出方法。 A method of detecting an object by an object detection device based on a distance image having pixel values of distance measurement data in each distance measurement direction of the distance measurement device,
The object detection device, a step of acquiring the distance image,
The object detection device extracting non-background pixels from the range image;
The object detection device calculates a relative distance between two points in the space corresponding to two adjacent non-background pixels based on the distance measurement direction of the non-background pixel and the distance measurement data, and calculates the relative distance. Repeating the process of determining whether the adjacent non-background pixels belong to the same cluster based on the step of generating an object candidate cluster that is a set of the non-background pixels,
In the object detection device, the acquisition time is a second relative distance in the space of the object candidate clusters generated from the distance images adjacent to each other and is defined by a relative distance of pixels forming the object candidate cluster. Based on the relative distance of 2, it is determined that adjacent object candidate clusters are included in the same cluster when the second relative distance is less than or equal to a predetermined threshold value, and the second relative distance is greater than the predetermined threshold value. In the case, by repeatedly performing the process of determining that they are not included in the same cluster, generating a multi-layered cluster that is a set of the object candidate clusters,
The object detecting device, when the multi-layered cluster satisfies a predetermined condition, detecting one or a plurality of object candidate clusters in each distance image included in the multi-layered cluster as an object;
An object detection method comprising:
前記距離画像を取得するステップと、
前記距離画像から非背景画素を抽出するステップと、
隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、
取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での第2の相対距離であって当該物体候補クラスタを構成する画素の相対距離によって規定される第2の相対距離に基づいて、前記第2の相対距離が所定の閾値以下である場合に隣接する物体候補クラスタが同じクラスタに含まれると判定し、前記第2の相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、
前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップと、
を実行させるプログラム。 A program for detecting an object on the basis of a distance image in which distance measurement data in each distance measurement direction of a distance measurement device is used as a pixel value, the program comprising:
Acquiring the range image,
Extracting non-background pixels from the range image,
The relative distance between two points in the space corresponding to two adjacent non-background pixels is calculated based on the distance measurement direction of the non-background pixel and the distance measurement data, and the adjacent non-pixels are calculated based on the relative distance. Generating an object candidate cluster that is a set of the non-background pixels by repeatedly performing a process of determining whether or not the background pixels belong to the same cluster,
Based on the second relative distance in space of the object candidate clusters whose acquisition times are respectively generated from the adjacent distance images , and which is defined by the relative distances of the pixels forming the object candidate clusters. Then, it is determined that adjacent object candidate clusters are included in the same cluster when the second relative distance is less than or equal to a predetermined threshold, and the adjacent object candidate clusters are included in the same cluster when the second relative distance is greater than a predetermined threshold. By repeatedly performing the process of determining that it is not included , generating a multi-layered cluster that is a set of the object candidate clusters,
Detecting, as an object, one or more object candidate clusters in each range image included in the multi-layered cluster when the multi-layered cluster satisfies a predetermined condition,
A program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016112983A JP6742157B2 (en) | 2016-06-06 | 2016-06-06 | Object detection device, object detection system, object detection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016112983A JP6742157B2 (en) | 2016-06-06 | 2016-06-06 | Object detection device, object detection system, object detection method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017219385A JP2017219385A (en) | 2017-12-14 |
JP6742157B2 true JP6742157B2 (en) | 2020-08-19 |
Family
ID=60655994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016112983A Active JP6742157B2 (en) | 2016-06-06 | 2016-06-06 | Object detection device, object detection system, object detection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6742157B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109799513B (en) * | 2019-01-04 | 2023-06-23 | 广西大学 | Indoor unknown environment positioning method based on linear characteristics in two-dimensional laser radar data |
JP2021050988A (en) * | 2019-09-25 | 2021-04-01 | ソニーセミコンダクタソリューションズ株式会社 | Range finder and electronic equipment |
EP3885787B1 (en) * | 2020-03-27 | 2022-05-04 | Sick Ag | Detection of distance measurement data |
JP7506303B2 (en) * | 2020-04-22 | 2024-06-26 | 株式会社デンソーウェーブ | Sensor Device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001005978A (en) * | 1999-06-18 | 2001-01-12 | Sony Corp | Device and method for extracting object, and program providing medium |
JP4622715B2 (en) * | 2005-07-15 | 2011-02-02 | 株式会社日立製作所 | Image data analysis method and system |
JP5761942B2 (en) * | 2010-08-06 | 2015-08-12 | セコム株式会社 | Object detection sensor |
JP5950296B2 (en) * | 2012-01-27 | 2016-07-13 | 国立研究開発法人産業技術総合研究所 | Person tracking attribute estimation device, person tracking attribute estimation method, program |
JP2013228267A (en) * | 2012-04-25 | 2013-11-07 | Panasonic Corp | Display device, display method, and program |
WO2013190772A1 (en) * | 2012-06-20 | 2013-12-27 | パナソニック株式会社 | Spatial information detection device and person location detection device |
KR101480651B1 (en) * | 2013-12-09 | 2015-01-09 | 현대자동차주식회사 | Method for Object Processing and Vehicle supporting the same |
-
2016
- 2016-06-06 JP JP2016112983A patent/JP6742157B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017219385A (en) | 2017-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10565721B2 (en) | Information processing device and information processing method for specifying target point of an object | |
Chen et al. | Gaussian-process-based real-time ground segmentation for autonomous land vehicles | |
JP6742157B2 (en) | Object detection device, object detection system, object detection method, and program | |
CN104793202B (en) | The object emerging system of more radar imagery sensors | |
JP5950296B2 (en) | Person tracking attribute estimation device, person tracking attribute estimation method, program | |
JP5822255B2 (en) | Object identification device and program | |
JP5728815B2 (en) | Object detection device | |
EP3631363A1 (en) | Device and method for detection and localization of vehicles | |
US10046715B2 (en) | Systems and methods for object detection | |
JP6524529B2 (en) | Building limit judging device | |
US8731829B2 (en) | Flow line detection system, flow line detection method, and flow line detection program | |
JP2017156219A (en) | Tracking device, tracking method, and program | |
KR101864127B1 (en) | Apparatus and method for environment mapping of an unmanned vehicle | |
JP5417645B2 (en) | Plane estimation method and range image camera in range image | |
WO2020046203A1 (en) | Device and method for tracking human subjects | |
Jwa et al. | Kalman filter based railway tracking from mobile Lidar data | |
Linder et al. | Towards a robust people tracking framework for service robots in crowded, dynamic environments | |
JP6331566B2 (en) | Human head detection device and posture estimation device | |
JP6397386B2 (en) | Region division processing apparatus, method, and program | |
JP2018025556A (en) | Positioning system, and positioning method | |
JP5866682B2 (en) | Measuring system and measuring method | |
JP2017167974A (en) | Estimation apparatus, method and program | |
JP2005078528A (en) | Apparatus and method for object detection | |
JP2010205042A (en) | Pedestrian detection device | |
KR100994722B1 (en) | Method for tracking moving object on multiple cameras using probabilistic camera hand-off |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6742157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |