JP6742157B2 - Object detection device, object detection system, object detection method, and program - Google Patents

Object detection device, object detection system, object detection method, and program Download PDF

Info

Publication number
JP6742157B2
JP6742157B2 JP2016112983A JP2016112983A JP6742157B2 JP 6742157 B2 JP6742157 B2 JP 6742157B2 JP 2016112983 A JP2016112983 A JP 2016112983A JP 2016112983 A JP2016112983 A JP 2016112983A JP 6742157 B2 JP6742157 B2 JP 6742157B2
Authority
JP
Japan
Prior art keywords
distance
cluster
pixels
relative distance
object candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016112983A
Other languages
Japanese (ja)
Other versions
JP2017219385A (en
Inventor
高野 岳
岳 高野
渉 小堀
渉 小堀
岩崎 哲也
哲也 岩崎
松本 恵治
恵治 松本
伊藤 邦彦
邦彦 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso Wave Inc
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso Wave Inc
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso Wave Inc, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2016112983A priority Critical patent/JP6742157B2/en
Publication of JP2017219385A publication Critical patent/JP2017219385A/en
Application granted granted Critical
Publication of JP6742157B2 publication Critical patent/JP6742157B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体を検出する物体検出装置、物体検出システム、物体検出方法およびプログラムに関する。 The present invention relates to an object detection device that detects an object, an object detection system, an object detection method, and a program.

周囲の物体をリアルタイムで高精度に検知するライダー(LIDAR)というセンサーが注目されている。ライダーは、光を用いたリモートセンシング技術の一つで、測定光を発光し、対象物で反射した光を受光するまでの時間によって対象物までの距離を求める。発光方向を走査することにより、周囲にある対象物を検出することができる。こうしたセンサーは、車両や人物などの監視対象物の検出に用いられる。 A sensor called a lidar (LIDAR), which detects surrounding objects in real time with high accuracy, has been attracting attention. The lidar is one of the remote sensing techniques using light, and determines the distance to the object by the time until the measurement light is emitted and the light reflected by the object is received. By scanning the light emission direction, it is possible to detect the surrounding objects. Such sensors are used to detect monitored objects such as vehicles and people.

例えば、微小な虫や落ち葉などのように監視対象物とは異なる物が測定光を遮ると、その障害物によって監視対象物からの反射光が得られず、監視対象物を適切に検出できない場合があった。 For example, when an object that is different from the monitored object, such as a small insect or a fallen leaf, blocks the measurement light, the reflected light from the monitored object cannot be obtained due to the obstacle, and the monitored object cannot be detected properly. was there.

特許文献1は、上記の課題を解決する測距装置を開示している。特許文献1に記載された測距装置は、監視対象領域内であることを示す距離データが隣接する複数の走査角度方向に存在するときに、複数の距離データをまとめたグループを生成し、グループに含まれる距離データの個数または最大走査角度によって、走査方向に沿った物体のサイズを定義する。そして、物体のサイズが、物体検出最小幅を示す個数または走査角度以上となる場合に、監視対象の物体があると判定し、そうでない場合にはノイズであると判定する。 Patent Document 1 discloses a distance measuring device that solves the above problems. The distance measuring device described in Patent Document 1 generates a group in which a plurality of distance data are collected when distance data indicating that the area is within the monitoring target area exists in a plurality of adjacent scanning angle directions, and the group is formed. The size of the object along the scanning direction is defined by the number of distance data included in or the maximum scanning angle. Then, if the size of the object is equal to or larger than the number indicating the object detection minimum width or the scanning angle, it is determined that there is an object to be monitored, and if not, it is determined to be noise.

特開2012−242189JP2012-242189A

本発明は、微小な虫や落ち葉などのノイズ源の影響を低減し、適切に物体を検出することができる物体検出装置を提供することを目的とする。 It is an object of the present invention to provide an object detection device capable of appropriately detecting an object by reducing the influence of noise sources such as minute insects and fallen leaves.

本発明の物体検出システムは、測距装置と、物体検出装置とを備える。物体検出装置は、測距装置の各測距方向における測距データを画素値とする距離画像を取得する距離画像取得部と、前記距離画像から非背景画素を抽出する非背景画素抽出部と、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成する第1クラスタリング部と、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成する第2クラスタリング部と、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出する物体検出部とを備える。 The object detection system of the present invention includes a distance measuring device and an object detection device. The object detection device, a distance image acquisition unit that acquires a distance image having distance measurement data in each distance measurement direction of the distance measurement device as a pixel value, a non-background pixel extraction unit that extracts a non-background pixel from the distance image, The relative distance between two points in the space corresponding to two adjacent non-background pixels is calculated based on the distance measurement direction of the non-background pixel and the distance measurement data, and the adjacent non-pixels are calculated based on the relative distance. A first clustering unit that generates an object candidate cluster that is a set of the non-background pixels by repeatedly performing a process of determining whether or not the background pixels belong to the same cluster, and a distance image whose acquisition times are adjacent to each other. A set of the object candidate clusters is obtained by repeatedly performing a process of determining whether or not two object candidate clusters to be determined belong to the same cluster based on the relative distance in space of the determined object candidate clusters. A second clustering unit that generates a multi-layered cluster, and an object that detects one or more object candidate clusters in each range image included in the multi-layered cluster as an object when the multi-layered cluster satisfies a predetermined condition. And a detector.

このように、本発明は、距離画像から抽出した非背景画素をクラスタリングして物体の候補の画素の集合である物体候補クラスタを生成する。物体候補クラスタは、空間内における対応点の相対距離が近い画素の集まりであり、物体候補クラスタを構成する各画素は物体または物体の一部に対応すると考えられる。なお、本明細書では、測距装置から対象物までの距離に対して、空間内での対応点の間の距離を「相対距離」と呼ぶ。 As described above, the present invention clusters the non-background pixels extracted from the distance image to generate an object candidate cluster that is a set of object candidate pixels. An object candidate cluster is a group of pixels whose relative distances between corresponding points in space are short, and each pixel forming the object candidate cluster is considered to correspond to an object or a part of an object. In this specification, the distance between corresponding points in space with respect to the distance from the distance measuring device to the object is referred to as “relative distance”.

そして、本発明は、取得時刻が異なる複数の距離画像から生成された複数の物体候補クラスタを時間方向にクラスタリングすることにより、多層化クラスタを生成する。多層化クラスタに含まれる物体候補クラスタは、時間の経過と共に移動する物体候補クラスタの集まりであると考えられる。 Then, the present invention generates a multi-layered cluster by clustering in the time direction a plurality of object candidate clusters generated from a plurality of range images having different acquisition times. The object candidate clusters included in the multi-layered cluster are considered to be a group of object candidate clusters that move over time.

多層化クラスタが所定の条件を満たすときに、多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出することにより、ある時刻の距離画像にノイズが含まれていたとしてもそのノイズの影響を受けにくく、適切に物体を検出することができる。例えば、時刻t−1の距離画像から生成された物体候補クラスタB1と時刻tの距離画像から生成された物体候補クラスタB2,B3が多層化クラスタを構成し、所定の条件を満たした場合、物体候補クラスタB1が物体であると検出されると共に、物体候補クラスタB2,B3が物体候補クラスタB1と同じ物体として検出される。このように、時刻tにおいてはノイズによって物体候補クラスタB2,B3に分断された場合であっても、物体候補クラスタB2,B3を一つの物体として適切に判定できる。 When the multi-layered cluster satisfies a predetermined condition, one or a plurality of object candidate clusters in each range image included in the multi-layered cluster are detected as an object, so that the range image at a certain time contains noise. However, the object is not easily affected by the noise, and the object can be appropriately detected. For example, when the object candidate cluster B1 generated from the distance image at time t−1 and the object candidate clusters B2 and B3 generated from the distance image at time t form a multi-layered cluster and satisfy a predetermined condition, the object The candidate cluster B1 is detected as an object, and the object candidate clusters B2 and B3 are detected as the same object as the object candidate cluster B1. Thus, at time t, even if the object candidate clusters B2 and B3 are divided by noise, the object candidate clusters B2 and B3 can be appropriately determined as one object.

また、本発明の第1クラスタリング部は、非背景画素を3次元空間座標に変換することなく、隣接する2つの非背景画素に対応する空間内の2点間の相対距離を画素値(測距方向及びその測距データ)から計算し、その相対距離に基づいてクラスタリングを行う。このように画素値に対応する3次元空間座標に変換するのではなく、画素値から相対距離を計算することにより、非背景画素に対応する空間内の点までの遠近にかかわらず、適切なクラスタリングを行うことができる。 In addition, the first clustering unit of the present invention calculates the relative distance between two points in the space corresponding to two adjacent non-background pixels as a pixel value (ranging distance) without converting the non-background pixels into three-dimensional space coordinates. Direction and its distance measurement data), and clustering is performed based on the relative distance. In this way, by calculating the relative distance from the pixel value instead of converting it into the three-dimensional space coordinates corresponding to the pixel value, it is possible to perform appropriate clustering regardless of the perspective to the point in the space corresponding to the non-background pixel. It can be performed.

また、隣接する非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うクラスタリングを行うので、クラスタリング処理の計算量を抑えることができる。なお、第2クラスタリング部も、第1クラスタリング部と同様に、計算量を抑えつつ適切なクラスタリングを行うことができる。 In addition, since clustering is performed by repeatedly performing the process of determining whether adjacent non-background pixels belong to the same cluster, the amount of calculation of the clustering process can be suppressed. Note that the second clustering unit can also perform appropriate clustering while suppressing the amount of calculation, similarly to the first clustering unit.

本発明の物体検出装置において、前記第2クラスタリング部は、判定対象の前記物体候補クラスタの空間内での相対距離に、その物体候補クラスタを生成した距離画像の取得時刻の時間間隔に応じた重み付けをし、重み付け後の距離に基づいて前記物体候補クラスタのクラスタリングを行ってもよい。 In the object detection device of the present invention, the second clustering unit weights the relative distance in space of the object candidate cluster to be determined according to the time interval of the acquisition time of the distance image that generated the object candidate cluster. The object candidate clusters may be clustered based on the weighted distance.

距離画像の取得時刻の時間間隔が異なる場合には、その時間間隔の間に物体が移動する距離が異なるが、本発明の構成によれば、距離画像の取得時刻の時間間隔が異なる場合にも、取得時刻の間隔に応じて適切に多層化クラスタを生成できる。 When the time intervals of the acquisition times of the range images are different, the distances that the object moves during the time intervals are different, but according to the configuration of the present invention, even when the time intervals of the acquisition times of the range images are different. , It is possible to appropriately generate a multi-layered cluster according to the interval of acquisition time.

本発明の物体検出装置において、前記測距装置は、主方向及び副方向の2次元に走査する測距装置であって、前記第1クラスタリング部は、前記距離画像を前記主方向に対応する複数の領域に分割し、分割された各領域内で前記非背景画素のクラスタリングを行って線セグメントを生成する主方向クラスタリング部と、隣接した領域で生成された前記線セグメントの空間内での相対距離に基づいて、前記線セグメントのクラスタリングを行って前記物体候補クラスタを生成する副方向クラスタリング部とを備えてもよい。 In the object detection device of the present invention, the distance measuring device is a distance measuring device that performs two-dimensional scanning in a main direction and a sub direction, and the first clustering unit includes a plurality of distance images corresponding to the main direction. And a main direction clustering unit that generates a line segment by performing clustering of the non-background pixels in each divided region, and a relative distance in space of the line segment generated in an adjacent region. And a sub-direction clustering unit that clusters the line segments to generate the object candidate clusters.

このように主方向と副方向のそれぞれについてクラスタリングを行うことにより、クラスタリングの計算量を抑えつつ、3次元の物体候補クラスタを生成することができる。 By performing clustering in each of the main direction and the sub-direction in this way, it is possible to generate a three-dimensional object candidate cluster while suppressing the amount of clustering calculation.

前記第2クラスタリング部において、前記判定対象の2つの前記物体候補クラスタの相対距離を求める処理は、前記2つの物体候補クラスタにおいて、副方向が共通する画素の間で相対距離の計算を行い、当該副方向が共通する画素の組合せのうちで最小の相対距離を求める第1の処理と、前記第1の処理を副方向を変えて行ってそれぞれの方向での最小相対距離を求め、求めた最小相対距離のうちで最も小さい最小相対距離を、前記2つの物体候補クラスタの相対距離として求める第2の処理とを行ってもよい。このように副方向の異なる画素間の組合せによる相対距離を考慮しないことにより、大幅に計算量が削減できる。 In the second clustering unit, the process of obtaining the relative distance between the two object candidate clusters to be determined is performed by calculating a relative distance between pixels having a common sub-direction in the two object candidate clusters. A first process for obtaining the minimum relative distance among combinations of pixels having a common sub-direction, and a minimum relative distance in each direction obtained by performing the first process while changing the sub-direction. A second process of obtaining the smallest minimum relative distance among the relative distances as the relative distance between the two object candidate clusters may be performed. As described above, the calculation amount can be significantly reduced by not considering the relative distance due to the combination of pixels in different sub-directions.

本発明の物体検出装置において、前記物体検出部は、前記多層化クラスタに含まれる前記物体候補クラスタの大きさと、前記多層化クラスタに含まれる画素数とに基づいて物体を検出してもよい。 In the object detection device of the present invention, the object detection unit may detect an object based on the size of the object candidate cluster included in the multilayer cluster and the number of pixels included in the multilayer cluster.

この構成により、検出したい物体とノイズとを切り分けて物体を検出することができる。例えば、飛び回っている虫などのようなノイズ源を物体候補クラスタとして多層化クラスタを生成してしまった場合にも、物体候補クラスタの大きさや多層化クラスタに含まれる画素数の条件によって除外できる。 With this configuration, an object can be detected by separating the object to be detected from noise. For example, even if a noise source such as a flying insect is used as an object candidate cluster and a multi-layered cluster is generated, it can be excluded depending on the size of the object candidate cluster and the number of pixels included in the multi-layered cluster.

本発明の物体検出装置は、前記多層化クラスタから検出された各距離画像における物体の位置の遷移に基づいて、前記物体の移動方向及び移動速度を求める物体移動検知部を備えてもよい。また、前記物体移動検知部は、検出された物体の画素値を3次元空間座標系の位置データに変換して3次元空間内で物体が占める空間を特定し、物体の移動方向及び移動速度を求めてもよい。 The object detection device of the present invention may include an object movement detection unit that obtains a movement direction and a movement speed of the object based on the transition of the position of the object in each distance image detected from the multilayer cluster. In addition, the object movement detection unit converts the pixel value of the detected object into position data of a three-dimensional space coordinate system to specify a space occupied by the object in the three-dimensional space, and determines a moving direction and a moving speed of the object. You may ask.

この構成により、ノイズの影響を低減して検出した物体の情報に基づいて、物体の移動方向及び移動速度を精度良く求めることができる。 With this configuration, the moving direction and the moving speed of the object can be accurately obtained based on the information of the object detected by reducing the influence of noise.

本発明の物体検出装置は、前記物体の移動方向及び移動速度に基づいて、異なる時刻に検出された物体の中から同一の物体を検出し、物体の追跡を行う物体追跡部を備えてもよい。 The object detection device of the present invention may include an object tracking unit that detects the same object from the objects detected at different times based on the moving direction and the moving speed of the object and tracks the object. ..

物体の移動方向及び移動速度は、短時間のうちには大きく変化しないことが多いので、本発明の構成により、先に検出した物体と同一の物体を検出し、物体の追跡を行える。 Since the moving direction and moving speed of an object often do not change significantly in a short time, the same object as the previously detected object can be detected and the object can be tracked by the configuration of the present invention.

本発明の物体検出装置は、前記物体検出部にて検出された物体の移動方向及び移動速度に基づいて、所定時間経過後にその物体が存在する範囲を推定し、その範囲を物体の探索範囲として設定する探索範囲設定部を備え、前記物体追跡部は、前記所定時間経過後に前記探索範囲の中から検出された物体を先の時刻に検出された物体と同一の物体であると判定してもよい。 The object detection device of the present invention, based on the moving direction and the moving speed of the object detected by the object detection unit, estimates the range in which the object exists after a lapse of a predetermined time, the range as the search range of the object A search range setting unit for setting is provided, and the object tracking unit determines that the object detected from the search range after the predetermined time has passed is the same object as the object detected at the previous time. Good.

このように物体の移動先と推定される探索範囲を設定することにより、同一の物体の追跡精度を高めることができる。 By setting the search range estimated to be the moving destination of the object in this way, it is possible to improve the tracking accuracy of the same object.

本発明の物体検出方法は、物体検出装置によって、測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出する方法であって、前記物体検出装置が、前記距離画像を取得するステップと、前記物体検出装置が、前記距離画像から非背景画素を抽出するステップと、前記物体検出装置が、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、前記物体検出装置が、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、前記物体検出装置が、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップとを備える。 An object detection method of the present invention is a method for detecting an object by an object detection device based on a distance image having distance measurement data in each distance measurement direction of a distance measurement device as a pixel value, wherein the object detection device comprises: Obtaining the range image, the object detecting device extracting non-background pixels from the range image, and the object detecting device having two points in a space corresponding to two adjacent non-background pixels. Repeat the process of calculating the relative distance between the non-background pixels based on the distance measurement direction and the distance measurement data, and determining whether the adjacent non-background pixels belong to the same cluster based on the relative distance. By performing the step of generating an object candidate cluster that is a set of non-background pixels, the object detection apparatus, the acquisition time to the relative distance in space of the object candidate cluster respectively generated from the adjacent distance image. A step of generating a multi-layered cluster that is a set of the object candidate clusters by repeatedly performing a process of determining whether or not two object candidate clusters to be determined belong to the same cluster based on the above; However, when the multi-layered cluster satisfies a predetermined condition, one or a plurality of object candidate clusters in each range image included in the multi-layered cluster are detected as an object.

本発明のプログラムは、測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出するためのプログラムであって、コンピュータに、前記距離画像を取得するステップと、前記距離画像から非背景画素を抽出するステップと、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップとを実行させる。 A program of the present invention is a program for detecting an object based on a distance image having distance measurement data in each distance measurement direction of a distance measuring device as a pixel value, and a step of acquiring the distance image in a computer. A step of extracting a non-background pixel from the distance image, and a relative distance between two points in a space corresponding to two adjacent non-background pixels, based on a ranging direction of the non-background pixel and the ranging data. A step of generating an object candidate cluster, which is a set of the non-background pixels, by repeatedly performing a process of determining whether or not the adjacent non-background pixels belong to the same cluster based on the relative distance. , The process of determining whether two object candidate clusters to be determined belong to the same cluster is repeatedly performed based on the relative distance in space of the object candidate clusters that are respectively generated from the distance images whose acquisition times are adjacent to each other. Thereby generating a multi-layered cluster which is a set of the object candidate clusters, and when the multi-layered cluster satisfies a predetermined condition, one or more objects in each distance image included in the multi-layered cluster. Detecting the candidate cluster as an object.

本発明は、測距装置から取得した距離画像の中から、ノイズの影響を低減して、適切に物体を検出することができる。 According to the present invention, it is possible to appropriately detect an object by reducing the influence of noise from the range image acquired from the range finder.

第1の実施の形態の物体検出システムの構成を示す図である。It is a figure which shows the structure of the object detection system of 1st Embodiment. 測距装置の走査角度について説明するための図である。It is a figure for demonstrating the scanning angle of a range finder. 検出対象である人物が移動する例を示す図である。It is a figure which shows the example which the person who is a detection target moves. 測距装置により得られた測距データについて説明する図である。It is a figure explaining the ranging data obtained by the ranging device. 物体候補クラスタおよび多層化クラスタの例を示す図である。It is a figure which shows the example of an object candidate cluster and a multilayer cluster. 画素間の相対距離を算出する手法を説明する図である。It is a figure explaining the method of calculating the relative distance between pixels. 第1の実施の形態の物体検出システムの検出結果の出力例を示す図である。It is a figure which shows the output example of the detection result of the object detection system of 1st Embodiment. 物体検出装置により物体を検出する動作を示すフローチャートである。It is a flow chart which shows operation which detects an object with an object detection device. 第1クラスタリング部による処理を示すフローチャートである。It is a flow chart which shows processing by the 1st clustering part. 第2クラスタリング部による処理を示すフローチャートである。It is a flow chart which shows processing by the 2nd clustering part. 第2クラスタリングの処理によって多層化クラスタが生成される過程を示す図である。It is a figure which shows the process in which a multilayer cluster is produced|generated by the process of a 2nd clustering. 第2クラスタリングの処理によって多層化クラスタが生成される過程を示す図である。It is a figure which shows the process in which a multilayer cluster is produced|generated by the process of a 2nd clustering. 第2の実施の形態の物体検出システムの構成を示す図である。It is a figure which shows the structure of the object detection system of 2nd Embodiment. 距離画像を主方向クラスタリング単位に分割した例および主方向クラスタリング単位内での画素の読み出し順序を示す図である。It is a figure which shows the example which divided the distance image into the main direction clustering unit, and the reading order of the pixel in a main direction clustering unit. 第2の実施の形態の第2クラスタリング部が物体候補クラスタどうしの距離を求める方法を説明するための図である。It is a figure for demonstrating the method the 2nd clustering part of 2nd Embodiment calculates|requires the distance of object candidate clusters. 第2の実施の形態の物体検出システムの検出結果の出力例を示す図である。It is a figure which shows the output example of the detection result of the object detection system of 2nd Embodiment. 第3の実施の形態の物体検出システムの構成を示す図である。It is a figure which shows the structure of the object detection system of 3rd Embodiment. 物体の移動方向と移動速度を求める例を示す図である。It is a figure which shows the example which calculates|requires the moving direction and moving speed of an object. 探索範囲設定部の処理について説明するための図である。It is a figure for explaining processing of a search range setting part. 探索範囲内で検出された物体から追跡対象の物体を求める方法を示す図である。It is a figure which shows the method of calculating|requiring the object of a tracking target from the object detected in the search range. 複数の探索範囲が重なりあった場合の処理について説明するための図である。It is a figure for explaining processing when a plurality of search ranges overlap.

以下、本発明に係る実施の形態に係る物体検出システムについて、図面を参照しながら具体的に説明する。本実施の形態では、所定の物体検出領域に進入する人物を検出する物体検出装置を例として説明する。 Hereinafter, an object detection system according to an embodiment of the present invention will be specifically described with reference to the drawings. In the present embodiment, an object detection device that detects a person who enters a predetermined object detection area will be described as an example.

(第1の実施の形態)
図1は、本発明の第1の実施形態に係る物体検出システム1の概略構成を示すブロック図である。物体検出システム1は、測距装置10と、物体検出装置20とを備えている。
(First embodiment)
FIG. 1 is a block diagram showing a schematic configuration of an object detection system 1 according to the first embodiment of the present invention. The object detection system 1 includes a distance measuring device 10 and an object detection device 20.

[測距装置]
測距装置10は、測定光を照射し、照射方向にある対象物からの反射光に基づいて照射方向にある対象物との距離を算出する。測距装置10は2次元走査型の測距装置であり、3次元空間を2次元方向に測距方向を走査する。測距装置10は、各測距方向について対象物までの距離を算出する。これにより、各測距方向における測距データを画素値とする距離画像が得られる。
[Distance measuring device]
The distance measuring device 10 irradiates the measurement light and calculates the distance to the object in the irradiation direction based on the reflected light from the object in the irradiation direction. The distance measuring device 10 is a two-dimensional scanning type distance measuring device, and scans the three-dimensional space in the two-dimensional direction in the distance measuring direction. The ranging device 10 calculates the distance to the object in each ranging direction. As a result, a distance image having the distance measurement data in each distance measurement direction as pixel values can be obtained.

距離画像は2次元画像であり、走査方向の一方(主方向)のインデックスをims1とし、他方(副方向)のインデックスをims2とする。距離画像の主方向および副方向の画素数をそれぞれNms1,Nms2とすると、インデックスims1は1〜Nms1の値をとり得、インデックスims2は1〜Nms2の値をとり得る。 The range image is a two-dimensional image, and one index (main direction) in the scanning direction is ims1 and the other index (sub direction) is ims2. When the number of pixels in the main direction and the number of pixels in the sub direction of the range image are Nms1 and Nms2, respectively, the index ims1 can take a value of 1 to Nms1 and the index ims2 can take a value of 1 to Nms2.

図2(a)及び図2(b)は、測距装置10を詳しく説明する図である。測距装置10は、物体検出領域内の遮蔽物をできるだけ避けられるよう、物体検出領域の上方に設置されるのが望ましい。そして、本実施の形態の測距装置10は、2次元方向として、水平方向および垂直方向に走査を行う機能を有する。すなわち、測距装置10は、水平方向に走査する走査系を、さらに垂直方向に走査する。図2(a)に示すように、水平方向の測距角度θms1は正面を0度として−95〜+95度をとり得る。図2(b)に示すように、垂直方向の測距角度θms2は水平方向を0度として0〜−90度をとり得る。測距角度の組(θms1,θms2)は、測距の方向を示す。 2A and 2B are diagrams for explaining the distance measuring device 10 in detail. It is desirable that the distance measuring device 10 be installed above the object detection area so as to avoid a shield in the object detection area as much as possible. Then, the distance measuring device 10 of the present embodiment has a function of performing scanning in the horizontal direction and the vertical direction as the two-dimensional direction. That is, the distance measuring device 10 further scans the scanning system that scans in the horizontal direction in the vertical direction. As shown in FIG. 2A, the horizontal distance measuring angle θms1 can be −95 to +95 degrees with the front being 0 degrees. As shown in FIG. 2B, the distance measurement angle θms2 in the vertical direction can be 0 to −90 degrees with 0° in the horizontal direction. The set of distance measurement angles (θms1, θms2) indicates the direction of distance measurement.

測距装置10は、ある測距角度の組(θms1,θms2)が示す方向に測定光を照射する。そして、測距装置10は、反射光に基づいて、この方向にある対象物と測距装置10との距離Rを算出する。そして、測距装置10は、算出された距離Rを、当該測距角度の組(θms1,θms2)と対応する、距離画像における画素(ims1,ims2)の値とする。以下、距離画像における画素(ims1,ims2)が示す距離(データ)をR(ims1,ims2)と表記する。測距装置10は、測距角度の組における距離データを得るため、図2に示す走査範囲を離散的に走査する。 The distance measuring device 10 irradiates the measuring light in the direction indicated by a certain set of distance measuring angles (θms1, θms2). Then, the distance measuring device 10 calculates the distance R between the object in this direction and the distance measuring device 10 based on the reflected light. Then, the distance measuring device 10 sets the calculated distance R as the value of the pixel (ims1, ims2) in the distance image corresponding to the set of the distance measuring angles (θms1, θms2). Hereinafter, the distance (data) indicated by the pixels (ims1, ims2) in the distance image will be expressed as R(ims1, ims2). The distance measuring device 10 discretely scans the scanning range shown in FIG. 2 in order to obtain distance data in a set of distance measuring angles.

なお、ある測距角度の組(θms1,θms2)と、距離画像における画素(ims1,ims2)との対応関係は予め一意に定められている。逆にいうと、距離画像における画素(ims1,ims2)に対して、測距角度の組(θms1,θms2)が定まる。 Note that the correspondence between a set of distance measurement angles (θms1, θms2) and the pixels (ims1, ims2) in the distance image is uniquely determined in advance. Conversely, a set of distance measurement angles (θms1, θms2) is determined for the pixels (ims1, ims2) in the distance image.

測距方式としては、公知の手法を適用することができる。例えば特許第4837413号に記載のTOF(Time of Flight)方式は、物体検出領域に向かってパルス状の測定光を照射し、照射時と反射光検出時との時間差に基づいて、対象物までの距離を算出するものである。また、特許第4703830号に記載のAM(Amplitude Modulation)方式は、物体検出領域に向かって振幅変調された測定光を照射し、測定光と反射光の位相差に基づいて、対象物までの距離を算出するものである。なお、測距装置10の構成や、主副走査パターン、測距方式に特に制限はなく、上述した例とは異なるものであっても構わない。 A known method can be applied as the distance measuring method. For example, the TOF (Time of Flight) method described in Japanese Patent No. 4837413 irradiates a pulsed measurement light toward an object detection area, and based on the time difference between the irradiation time and the reflected light detection time, The distance is calculated. Further, the AM (Amplitude Modulation) method described in Japanese Patent No. 4703830 irradiates an object detection area with measurement light whose amplitude is modulated, and based on the phase difference between the measurement light and the reflected light, the distance to the object. Is calculated. The configuration of the distance measuring device 10, the main and sub scanning patterns, and the distance measuring method are not particularly limited, and may be different from the examples described above.

以上に測距装置10の構成について説明した。測距装置10は、水平方向と垂直方向の2方向に走査可能な装置であるが、第1の実施の形態では、水平方向にのみ走査を行って物体検出装置20に1次元の距離画像のデータを入力する例について説明し、第2の実施の形態において、水平方向および垂直方向に走査を行って物体検出装置20に2次元の距離画像のデータを入力する例を説明する。 The configuration of the distance measuring device 10 has been described above. The distance measuring device 10 is a device capable of scanning in two directions, that is, a horizontal direction and a vertical direction. However, in the first embodiment, the object detecting device 20 is scanned only in the horizontal direction and a one-dimensional distance image is displayed. An example of inputting data will be described, and an example of performing scanning in the horizontal direction and the vertical direction to input data of a two-dimensional range image to the object detection device 20 in the second embodiment will be described.

[物体検出の概要]
物体検出装置20の詳しい説明に入る前に、本実施の形態の物体検出装置20による物体検出の概要について説明する。ここでは、物体検出の概要の理解のため、水平方向の1元走査のみを行う例を挙げて説明するが、2次元走査を行う場合にももちろんあてはまる。
[Outline of object detection]
Before entering a detailed description of the object detection device 20, an outline of object detection by the object detection device 20 of the present embodiment will be described. Here, in order to understand the outline of object detection, an example in which only one-dimensional scanning in the horizontal direction is performed will be described, but it is of course applicable to the case of performing two-dimensional scanning.

図3(a)は、検出対象である人物が時刻t−4から時刻tにかけて移動する例を示している。測距装置10を水平方向に走査して測距を行うと、図3(b)に示すように角度θms1ごとに対象物までの距離Rが得られる。なお、測距装置10による走査は人物の動きよりも十分早く、各時刻において水平方向の走査を完了する。 FIG. 3A illustrates an example in which a person who is a detection target moves from time t-4 to time t. When the distance measuring device 10 is scanned in the horizontal direction to measure the distance, the distance R to the object is obtained for each angle θms1 as shown in FIG. 3B. The scanning by the distance measuring device 10 is sufficiently faster than the movement of the person, and the scanning in the horizontal direction is completed at each time.

図3(b)に記載した「×」の印は、時刻t−2の測距においてノイズが入ったことを示す。つまり、時刻t−2に測距画像を取得する際に、測距装置10と人物との間に虫や落ち葉などのノイズ源が介在して、人物の一部を測距できなかったことを示している。 The mark "x" described in FIG. 3B indicates that noise is included in the distance measurement at time t-2. That is, when a distance measurement image is acquired at time t-2, a noise source such as an insect or a fallen leaf is interposed between the distance measurement device 10 and the person, and it is impossible to measure the distance of a part of the person. Showing.

図4は、測距装置10により得られた測距データについて説明する図である。時刻t−4から時刻tの各時刻に取得した測距画像は、測距方向ごとに距離データを有する。具体的には、測距方向を示すインデックスims1に関連付けて距離R(ims1)のデータを有している。 FIG. 4 is a diagram illustrating distance measurement data obtained by the distance measuring device 10. The distance measurement image acquired at each time from time t-4 to time t has distance data for each distance measurement direction. Specifically, the data of the distance R(ims1) is associated with the index ims1 indicating the distance measuring direction.

図4において、網掛けをした画素は非背景画素であり、網掛けのない画素は背景画素である。あらかじめ物体検出領域内の背景の距離データを記憶しておき、観測された測距データから背景データを差し引き、差分の大きい画素を抽出することで、非背景画素を求めることができる。 In FIG. 4, shaded pixels are non-background pixels, and non-shaded pixels are background pixels. By storing background distance data in the object detection area in advance, subtracting the background data from the observed distance measurement data, and extracting pixels with a large difference, non-background pixels can be obtained.

図4において、網掛けの種類は、同じ物体から得られたデータであることを示している。ここでは説明の便宜上、物体ごとに異なる網掛けをしているが、実際には、物体検出を行わなければ物体が同じなのか異なるかは分からない。図4において斜めの網掛けは、図3(a)及び図3(b)で示した人物までの距離Rを表わす。時刻t−2の画素N1は、その左右の画素とは異なる対象物からの測距データであるが、これは人物と測距装置10との間に(つまり人物よりも手前に)ノイズ源が介在し、測定光を遮ったために生じたものである。本実施の物体検出は、このようなノイズ源があっても人物を適切に検出するものである。 In FIG. 4, the shaded type indicates that the data is obtained from the same object. Here, for convenience of explanation, different objects are shaded, but in reality, it is not known whether the objects are the same or different unless the objects are detected. In FIG. 4, diagonal hatching represents the distance R to the person shown in FIGS. 3A and 3B. The pixel N1 at time t-2 is distance measurement data from an object different from the left and right pixels, but this is because a noise source is present between the person and the distance measuring device 10 (that is, in front of the person). It is caused by intervening and blocking the measuring light. The object detection according to the present embodiment appropriately detects a person even if there is such a noise source.

本実施の形態では、各時刻に取得した距離画像ごとに、その距離画像に含まれる非背景画素をクラスタリングし、物体候補クラスタを生成する。ここでのクラスタリングは、隣接する非背景画素が同じクラスタに含まれるか否かを順次判定することにより行う。隣接する2つの非背景画素にそれぞれ対応する空間内の2点の相対距離が所定の閾値以下である場合に隣接する2つの画素が同じクラスタに含まれると判定し、相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する。 In the present embodiment, for each distance image acquired at each time, non-background pixels included in the distance image are clustered to generate an object candidate cluster. The clustering here is performed by sequentially determining whether or not adjacent non-background pixels are included in the same cluster. When the relative distance between two points in the space corresponding to two adjacent non-background pixels is less than or equal to a predetermined threshold value, it is determined that the two adjacent pixels are included in the same cluster, and the relative distance is greater than the predetermined threshold value. If they are larger, it is determined that they are not included in the same cluster.

図5(a)は、物体候補クラスタの例を示す図である。時刻t−4の距離画像においては物体候補クラスタB4が生成され、時刻t−3の距離画像においては物体候補クラスタB3が生成され、時刻tの距離画像においては物体候補クラスタB0が生成された。時刻t−2の距離画像においては、画素N1とその左右の非背景画素とが同じクラスタではないと判定され、2つの物体候補クラスタB21,B22が生成された。時刻t−1の距離画像においては、人物以外にも非背景画素N2,N3があるため、この2つの非背景画素N2,N3からなる物体候補クラスタB11が生成された。 FIG. 5A is a diagram showing an example of object candidate clusters. An object candidate cluster B4 is generated in the distance image at time t-4, an object candidate cluster B3 is generated in the distance image at time t-3, and an object candidate cluster B0 is generated in the distance image at time t. In the distance image at time t-2, it is determined that the pixel N1 and the left and right non-background pixels are not the same cluster, and two object candidate clusters B21 and B22 are generated. In the distance image at time t−1, since there are non-background pixels N2 and N3 in addition to the person, the object candidate cluster B11 composed of these two non-background pixels N2 and N3 was generated.

次に、物体候補クラスタを時間方向にクラスタリングして、多層化クラスタを生成する。ここでのクラスタリングは、取得時刻が隣接する2つの距離画像から得られたそれぞれの物体候補クラスタが同じクラスタに含まれるか否かを順次判定することにより行う。2つの物体候補クラスタの相対距離が所定の閾値以下である場合に隣接する物体候補クラスタが同じクラスタに含まれると判定し、相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する。 Next, the object candidate clusters are clustered in the time direction to generate a multi-layered cluster. The clustering here is performed by sequentially determining whether or not respective object candidate clusters obtained from two distance images whose acquisition times are adjacent to each other are included in the same cluster. When the relative distance between two object candidate clusters is less than or equal to a predetermined threshold value, it is determined that adjacent object candidate clusters are included in the same cluster, and when the relative distance is greater than the predetermined threshold value, they are not included in the same cluster. judge.

図5(b)は、多層化クラスタCmの例を示す図である。物体候補クラスタB4と物体候補クラスタB3は同じクラスタに含まれると判定され、物体候補クラスタB3と物体候補クラスタB21,B22は同じクラスタに含まれると判定され、物体候補クラスタB21,B22と物体候補クラスタB12は同じクラスタに含まれると判定され、物体候補クラスタB12と物体候補クラスタB0が同じクラスタに含まれると判定された結果、物体クラスタB4,B3,B21,B22,B12,B0からなる多層化クラスタCmが生成された。 FIG. 5B is a diagram showing an example of the multilayer cluster Cm. It is determined that the object candidate cluster B4 and the object candidate cluster B3 are included in the same cluster, the object candidate cluster B3 and the object candidate clusters B21, B22 are included in the same cluster, and the object candidate clusters B21, B22 and the object candidate clusters are included. B12 is determined to be included in the same cluster, and it is determined that the object candidate cluster B12 and the object candidate cluster B0 are included in the same cluster, and as a result, a multi-layered cluster including object clusters B4, B3, B21, B22, B12, B0. Cm was produced.

そして、多層化クラスタCmが所定の条件を満たす場合に多層化クラスタCmに含まれる物体候補クラスタを物体として検出する。所定の条件は、物体候補クラスタのサイズや多層化クラスタCmに含まれる物体候補クラスタの総画素数に関するものであり、例えば、多層化クラスタCmに含まれる物体候補クラスタのサイズが所定の大きさより大きく、かつ、多層化クラスタCmに含まれる物体候補クラスタの総画素数が所定の閾値以上である場合に、多層化クラスタCmに含まれる物体候補クラスタを物体であると判定する。 Then, when the multilayer cluster Cm satisfies a predetermined condition, the object candidate cluster included in the multilayer cluster Cm is detected as an object. The predetermined condition relates to the size of the object candidate cluster or the total number of pixels of the object candidate cluster included in the multi-layered cluster Cm. For example, the size of the object candidate cluster included in the multi-layered cluster Cm is larger than the predetermined size. Further, when the total number of pixels of the object candidate clusters included in the multilayer cluster Cm is equal to or larger than a predetermined threshold value, the object candidate clusters included in the multilayer cluster Cm are determined to be objects.

多層化クラスタCmが所定の条件を満たす場合には、距離画像ごとに物体を検出する。例えば、時刻t−4の距離画像のように多層化クラスタCmに1つの物体候補クラスタB4が含まれる場合には、物体候補クラスタB4を物体であると検出する。時刻t−2の距離画像のように、2つの物体候補クラスタB21,B22を含んでいる場合には、2つの物体候補クラスタB21,B22は時刻t−4で検出した物体と同じ1つの物体を示していると判定する。これにより、時刻t−2のようにノイズ源によって2つの物体候補クラスタに分かれてしまった場合でも、他の時刻に取得した距離画像も含めて生成した多層化クラスタCmの情報を用いて1つの物体であることを検出することができる。 When the multilayer cluster Cm satisfies a predetermined condition, an object is detected for each range image. For example, when one layer of the object candidate cluster B4 is included in the multi-layered cluster Cm as in the distance image at time t-4, the object candidate cluster B4 is detected as an object. When two object candidate clusters B21 and B22 are included as in the distance image at time t-2, the two object candidate clusters B21 and B22 are the same one object detected at time t-4. It is determined to indicate. As a result, even when the object is divided into two object candidate clusters due to the noise source as at time t-2, one object is obtained by using the information of the multi-layered cluster Cm generated including the range images acquired at other times. It can be detected as an object.

また、時刻t−1における画素N2,N3のように一瞬だけ現れた非背景画素については、その前後の時刻において物体候補クラスタが連続していないことからノイズであると判断でき、ノイズ源を物体と誤って検出してしまうことがない。 In addition, non-background pixels that appear for a moment, such as the pixels N2 and N3 at time t-1, can be determined to be noise because the object candidate clusters are not continuous at the times before and after that, and the noise source is the object. It will not be erroneously detected.

[物体検出装置の構成]
図1を参照して物体検出装置20の構成について説明する。物体検出装置20は、距離画像取得部21と、非背景画素抽出部22と、第1クラスタリング部23と、第2クラスタリング部24と、物体検出部25と、出力部26とを有している。これら各部の一部または全部は、ハードウェアで構成されてもよいし、コンピュータのプロセッサが所定のプログラムを実行することによって実現されてもよい。
[Configuration of object detection device]
The configuration of the object detection device 20 will be described with reference to FIG. The object detection device 20 includes a distance image acquisition unit 21, a non-background pixel extraction unit 22, a first clustering unit 23, a second clustering unit 24, an object detection unit 25, and an output unit 26. .. Some or all of these units may be configured by hardware, or may be realized by a processor of a computer executing a predetermined program.

距離画像取得部21は、測距装置10によって生成された距離画像を取得する。第1の実施の形態においては、水平方向の走査をしたときの距離画像のデータを取得するものとする。この場合、距離画像の各画素(ims1)の値は、画素に対応する方向にある対象物までの距離R(ims1)を示す。 The distance image acquisition unit 21 acquires the distance image generated by the distance measuring device 10. In the first embodiment, it is assumed that the data of the range image at the time of scanning in the horizontal direction is acquired. In this case, the value of each pixel (ims1) of the distance image indicates the distance R(ims1) to the object in the direction corresponding to the pixel.

非背景画素抽出部22は、距離画像から非背景の画素(ims1)を抽出する。なお、「背景」は、測距装置10の測距対象となり得るが、物体として検出する必要がないものであり、例えば床や天井、固定された家具などである。非背景画素抽出部22は、背景画像データ記憶部27に記憶された背景画像と距離画像とを比較して、その差分が所定の閾値以上の画素を非背景画素として抽出する。 The non-background pixel extraction unit 22 extracts a non-background pixel (ims1) from the distance image. The “background” may be a distance measurement target of the distance measuring device 10, but does not need to be detected as an object, and is, for example, a floor, a ceiling, or fixed furniture. The non-background pixel extraction unit 22 compares the background image stored in the background image data storage unit 27 with the distance image, and extracts a pixel whose difference is equal to or larger than a predetermined threshold as a non-background pixel.

ここで、背景画像データ記憶部27に記憶される背景画像は、例えば物体検出領域内に物体が何もない状態で、測距装置10によって生成された距離画像とすることができる。あるいは、測距装置10によって生成された多数の距離画像を画素ごとに平均した平均距離画像であってもよい。後者の場合、測距装置10のノイズの影響を抑えることができるし、物体検出領域内に物体が何もない状態を実現することが難しい場合でも、背景画像を生成できる。なお、平均としては、算術平均のほか、幾何平均や刈り込み平均などを用いることができる。 Here, the background image stored in the background image data storage unit 27 can be, for example, a distance image generated by the distance measuring apparatus 10 in a state where there is no object in the object detection area. Alternatively, it may be an average distance image obtained by averaging a number of distance images generated by the distance measuring device 10 for each pixel. In the latter case, the influence of noise of the distance measuring device 10 can be suppressed, and a background image can be generated even when it is difficult to realize a state where there is no object in the object detection area. In addition to the arithmetic mean, a geometric mean or a trimmed mean can be used as the mean.

第1クラスタリング部23は、非背景画素抽出部22にて抽出した非背景画素をクラスタリングして、物体候補クラスタを生成する。第1クラスタリング部23は、ある非背景画素(画素(ims1)とする)が示す空間内での点と、隣接する非背景画素(画素(i’ms1)とする)が示す空間内での点との相対距離Rrltvを算出し、この相対距離Rrltvに基づいてクラスタリングを行う。ここで、「隣接する非背景画素」について説明する。距離画像は、測距方向ごとの距離データを画素として有しており、測距方向によって隣接する画素を規定することができる。画素には、背景画素と非背景画素があり、非背景画素の隣りの画素は必ずしも非背景画素であるとは限らないが、「隣接する非背景画素」とは、隣りが背景画素の場合には、その背景画素を飛ばして隣りの画素を見ていき、最初に現れる非背景画素が「隣接する非背景画素」である。 The first clustering unit 23 clusters the non-background pixels extracted by the non-background pixel extraction unit 22 to generate an object candidate cluster. The first clustering unit 23 includes a point in the space indicated by a certain non-background pixel (referred to as pixel (ims1)) and a point in the space indicated by an adjacent non-background pixel (referred to as pixel (i'ms1)). A relative distance R rltv with respect to is calculated, and clustering is performed based on this relative distance R rltv . Here, "adjacent non-background pixels" will be described. The distance image has the distance data for each distance measuring direction as a pixel, and adjacent pixels can be defined by the distance measuring direction. A pixel includes a background pixel and a non-background pixel, and a pixel adjacent to a non-background pixel is not necessarily a non-background pixel. However, "adjacent non-background pixel" means that a neighboring pixel is a background pixel. Is a non-background pixel which is the first non-background pixel that appears first by skipping the background pixel and looking at the adjacent pixel.

隣接する非背景画素の相対距離は、非背景画素(ims1)が示す対象物と測距装置10との距離R(i’ms1)と、隣接する非背景画素(i’ms1)が示す対象物と測距装置10との距離R(i’ms1)とに基づいて算出される。図6は、画素間の相対距離Rrltvを算出する手法を説明する図である。図示のように、画素(ims1)が示す点P(ims1)は、測距装置10を原点Oとして、距離R(ims1)とその測距方向を表わすベクトルD(ims1)によって特定される。同様に、画素(i’ms1)が示す点P’(i’ms1)は、距離R(i’ms1)とその測距方向を表わすベクトルD(i’ms1)によって特定される。 The relative distance between adjacent non-background pixels is the distance R (i'ms1) between the object indicated by the non-background pixel (ims1) and the distance measuring device 10, and the object indicated by the adjacent non-background pixel (i'ms1). Is calculated based on the distance R(i′ms1) from the distance measuring device 10. FIG. 6 is a diagram illustrating a method of calculating the relative distance R rltv between pixels. As shown in the figure, the point P(ims1) indicated by the pixel (ims1) is specified by the distance R(ims1) and the vector D(ims1) representing the distance measuring direction with the distance measuring device 10 as the origin O. Similarly, the point P'(i'ms1) indicated by the pixel (i'ms1) is specified by the distance R(i'ms1) and the vector D(i'ms1) representing the distance measuring direction.

第1クラスタリング部23は、これらの距離R,R’と測距方向を表わすベクトルD,D’に基づき、三角形OPP’に余弦定理を適用して相対距離Rrltvを算出する。具体的には、下記(1)式により、画素(ims1)と、画素(i’ms1)との相対距離Rrltv((ims1),(i'ms1))が得られる。 The first clustering unit 23 calculates the relative distance R rltv by applying the cosine theorem to the triangle OPP′ based on the distances R and R′ and the vectors D and D′ representing the distance measuring direction. Specifically, the relative distance R rltv ((ims1), (i'ms1)) between the pixel (ims1) and the pixel (i'ms1) is obtained by the following equation (1).

Figure 0006742157
Figure 0006742157

第1クラスタリング部23は、隣接する非背景画素の相対距離Rrltvが所定の閾値(例えば0.20[m])以下である場合、その2画素が同一のクラスタに属すると判定し、相対距離Rrltvが所定の閾値より大きい場合、その2画素は同一のクラスタには属しないと判定する。隣接する2つの非背景画素間の相対距離Rrltvと閾値との比較評価を、距離画像を構成する全画素について順次行うことで、距離画像に含まれる非背景画素を複数の物体候補クラスタに分ける。 When the relative distance R rltv between adjacent non-background pixels is equal to or smaller than a predetermined threshold value (for example, 0.20 [m]), the first clustering unit 23 determines that the two pixels belong to the same cluster, and determines the relative distance. When R rltv is larger than the predetermined threshold value, it is determined that the two pixels do not belong to the same cluster. The non-background pixels included in the range image are divided into a plurality of object candidate clusters by sequentially performing the comparative evaluation of the relative distance R rltv between two adjacent non-background pixels and the threshold value for all the pixels forming the range image. ..

図1に戻って第2クラスタリング部24について説明する。第2クラスタリング部24は、第1のクラスタリングで生成された複数の物体候補クラスタを時間方向にクラスタリングして、多層化クラスタを生成する。第2クラスタリング部24は、所定の時刻の距離画像から得られた物体候補クラスタと、隣接する時刻の距離画像から得られた物体候補クラスタとの間の相対距離RB2rltvを算出する。 Returning to FIG. 1, the second clustering unit 24 will be described. The second clustering unit 24 clusters the plurality of object candidate clusters generated by the first clustering in the time direction to generate a multi-layered cluster. The second clustering unit 24 calculates the relative distance R B2rltv between the object candidate cluster obtained from the distance image at the predetermined time and the object candidate cluster obtained from the distance image at the adjacent time.

物体候補クラスタどうしの相対距離RB2rltvは、各物体候補クラスタに含まれるすべての画素どうしの相対距離を算出し、最小の相対距離を物体候補クラスタの相対距離RB2rltvとして求める。具体的には、下記(2)式により、所定の時刻tに取得した距離画像から得られたjt番目の物体候補クラスタB(t,jt)と、隣接する時刻t−1に取得した距離画像から得られたj't-1番目の物体候補クラスタB(t-1,j't-1)との相対距離RB2rltvが得られる。

Figure 0006742157
ただし、ims1はB(t,jt)内の画素、i'ms1,はB(t-1,j't-1)内の画素である。 As the relative distance R B2rltv between the object candidate clusters, the relative distance between all the pixels included in each object candidate cluster is calculated, and the minimum relative distance is obtained as the relative distance R B2rltv of the object candidate cluster. Specifically, according to the following equation (2), the j t- th object candidate cluster B(t,j t ) obtained from the range image obtained at a predetermined time t and the adjacent time t−1 are obtained. The relative distance R B2rltv to the j′ t−1 th object candidate cluster B(t-1, j′ t−1 ) obtained from the distance image is obtained.
Figure 0006742157
However, i ms1 is a pixel in B(t,j t ), and i′ ms1 is a pixel in B(t-1,j′ t−1 ).

第2クラスタリング部24も、各画素が示す点をXY座標系に変換することなく、距離画像の各画素が示す距離Rと測距走査方向ベクトルDとに基づいて画素間の相対距離RB2rltvを算出する。これにより、クラスタリングの計算量を減らすことができる。 The second clustering unit 24 also calculates the relative distance R B2rltv between pixels based on the distance R indicated by each pixel of the distance image and the distance measurement scanning direction vector D without converting the point indicated by each pixel into the XY coordinate system. calculate. As a result, the amount of clustering calculation can be reduced.

そして、第2クラスタリング部24は、相対距離RB2rltvが所定の閾値(例えば0.50[m])以下である場合、その2つの物体候補クラスタが同一のクラスタに属すると判断し、相対距離RB2rltvが所定の閾値より大きい場合、その2つの物体候補クラスタが異なるクラスタに属すると判断する。隣接する時刻に取得した距離画像から得られた物体候補クラスタの間の相対距離RB2rltvと閾値との比較評価を、全ての物体候補クラスタについて順次行うことで、1または複数の多層化クラスタが形成される。 Then, when the relative distance R B2rltv is equal to or less than a predetermined threshold value (for example, 0.50 [m]), the second clustering unit 24 determines that the two object candidate clusters belong to the same cluster, and the relative distance R When B2rltv is larger than a predetermined threshold value, it is determined that the two object candidate clusters belong to different clusters. One or a plurality of multi-layered clusters are formed by sequentially performing the comparative evaluation of the relative distance R B2rltv between the object candidate clusters obtained from the distance images acquired at the adjacent times and the threshold value for all the object candidate clusters. To be done.

図1に戻って物体検出部25について説明する。物体検出部25は、第2クラスタリング部24にて生成された多層化クラスタが所定の条件を満たすか否かに基づいて、物体を検出する。本実施の形態において用いる条件は、多層化クラスタCmに含まれる最大の物体候補クラスタのサイズが所定の大きさ(例えば、0.5m)より大きく、かつ、多層化クラスタCmに含まれる物体候補クラスタの総画素数が所定の閾値(例えば、20画素)以上である場合に、多層化クラスタCmに含まれる物体候補クラスタを物体であると判定する。多層化クラスタCmが所定の条件を満たす場合には、物体検出部25は、距離画像ごとに物体を検出する。つまり、距離画像から得られた1又は複数の物体候補クラスタを1つの物体として検出する。 Returning to FIG. 1, the object detection unit 25 will be described. The object detection unit 25 detects an object based on whether or not the multilayer cluster generated by the second clustering unit 24 satisfies a predetermined condition. The condition used in the present embodiment is that the size of the largest object candidate cluster included in the multilayer cluster Cm is larger than a predetermined size (for example, 0.5 m) and the object candidate cluster included in the multilayer cluster Cm. When the total number of pixels of is equal to or larger than a predetermined threshold value (for example, 20 pixels), the object candidate cluster included in the multilayer cluster Cm is determined to be an object. When the multilayer cluster Cm satisfies the predetermined condition, the object detection unit 25 detects an object for each distance image. That is, one or a plurality of object candidate clusters obtained from the distance image are detected as one object.

出力部26は、物体検出部25にて検出された物体を出力座標系に応じて出力する。物体検出部25で検出された物体はθms1,R,Tの3次元の観測点の集合である。そのままで出力するのならば、出力部26は、R-θms1-T座標系で出力する。時間の情報が不要な場合には、例えば距離画像と同様なR-θms1座標系で出力する。また、XYT座標系に変換しても良いし、この場合も時間の情報が不要ならXY座標系に変換しても良い。本実施の形態では、XYT座標系に変換して出力する例を取り上げて説明する。出力の態様としては、例えば、モニタ等の表示手段に表示してもよい。 The output unit 26 outputs the object detected by the object detection unit 25 according to the output coordinate system. The object detected by the object detection unit 25 is a set of three-dimensional observation points of θms1, R, and T. When outputting as it is, the output unit 26 outputs in the R-θms1-T coordinate system. When the time information is unnecessary, for example, it is output in the R-θms1 coordinate system similar to the distance image. Further, it may be converted into the XYT coordinate system, and also in this case, if the time information is unnecessary, it may be converted into the XY coordinate system. In the present embodiment, an example of converting to an XYT coordinate system and outputting will be described. As an output mode, for example, it may be displayed on a display means such as a monitor.

図7は、出力部26により出力された物体Kの検出結果の例を示す図である。図7に示すように、XYT座標系において物体Kの検出結果を表示することで、物体の動きを容易に把握することができる。 FIG. 7 is a diagram showing an example of the detection result of the object K output by the output unit 26. As shown in FIG. 7, by displaying the detection result of the object K in the XYT coordinate system, the movement of the object can be easily grasped.

[物体検出装置の動作]
次に、本実施の形態の物体検出装置20の動作について説明する。図8は、物体検出装置20により物体を検出する動作を示すフローチャートである。物体検出装置20は、測距装置10から距離画像のデータを取得する(S10)。測距装置10は、定期的に測距を行って距離画像を生成し、物体検出装置20は測距装置10から定期的に距離画像のデータを取得する。
[Operation of Object Detection Device]
Next, the operation of the object detection device 20 of the present exemplary embodiment will be described. FIG. 8 is a flowchart showing the operation of detecting an object by the object detection device 20. The object detection device 20 acquires the distance image data from the distance measuring device 10 (S10). The distance measuring device 10 periodically performs distance measurement to generate a distance image, and the object detection device 20 periodically acquires distance image data from the distance measuring device 10.

物体検出装置20は、取得した距離画像の中から非背景画素を抽出する(S11)。続いて、物体検出装置20は、距離画像に含まれる非背景画素に対して第1のクラスタリングを行い、非背景画素の集合である物体候補クラスタを生成する(S12)。第1のクラスタリングの処理については、図9を参照して後述する。物体検出装置20は、物体候補クラスタに対して第2のクラスタリングを行い、物体候補クラスタの集合である多層化クラスタを生成する(S13)。第2のクラスタリング処理については、図10を参照して後述する。 The object detection device 20 extracts a non-background pixel from the acquired range image (S11). Subsequently, the object detection device 20 performs the first clustering on the non-background pixels included in the distance image to generate an object candidate cluster that is a set of non-background pixels (S12). The first clustering process will be described later with reference to FIG. The object detection device 20 performs the second clustering on the object candidate clusters to generate a multi-layered cluster which is a set of object candidate clusters (S13). The second clustering process will be described later with reference to FIG.

物体検出装置20は、多層化クラスタが所定の条件を満たすか否かを判定し、物体を検出する(S14)。第2のクラスタリング処理により、複数の多層化クラスタが生成されるが、所定の条件を満たす多層化クラスタからは物体が検出され、所定の条件を満たさない多層化クラスタはノイズとして判断される。 The object detection device 20 determines whether or not the multilayer cluster satisfies a predetermined condition, and detects an object (S14). Although a plurality of multi-layered clusters are generated by the second clustering process, an object is detected from the multi-layered clusters that satisfy a predetermined condition, and a multi-layered cluster that does not satisfy the predetermined condition is determined as noise.

物体検出装置20は、検出した物体を示す画素値を空間座標系に変換する(S15)。上述したとおり、検出した物体の位置情報を出力する際には、出力座標系に対応するように変換を行えばよいが、本実施の形態では、物体の位置情報をXYT座標系に変換する。続いて、物体検出装置20は、検出結果を出力する(S16)。 The object detection device 20 converts the pixel value indicating the detected object into a spatial coordinate system (S15). As described above, when outputting the position information of the detected object, the conversion may be performed so as to correspond to the output coordinate system, but in the present embodiment, the position information of the object is converted into the XYT coordinate system. Subsequently, the object detection device 20 outputs the detection result (S16).

図9は、第1のクラスタリングの処理を示すフローチャートである。まず、第1クラスタリング部23は、物体候補クラスタに属する画素を順次追加していくための一時保存領域を確保する(ステップS20)。 FIG. 9 is a flowchart showing the process of the first clustering. First, the first clustering unit 23 reserves a temporary storage area for sequentially adding pixels belonging to the object candidate cluster (step S20).

そして、第1クラスタリング部23は、距離画像から処理対象の画素(ims1)を取得する(ステップS21)。処理対象の画素の取得の順序としては、最初に走査範囲の端にある非背景画素を取得し、その後は順次、前の非背景画素に隣接する非背景画素を取得していく。処理対象の画素の取得の順序を記憶した記憶部を備えてもよい。 Then, the first clustering unit 23 acquires a pixel to be processed (ims1) from the distance image (step S21). The order of acquisition of pixels to be processed is to first acquire the non-background pixels at the edge of the scanning range, and then sequentially acquire the non-background pixels adjacent to the previous non-background pixels. A storage unit that stores the acquisition order of the pixels to be processed may be provided.

第1クラスタリング部23は、一時保存領域に画素が保存されているか否かを判定する(S22)。一時保存領域に画素が保存されていない場合には(S22でNO)、処理対象の画素を保存領域に保存する(S28)。距離画像から最初に非背景画素を取得したときには、一時保存領域には画素が保存されていないので、最初の処理対象画素は一時保存領域に保存される(S28)。 The first clustering unit 23 determines whether pixels are stored in the temporary storage area (S22). If the pixel is not stored in the temporary storage area (NO in S22), the pixel to be processed is stored in the storage area (S28). When the non-background pixel is first acquired from the range image, the pixel is not stored in the temporary storage area, so the first processing target pixel is stored in the temporary storage area (S28).

一時保存領域に画素が保存されている場合には(S22でYES)、処理対象画素と隣接する1つ前の処理対象画素を一時保存領域から読み出す(S23)。上述したとおり、第1クラスタリング部23は、隣接する非背景画素を順次読み出しているので、ここで一時保存領域から読み出される非背景画素は、処理対象画素に隣接する非背景画素である。第1クラスタリング部23は、処理対象画素と1つ前の処理対象画素との相対距離Rrltvを上述した式(1)によって算出する(S24)。 If the pixel is stored in the temporary storage area (YES in S22), the immediately preceding processing target pixel adjacent to the processing target pixel is read from the temporary storage area (S23). As described above, since the first clustering unit 23 sequentially reads the adjacent non-background pixels, the non-background pixels read from the temporary storage area here are the non-background pixels adjacent to the processing target pixel. The first clustering unit 23 calculates the relative distance R rltv between the pixel to be processed and the pixel to be processed immediately before by the equation (1) described above (S24).

第1クラスタリング部23は、求めた相対距離Rrltvが所定の閾値以下であるか否かを判定する(S25)。相対距離Rrltvが所定の閾値以下である場合には(S25でYES)、処理対象画素と、1つ前の処理対象画素が同じクラスタに属すると判定し、第1クラスタリング部23は、処理対象画素を一時保存領域に保存する(S26)。相対距離Rrltvが所定の閾値以下でない場合(S25でNO)、処理対象画素と、1つ前の処理対象画素とは異なるクラスタに属すると判定し、第1クラスタリング部23は、一時保存領域に記憶されている処理対象画素が物体候補クラスタを構成すると確定する(S27)。 The first clustering unit 23 determines whether or not the calculated relative distance R rltv is less than or equal to a predetermined threshold value (S25). When the relative distance R rltv is equal to or less than the predetermined threshold value (YES in S25), it is determined that the processing target pixel and the immediately preceding processing target pixel belong to the same cluster, and the first clustering unit 23 determines the processing target. The pixel is stored in the temporary storage area (S26). When the relative distance R rltv is not equal to or less than the predetermined threshold value (NO in S25), it is determined that the processing target pixel and the processing target pixel immediately before belong to a different cluster, and the first clustering unit 23 stores the temporary storage area in the temporary storage area. It is determined that the stored processing target pixels form an object candidate cluster (S27).

第1クラスタリング部23は、確定した物体候補クラスタを構成する画素データを別の保存領域に移動すると共に、一時保存領域のデータをクリアする(S27)。このときに、一時保存領域に1つの画素しか保存されていなかったときには、その画素は前後の隣接画素とクラスタを構成するものではないので、別の保存領域に移動することなく一時保存領域からクリアしてもよい。続いて、第1クラスタリング部23は、処理対象画素を一時保存領域に保存する(S28)。 The first clustering unit 23 moves the pixel data forming the confirmed object candidate cluster to another storage area and clears the data in the temporary storage area (S27). At this time, if only one pixel is stored in the temporary storage area, that pixel does not form a cluster with the adjacent pixels before and after, so it is cleared from the temporary storage area without moving to another storage area. You may. Subsequently, the first clustering unit 23 stores the processing target pixel in the temporary storage area (S28).

第1クラスタリング部23は、距離画像に含まれるすべての非背景画素について処理を行ったか否かを判定し(S29)、まだ未処理の非背景画素がある場合には(S29でNO)、未処理の非背景画素を処理対象画素として抽出するステップに戻り(S21)、上述した処理を繰り返す。 The first clustering unit 23 determines whether or not all the non-background pixels included in the distance image have been processed (S29), and if there is an unprocessed non-background pixel (NO in S29), the unprocessed non-background pixels have not been processed. Returning to the step of extracting the non-background pixel of the process as the process target pixel (S21), the above-described process is repeated.

図10は、第2のクラスタリングの処理を示すフローチャートである。図11及び図12は、第2のクラスタリングの処理によって多層化クラスタが生成される過程を示す図である。 FIG. 10 is a flowchart showing the process of the second clustering. 11 and 12 are diagrams showing a process in which a multilayer cluster is generated by the second clustering process.

第2クラスタリング部24は、取得時刻が最先の距離画像から生成された物体候補クラスタを多層化クラスタ候補として保存する(S30)。図11(a)に示す例では、最先の取得時刻t−3の2つの物体候補クラスタを多層化クラスタ候補Cm1,Cm2として保存する。 The second clustering unit 24 stores the object candidate cluster generated from the distance image with the earliest acquisition time as a multilayer cluster candidate (S30). In the example shown in FIG. 11A, the two object candidate clusters at the earliest acquisition time t-3 are stored as the multilayer cluster candidates Cm1 and Cm2.

第2クラスタリング部24は、隣接する時刻に取得した距離画像を処理対象として選択し(S31)、処理対象の距離画像から得られた物体候補クラスタを処理対象として選択する(S32)。そして、選択された物体候補クラスタと多層化クラスタ候補との相対距離RB2rltvを計算する(S33)。図11(a)に示す例では、取得時刻t−3に隣接する取得時刻t−2の距離画像を処理対象として選択し(S31)、物体候補クラスタB1を処理対象として選択する(S32)。そして、物体候補クラスタB1と多層化クラスタ候補Cm1,Cm2との相対距離RB2rltvを計算する(S33)。 The second clustering unit 24 selects a distance image acquired at an adjacent time as a processing target (S31), and selects an object candidate cluster obtained from the processing target distance image as a processing target (S32). Then, the relative distance R B2rltv between the selected object candidate cluster and the multilayer cluster candidate is calculated (S33). In the example illustrated in FIG. 11A, the distance image at the acquisition time t-2 adjacent to the acquisition time t-3 is selected as the processing target (S31), and the object candidate cluster B1 is selected as the processing target (S32). Then, the relative distance R B2rltv between the object candidate cluster B1 and the multilayer cluster candidates Cm1 and Cm2 is calculated (S33).

第2クラスタリング部24は、相対距離RB2rltvが閾値以下の多層化クラスタ候補があるか否かを判定し(S34)、相対距離RB2rltvが閾値以下の多層化クラスタ候補がある場合には(S34でYES)、その多層化クラスタ候補に処理対象の物体候補クラスタを追加する(S35)。もし、相対距離RB2rltvが閾値以下の多層化クラスタ候補がない場合には(S34でNO)、処理対象の物体候補クラスタを新たな多層化クラスタ候補として保存する(S36)。 The second clustering unit 24, the relative distance R B2rltv it is determined whether there is a following multilayered cluster candidates threshold (S34), the relative distance in the case where R B2rltv is the following multilayered cluster candidates threshold (S34 YES), the object candidate cluster to be processed is added to the multilayer cluster candidate (S35). If there is no multilayer cluster candidate having the relative distance R B2rltv equal to or less than the threshold value (NO in S34), the object candidate cluster to be processed is stored as a new multilayer cluster candidate (S36).

図11(a)に示す例では、相対距離RB2rltvが閾値以下であることを実線の矢印で示し、閾値以下でないことを点線の矢印で示している。ここでは、物体候補クラスタB1と多層化クラスタ候補Cm1との相対距離RB2rltvが所定の閾値以下であるので、図11(b)に示すように多層化クラスタ候補Cm1に物体候補クラスタB1を加える。多層化クラスタ候補Cm2については、追加される物体候補クラスタがないので、この時点で多層化クラスタ候補Cm2の更新は終了する。 In the example shown in FIG. 11A, a solid arrow indicates that the relative distance R B2rltv is less than or equal to the threshold, and a dotted arrow indicates that the relative distance R B2rltv is not less than or equal to the threshold. Here, since the relative distance R B2rltv between the object candidate cluster B1 and the multi-layered cluster candidate Cm1 is less than or equal to a predetermined threshold value, the object candidate cluster B1 is added to the multi-layered cluster candidate Cm1 as shown in FIG. 11B. With respect to the multi-layered cluster candidate Cm2, there is no object candidate cluster to be added, so the update of the multi-layered cluster candidate Cm2 ends at this point.

第2クラスタリング部24は、処理対象の距離画像の全ての物体候補クラスタについて処理を行ったか否かを判定し(S37)、まだ未処理の物体候補クラスタがある場合には(S37でNO)、未処理の物体候補クラスタを処理対象として選択して(S32)、上述した処理を行う。 The second clustering unit 24 determines whether or not all the object candidate clusters of the distance image to be processed have been processed (S37), and when there is an unprocessed object candidate cluster (NO in S37), An unprocessed object candidate cluster is selected as a processing target (S32), and the above-described processing is performed.

処理対象の距離画像の全ての物体候補クラスタについて処理を行った場合には(S37でYES)、第2クラスタリング部24は、全ての距離画像を処理したか否か判定し(S38)、未処理の距離画像がある場合には(S38でNO)、処理を行った距離画像と隣接する時刻に取得した距離画像を新たな処理対象として選択し(S31)、上述した処理を行う。全ての距離画像について処理を行った場合には(S38でYES)、生成された多層化クラスタ候補を多層化クラスタとして確定し(S39)、処理を終了する。 When the processing has been performed on all the object candidate clusters of the distance image to be processed (YES in S37), the second clustering unit 24 determines whether or not all the distance images have been processed (S38), and unprocessed. If there is a distance image of (NO in S38), the distance image acquired at the time adjacent to the processed distance image is selected as a new processing target (S31), and the above-described processing is performed. When the processing has been performed for all distance images (YES in S38), the generated multilayer cluster candidate is confirmed as a multilayer cluster (S39), and the processing ends.

図11及び図12を参照して多層化クラスタの生成の過程についてさらに説明する。取得時刻t−2の距離画像についての処理が完了すると、取得時刻t−1の距離画像を処理対象として選択する。その距離画像から処理対象の物体候補クラスタB2〜B4を順次選択して処理を行う。図11(c)に示すように物体候補クラスタB2と多層化クラスタ候補Cm1との相対距離RB2rltvを計算し、所定の閾値以下であると判定し、物体候補クラスタB2を多層化クラスタ候補Cm1に追加する。 The process of generating the multi-layered cluster will be further described with reference to FIGS. 11 and 12. When the processing of the distance image at the acquisition time t-2 is completed, the distance image at the acquisition time t-1 is selected as a processing target. Object candidate clusters B2 to B4 to be processed are sequentially selected from the distance image and processed. As shown in FIG. 11C, the relative distance R B2rltv between the object candidate cluster B2 and the multilayer cluster candidate Cm1 is calculated, and it is determined that the relative distance R B2rltv is less than or equal to a predetermined threshold, and the object candidate cluster B2 is set as the multilayer cluster candidate Cm1. to add.

なお、物体候補クラスタB2と多層化クラスタ候補Cm1との相対距離RB2rltvを求める際に用いるのは、多層化クラスタ候補Cm1に含まれる物体候補クラスタのうち、処理対象である時刻t−1の距離画像と隣接する時刻t−2の距離画像から生成された物体候補クラスタB1との相対距離であり、隣接していない時刻t−3の距離画像から生成された物体候補クラスタとの相対距離ではない。 Note that, when the relative distance R B2rltv between the object candidate cluster B2 and the multi-layered cluster candidate Cm1 is obtained, the distance at the time t−1 that is the processing target among the object candidate clusters included in the multi-layered cluster candidate Cm1 is used. It is the relative distance to the object candidate cluster B1 generated from the distance image at time t-2 adjacent to the image, and is not the relative distance to the object candidate cluster generated from the distance image at time t-3 that is not adjacent. ..

同様に、物体候補クラスタB3と多層化クラスタ候補Cm1との相対距離RB2rltvを計算し、所定の閾値以下であると判定し、物体候補クラスタB3を多層化クラスタ候補Cm1に追加する。続いて、物体候補クラスタB4と多層化クラスタ候補Cm1との相対距離RB2rltvを計算し、所定の閾値以下ではないと判定し、図12(a)に示すように、物体候補クラスタB4を新たな多層化クラスタ候補Cm3とする。 Similarly, the relative distance R B2rltv between the object candidate cluster B3 and the multilayer cluster candidate Cm1 is calculated, and it is determined that the relative distance R B2rltv is equal to or smaller than a predetermined threshold value, and the object candidate cluster B3 is added to the multilayer cluster candidate Cm1. Subsequently, the relative distance R B2rltv between the object candidate cluster B4 and the multilayer cluster candidate Cm1 is calculated, it is determined that the relative distance R B2rltv is not less than or equal to a predetermined threshold, and the object candidate cluster B4 is newly created as shown in FIG. The candidate is a multilayer cluster candidate Cm3.

以上で、時刻t−1の距離画像に含まれる物体候補クラスタB2〜B4の処理が完了したので、時刻tの距離画像を処理対象とする。その距離画像から処理対象の物体候補クラスタB5を選択して処理を行う。図12(b)に示すように、物体候補クラスタB5と多層化クラスタ候補Cm1,Cm3との相対距離RB2rltvを計算し、多層化クラスタ候補Cm1との相対距離RB2rltvが所定の閾値より大きく、多層化クラスタ候補Cm3との相対距離RB2rltvが所定の閾値以下であると判定し、物体候補クラスタB5を多層化クラスタ候補Cm3に追加する。なお、本実施の形態では、取得時刻の古い距離画像の物体候補クラスタから順に多層化クラスタ候補を追加していったが、取得時刻の新しい距離画像から順に多層化クラスタ候補を追加していってもよい。 With the above processing of the object candidate clusters B2 to B4 included in the distance image at time t−1 is completed, the distance image at time t is set as the processing target. The object candidate cluster B5 to be processed is selected from the distance image and processed. As shown in FIG. 12 (b), the relative distance R B2rltv between object candidate clusters B5 and multilayered cluster candidates Cm1, Cm3 calculates the relative distance R B2rltv the multilayered cluster candidates Cm1 is greater than a predetermined threshold value, determining the relative distance R B2rltv the multilayered cluster candidate Cm3 is below a predetermined threshold value, adds an object candidate cluster B5 in multilayered cluster candidates Cm3. In the present embodiment, the multi-layered cluster candidates are added in order from the object candidate cluster of the distance image with the old acquisition time, but the multi-layered cluster candidates are added in order from the new distance image with the acquisition time. Good.

以上のようにした多層化クラスタCm1,Cm2,Cm3を生成する。そして、多層化クラスタ候補を多層化クラスタとして確定する。なお、多層化クラスタ候補の更新を終了したときに1層しかない多層化クラスタ候補Cm2は、多層化クラスタとして確定しない構成としてもよい。 The multi-layered clusters Cm1, Cm2 and Cm3 as described above are generated. Then, the multi-layered cluster candidate is determined as the multi-layered cluster. The multi-layered cluster candidate Cm2 having only one layer when the update of the multi-layered cluster candidate is completed may not be determined as the multi-layered cluster.

本実施の形態の物体検出システム1は、複数の時刻に取得した距離画像から抽出した物体候補クラスタを時間方向にクラスタリングして多層化クラスタを生成し、多層化クラスタが所定の条件を満たすか否かによって物体を検出する。したがって、ある取得時刻においてノイズが含まれていたとしてもそのノイズの影響を受けにくく、適切に物体を検出することができる。図12(c)に示す例では、時刻t−1に取得した距離画像に含まれる2つの物体候補クラスタB2,B3は、多層化クラスタCm1に基づいて物体検出を行うことにより、時刻t−2に検出された物体候補クラスタB1と同じ物体であることを検出することができる。 The object detection system 1 of the present embodiment generates a multi-layered cluster by clustering object candidate clusters extracted from range images acquired at a plurality of times in the time direction, and determines whether the multi-layered cluster satisfies a predetermined condition. The object is detected depending on. Therefore, even if noise is included at a certain acquisition time, it is difficult to be affected by the noise, and the object can be appropriately detected. In the example illustrated in FIG. 12C, the two object candidate clusters B2 and B3 included in the distance image acquired at time t-1 perform object detection based on the multi-layered cluster Cm1, thereby resulting in time t-2. It is possible to detect that the object is the same object as the object candidate cluster B1 detected in step 1.

(第2の実施の形態)
図13は、第2の実施の形態の物体検出システム2の構成を示す図である。第2の実施の形態の物体検出システム2の基本的な構成は、第1の実施の形態の物体検出システム1と同じであるが、第2の実施の形態の物体検出システム2は、測距装置10から水平方向及び垂直方向に走査したときの距離画像のデータを取得する。この場合、距離画像の各画素(ims1,ims2)の値は、画素に対応する方向にある対象物までの距離R(ims1,ims2)を示す。
(Second embodiment)
FIG. 13 is a diagram showing the configuration of the object detection system 2 according to the second embodiment. The basic configuration of the object detection system 2 of the second embodiment is the same as that of the object detection system 1 of the first embodiment, but the object detection system 2 of the second embodiment is Data of a distance image when scanning in the horizontal direction and the vertical direction is acquired from the apparatus 10. In this case, the value of each pixel (ims1, ims2) of the distance image indicates the distance R (ims1, ims2) to the object in the direction corresponding to the pixel.

第2の実施の形態の物体検出システム2は、2次元の距離画像を処理するため、物体検出装置20が備える第1クラスタリング部28の構成が異なる。第1クラスタリング部28は、距離画像に含まれる非背景画素をクラスタリングして物体候補クラスタを生成する際に、主方向クラスタリングと副方向クラスタリングを行う。 Since the object detection system 2 of the second embodiment processes a two-dimensional range image, the configuration of the first clustering unit 28 included in the object detection device 20 is different. The first clustering unit 28 performs main-direction clustering and sub-direction clustering when clustering non-background pixels included in a distance image to generate object candidate clusters.

第1クラスタリング部28は、主方向クラスタリング部29と副方向クラスタリング部30を有している。主方向クラスタリング部29は、処理対象の距離画像を副方向に分割して主方向クラスタリング単位を生成し、主方向クラスタリング単位で非背景画素のクラスタリングを行う。本明細書では、主方向クラスタリングによって生成されるクラスタを「線セグメント」という。 The first clustering unit 28 has a main-direction clustering unit 29 and a sub-direction clustering unit 30. The main-direction clustering unit 29 divides the distance image to be processed into sub-directions to generate main-direction clustering units, and clusters non-background pixels in main-direction clustering units. In the present specification, the cluster generated by the principal direction clustering is referred to as "line segment".

図14(a)は、距離画像を主方向クラスタリング単位に分割した例を示す図である。図示のように、例えば距離画像を副方向に8等分(実際は例えば60等分程度)して8つの主方向クラスタリング単位1〜8を設定する。各主方向クラスタリング単位は、複数ライン(同図では3ライン)の画素から構成されるようにすることができる。主方向クラスタリング部29は、隣接する非背景画素を順次読み出して、隣接する非背景画素が示す3次元空間内の点間の相対距離が所定の閾値以下であるか否かに基づいてクラスタリングを行う。 FIG. 14A is a diagram showing an example in which the distance image is divided into main direction clustering units. As shown in the figure, for example, the distance image is divided into eight equal parts in the sub direction (actually, for example, about 60 equal parts) to set eight main direction clustering units 1 to 8. Each main-direction clustering unit can be made up of a plurality of lines (3 lines in the figure) of pixels. The main direction clustering unit 29 sequentially reads adjacent non-background pixels and performs clustering based on whether or not the relative distance between points in the three-dimensional space indicated by the adjacent non-background pixels is equal to or less than a predetermined threshold value. ..

図14(b)は、主方向クラスタリングが画素を読み出す順序を規定した主方向クラスタリング走査マップを模式的に説明する図である。各主方向クラスタリング単位に属する画素の順序は、主方向インデックスims1の昇順とし、主方向インデックスims1が同一の画素が複数ある場合には副方向インデックスims2の降順とすることができる。例えば、画素(1,1)と画素(1,2)が隣接しているほか、画素(1,1)と画素(2,3)も隣接しているとする。主方向クラスタリング部29は、図14(b)に示すような主方向クラスタリング走査マップを有しており、主方向クラスタリング走査マップにしたがって非背景画素の読み出しを行う。 FIG. 14B is a diagram schematically illustrating a main-direction clustering scan map that defines the order in which the main-direction clustering reads out pixels. The order of the pixels belonging to each main direction clustering unit may be the ascending order of the main direction index ims1, and the descending order of the sub direction index ims2 when there are a plurality of pixels having the same main direction index ims1. For example, it is assumed that the pixel (1,1) and the pixel (1,2) are adjacent to each other, and the pixel (1,1) and the pixel (2,3) are also adjacent to each other. The main direction clustering unit 29 has a main direction clustering scan map as shown in FIG. 14B, and reads out non-background pixels according to the main direction clustering scan map.

副方向クラスタリング部30は、主方向クラスタリング部29にて生成された線セグメントのクラスタリングを行い、物体候補クラスタを生成する。副方向クラスタリング部30は、隣接する主方向クラスタリング単位で生成された線セグメントどうしの相対距離に基づいて、線セグメントが同じクラスタに属するか否かを判定する処理を繰り返し行い、クラスタリングを行って、物体候補クラスタを生成する。この処理は、第2クラスタリング部24で説明した「隣接する時刻に取得した距離画像」を「隣接した主方向クラスタリング単位」に置き換え、「物体候補クラスタ」を「線セグメント」に置き換えたものと理解することができる。 The sub-direction clustering unit 30 clusters the line segments generated by the main-direction clustering unit 29 to generate object candidate clusters. The sub-direction clustering unit 30 repeatedly performs the process of determining whether or not the line segments belong to the same cluster based on the relative distance between the line segments generated in the adjacent main-direction clustering units, performs clustering, Generate object candidate clusters. It is understood that this processing replaces the “distance image acquired at the adjacent time” with the “adjacent main direction clustering unit” and replaces the “object candidate cluster” with the “line segment” described in the second clustering unit 24. can do.

第2クラスタリング部24は、第1のクラスタリングで生成された複数の物体候補クラスタを時間方向にクラスタリングして、多層化クラスタを生成する。第2クラスタリング部24は、所定の時刻の距離画像から得られた物体候補クラスタと、隣接する時刻の距離画像から得られた物体候補クラスタとの間の相対距離を算出する。 The second clustering unit 24 clusters the plurality of object candidate clusters generated by the first clustering in the time direction to generate a multi-layered cluster. The second clustering unit 24 calculates a relative distance between an object candidate cluster obtained from a distance image at a predetermined time and an object candidate cluster obtained from a distance image at an adjacent time.

本実施の形態においては、物体候補クラスタは、線セグメントを副方向にクラスタリングして作成され、主方向及び副方向に広がりを有する。したがって、物体候補クラスタに含まれるすべての画素について総当たりで距離を計算すると、物体候補クラスタどうしの距離の計算処理が非常に重くなり、物体を迅速に検出できないおそれがある。本実施の形態では、物体候補クラスタどうしの距離を効率良く計算する方法を提案する。 In the present embodiment, the object candidate cluster is created by clustering the line segments in the sub direction and has a spread in the main direction and the sub direction. Therefore, if the distances are calculated by brute force for all the pixels included in the object candidate cluster, the calculation process of the distance between the object candidate clusters becomes very heavy, and the object may not be detected quickly. The present embodiment proposes a method of efficiently calculating the distance between object candidate clusters.

図15(a)及び図15(b)は、第2の実施の形態の第2クラスタリング部24が物体候補クラスタどうしの距離を求める方法を説明するための図である。図15(a)及び図15(b)はともに、時刻t−1に取得した距離画像から得られた物体候補クラスタBt-1,1,Bt-1,2,Bt-1,3,Bt-1,4と時刻tに取得した距離画像から得られた物体候補クラスタBt,1,Bt,2,Bt,3,Bt,4とを示している。図15において、網掛けした部分が物体候補クラスタを構成する画素である。第2クラスタリング部24は、これらの2つの物体候補クラスタの距離を計算する際に、副方向のラインを固定して、対応する副方向に含まれる画素の距離を計算する。 FIG. 15A and FIG. 15B are diagrams for explaining a method of the second clustering unit 24 of the second embodiment obtaining a distance between object candidate clusters. 15(a) and 15(b) are both object candidate clusters B t-1,1 , B t-1,2 , B t-1,3 obtained from the range image acquired at time t-1. , B t-1,4 and object candidate clusters B t,1 , B t,2 , B t,3 , B t,4 obtained from the range image acquired at time t. In FIG. 15, the shaded area is the pixels forming the object candidate cluster. When calculating the distance between these two object candidate clusters, the second clustering unit 24 fixes the line in the sub direction and calculates the distance between pixels included in the corresponding sub direction.

図15(a)では、副方向を第1番目のラインに固定して、第1番目のラインにある物体候補クラスタの画素どうしの相対距離を計算する。時刻t−1の第1番目のラインに含まれる画素と、時刻tの第2番目、第3番目・・・のラインにある画素との相対距離は計算しないし、時刻tの第1番目のラインに含まれる画素と、時刻t−1の第2番目、第3番目・・・のラインにある画素との相対距離は計算しない。このように副方向の異なる画素間の組合せによる相対距離を考慮しないことで、単純に物体候補クラスタ間の相対距離を求める場合に比べ、大幅に計算量が削減できる。 In FIG. 15A, the sub-direction is fixed to the first line, and the relative distance between the pixels of the object candidate cluster on the first line is calculated. The relative distance between the pixels included in the first line at time t−1 and the pixels on the second, third,... Lines at time t is not calculated, and the first distance at time t is calculated. The relative distance between the pixels included in the line and the pixels in the second, third,... Lines at time t−1 is not calculated. By not considering the relative distance due to the combination of pixels in different sub-directions as described above, the amount of calculation can be significantly reduced as compared with the case where the relative distance between object candidate clusters is simply obtained.

なお、ここでは、物体候補クラスタどうしの距離をどの画素間の距離で規定するかを視覚的に理解しやすく説明したが、実際の処理においては、距離画像の画素データR(ims1,ims2)において、副方向インデックスims2が所定の値を有する画素だけ計算対象にすることで、副方向のラインを固定した計算を行える。 It should be noted that here, although it has been described that the distance between the object candidate clusters is defined by the distance between the pixels in an easily understandable manner, in actual processing, the pixel data R (ims1, ims2) of the distance image is used. By setting only the pixels whose sub-direction index ims2 has a predetermined value as the calculation target, it is possible to perform the calculation with the line in the sub-direction fixed.

副方向のラインを固定した状態は、水平方向の走査により取得した距離画像と同等であり、この相対距離の計算には第1の実施の形態で説明した方法を用いる。第1番目のラインにある画素どうしの距離計算が完了すると、図15(b)に示すように計算対象の画素を第2番目のラインに移して、画素どうしの距離計算を行う。そして、物体候補クラスタに含まれる画素どうしの距離のうち最小の距離を物体候補クラスタの距離とする。 The state in which the line in the sub-direction is fixed is equivalent to a range image acquired by scanning in the horizontal direction, and the method described in the first embodiment is used to calculate this relative distance. When the calculation of the distance between the pixels on the first line is completed, the calculation target pixel is moved to the second line as shown in FIG. 15B, and the distance between the pixels is calculated. Then, the minimum distance among the distances between pixels included in the object candidate cluster is set as the distance of the object candidate cluster.

例えば、図15に示す例では、物体候補クラスタBt-1,1と物体候補クラスタBt,1に含まれる画素間の相対距離は、第1番目のラインで4通り(2画素×2画素)、第2番目のラインで2通り(2画素×1画素)、第3番目のラインで4通り(2画素×2画素)の合計10通りの相対距離が求まるが、このうちで最小値となるものを物体候補クラスタBt-1,1と物体候補クラスタBt,1の相対距離とする。 For example, in the example shown in FIG. 15, the relative distance between the object candidate cluster B t-1,1 and the pixels included in the object candidate cluster B t,1 is four (2 pixels×2 pixels) in the first line. ), 2 ways (2 pixels x 1 pixel) on the second line, and 4 ways (2 pixels x 2 pixels) on the third line, a total of 10 ways of relative distances are obtained. Let be the relative distance between the object candidate cluster B t-1,1 and the object candidate cluster B t,1 .

なお、以上の説明と図15(a)及び図15(b)から分かるように、例えば、物体候補クラスタBt-1,1と物体候補クラスタBt,4や物体候補クラスタBt-1,1と物体候補クラスタBt,4のように、そもそも副方向の位置が対応しない存在しない物体候補クラスタは、距離計算の対象になることはなく、計算を省略できる。 As can be seen from the above description and FIGS. 15A and 15B, for example, the object candidate cluster B t-1,1 and the object candidate cluster B t,4 and the object candidate cluster B t-1, Object candidate clusters such as 1 and the object candidate cluster B t,4 that do not exist in the sub-direction position do not correspond to the distance calculation, and the calculation can be omitted.

図15の模式図を用いて説明した内容を、より詳細に述べる。B(t,jt)を時刻tの距離画像に含まれるjt番目の物体候補クラスタ、B(t-1,j't-1)を時刻t-1の距離画像に含まれるj't-1番目の物体候補クラスタとする。隣接する時刻間t,t-1にそれぞれ属する2つの物体候補クラスタB(t,jt)とB(t-1,j't-1)の相対距離RB2rltvは、クラスタに含まれる同一の副方向位置の画素間の相対距離のうちで最小となる値を選ぶ。具体的には物体候補クラスタB(t,jt)に含まれる画素のそれぞれの副方向に関して、副方向ims2を固定し、副方向ims2であるB(t,jt)の画素とB(t-1,j't-1)の画素間の相対距離のうちで最小となるものをRanyims1(ims2)として求める。続いて、物体候補クラスタB(t,jt)に含まれるすべて副方向ims2に関して求めたRanyims1(ims2)の中から最小値を選び、これを物体候補クラスタ間相対距離RB2rltvとする。 The contents described with reference to the schematic diagram of FIG. 15 will be described in more detail. B (t, j t) time t j t th object candidate cluster distance included in the image of, B (t-1, j 't-1) included in the time t-1 of the range image are j' t -1st object candidate cluster. The relative distance R B2rltv between two object candidate clusters B(t,j t ) and B(t-1,j′ t-1 ) respectively belonging to adjacent time intervals t,t−1 is the same in the clusters. The smallest value among the relative distances between pixels at the sub-direction position is selected. Specifically, with respect to each sub-direction of the pixels included in the object candidate cluster B(t,j t ), the sub-direction ims2 is fixed, and the sub-direction ims2 of the pixels of B(t,j t ) and B(t) are fixed. -1,j' t-1 ), the smallest relative distance between pixels is obtained as R anyims1(ims2) . Then, select the minimum value from among the object candidate cluster B (t, j t) R anyims1 (ims2) determined for all sub-direction IMS2 contained in, this is the object candidate inter-cluster relative distance R B2rltv.

下記(3)式により、所定の時刻tに取得した距離画像から得られた物体候補クラスタB(t,jt)と、隣接する時刻t−1に取得した距離画像から得られた物体候補クラスタB(t-1,j't-1)との相対距離RB2rltvが得られる。

Figure 0006742157
ただし、
R(ims1,ims2,t):時刻tにおける画素(ims1,ims2)の距離
R(i'ms1,ims2,t-1):時刻t-1における画素(i'ms1,ims2)の距離 According to the following equation (3), the object candidate cluster B(t,j t ) obtained from the distance image acquired at the predetermined time t and the object candidate cluster obtained from the distance image acquired at the adjacent time t-1 The relative distance R B2rltv with B(t-1,j' t-1 ) is obtained.
Figure 0006742157
However,
R(i ms1 , i ms2 , t): Distance of pixel (i ms1 , i ms2 ) at time t R(i' ms1 , i ms2 , t-1): Pixel (i' ms1 , i at time t-1 ms2 ) distance

以上、第2の実施の形態の物体検出システム2について、第1の実施の形態の物体検出システム1と異なる構成について説明した。第2の実施の形態の物体検出システム2の第1の実施の形態と同様に多層化クラスタを用いて、精度の良い物体検出を行うことができる。 The configuration of the object detection system 2 of the second embodiment different from that of the object detection system 1 of the first embodiment has been described above. Similar to the first embodiment of the object detection system 2 of the second embodiment, the multi-layered cluster can be used to perform accurate object detection.

第2の実施の形態の物体検出システム2は、物体候補クラスタを生成する際に、隣接する非背景画素を2つの走査方向についてクラスタリングするので、立体的な物体の形状を検出することができる。 Since the object detection system 2 according to the second embodiment clusters adjacent non-background pixels in two scanning directions when generating the object candidate clusters, it is possible to detect the shape of a three-dimensional object.

図16は、第2の実施の形態の物体検出システム2にて出力された物体Kの検出結果の例を示す図である。第2の実施の形態の物体検出システム2では、物体Kの動きを立体的に把握することができる。 FIG. 16 is a diagram showing an example of the detection result of the object K output by the object detection system 2 according to the second embodiment. In the object detection system 2 of the second embodiment, the movement of the object K can be grasped in three dimensions.

(第3の実施の形態)
図17は、第3の実施の形態の物体検出システム3の構成を示す図である。第3の物体検出システム3は、検出した物体の移動方向及び移動速度を検知し、この移動に関するデータを用いて物体を追跡する機能を有する。
(Third Embodiment)
FIG. 17 is a diagram showing the configuration of the object detection system 3 of the third exemplary embodiment. The third object detection system 3 has a function of detecting the moving direction and moving speed of the detected object, and tracking the object using data regarding this movement.

第3の実施の形態の物体検出システム3の基本的な構成は、第1の実施の形態の物体検出システム1と基本的な構成は同じであるが、第3の実施の形態では、物体検出装置20が、第1の実施の形態の物体検出装置20の構成に加えて、物体移動検知部31と、探索範囲設定部32と、物体追跡部33とをさらに備えている。 The basic configuration of the object detection system 3 of the third embodiment is the same as the basic configuration of the object detection system 1 of the first embodiment, but in the third embodiment, the object detection system 3 is used. The device 20 further includes an object movement detection unit 31, a search range setting unit 32, and an object tracking unit 33 in addition to the configuration of the object detection device 20 according to the first embodiment.

物体移動検知部31は、物体検知部25に検知した物体の位置をXY座標系に変換し、多層化クラスタの両端の物体の位置と時間から物体の移動方向と移動速度を求める。図18は、物体の移動方向と移動速度を求める例を示す図である。 The object movement detection unit 31 converts the position of the object detected by the object detection unit 25 into an XY coordinate system, and obtains the movement direction and movement speed of the object from the positions and times of the objects at both ends of the multi-layer cluster. FIG. 18 is a diagram showing an example of obtaining the moving direction and moving speed of an object.

図18に示すように、物体移動検知部31は、検出した物体の画素値をXYT座標系に変換する。そして、各時刻において物体が占める領域の平均位置を求める。そして、時刻t−4の物体の平均位置p1(x,y)と時刻tの物体の平均位置p5(x,y)から、物体の移動方向と移動速度、すなわち、移動ベクトルv(X,Y)を求める。ここでは、XYT座標系において物体の移動方向と移動速度を求める例を説明したが、移動方向と移動速度は、R-θ座標系において求めてもよい。 As shown in FIG. 18, the object movement detection unit 31 converts the pixel value of the detected object into the XYT coordinate system. Then, the average position of the area occupied by the object at each time is obtained. Then, from the average position p1(x,y) of the object at time t-4 and the average position p5(x,y) of the object at time t, the moving direction and moving speed of the object, that is, the moving vector v(X,Y). ). Here, the example in which the moving direction and the moving speed of the object are obtained in the XYT coordinate system has been described, but the moving direction and the moving speed may be obtained in the R-θ coordinate system.

探索範囲設定部32は、追跡対象の物体が存在すると推定される探索範囲を設定する機能を有している。物体追跡部33は、異なる時刻に検出された物体の結び付け(アソシエーション)を行い、異なる時刻の間で物体を追跡する。なお、ここでいう異なる時刻とは、多層化クラスタリングを行う時間範囲よりも大きく異なる時刻である。多層化クラスタを生成する際には、物体を追跡していることを前提として物体検出を行っているからである。探索範囲設定部32は、物体の移動方向と移動速度に基づいて、所定時間経過後に物体の存在する場所を推定し、その周辺に探索範囲を設定する。なお、探索範囲を「ゲート」、探索範囲の設定を「ゲートをオープンする」ともいう。 The search range setting unit 32 has a function of setting a search range in which it is estimated that an object to be tracked is present. The object tracking unit 33 links (associates) the objects detected at different times and tracks the objects between different times. In addition, the different time referred to here is a time that is significantly different from the time range in which the multi-layered clustering is performed. This is because the object detection is performed on the assumption that the object is being tracked when the multi-layered cluster is generated. The search range setting unit 32 estimates the place where the object exists after a predetermined time elapses based on the moving direction and the moving speed of the object, and sets the search range around it. The search range is also referred to as “gate”, and the search range setting is also referred to as “open gate”.

図19は、探索範囲設定部32の処理について説明するための図である。探索範囲設定部32は、物体の現在位置P1と物体の移動ベクトルvとに基づいて、所定時間後の物体の推定位置P2aを求め、物体の推定位置を中心とする円形の探索範囲Saを設定する。探索範囲設定部32が設定する探索範囲の半径は、物体の追跡を行う時間間隔に応じて決定してもよい。すなわち、追跡の時間間隔が長くなれば探索範囲の半径を大きくし、短ければ探索範囲の半径を小さくしてもよい。 FIG. 19 is a diagram for explaining the processing of the search range setting unit 32. The search range setting unit 32 obtains an estimated position P2a of the object after a predetermined time based on the current position P1 of the object and the movement vector v of the object, and sets a circular search range Sa centered on the estimated position of the object. To do. The radius of the search range set by the search range setting unit 32 may be determined according to the time interval for tracking the object. In other words, the radius of the search range may be increased when the time interval of tracking is long, and the radius of the search range may be decreased when the time interval is short.

本実施の形態の探索範囲設定部32は、物体の移動ベクトルvを用いて所定時間後の物体の位置を推定するので、適切に探索範囲を設定できる。これにより、探索範囲で検出された物体と同一の物体であるという結び付けを行うことができ、物体の追跡を行える。この例では、所定時間後の物体の位置はP2であり、所定時間の経過後に探索範囲で見つかった物体が、現在検出された物体であると正しく追跡できる。もし、移動ベクトルvを用いない場合には、物体の1つ前の位置と現在位置とを結ぶ直線上に推定位置P2bが求められ、推定位置P2bを中心とする円形の探索範囲Sbが設定されることになるが、誤った物体とのアソシエーションを行ってしまう可能性がある。 Since the search range setting unit 32 of the present embodiment estimates the position of the object after a predetermined time using the movement vector v of the object, the search range can be set appropriately. As a result, it can be linked that the object is the same as the object detected in the search range, and the object can be tracked. In this example, the position of the object after the predetermined time is P2, and the object found in the search range after the elapse of the predetermined time can be correctly tracked as the currently detected object. If the movement vector v is not used, the estimated position P2b is obtained on the straight line connecting the position one before the object and the current position, and the circular search range Sb centered on the estimated position P2b is set. However, there is a possibility of making an association with the wrong object.

物体追跡部33は、探索範囲において検出された物体の中で追跡対象の物体の移動方向及び移動速度が近い物体を、追跡対象の物体と同一であると判定し、アソシエーションを行う。なお、探索範囲において物体を検出する方法は、上で説明した多層化クラスタを用いた検出方法を採用し、物体の現在位置と共にその移動ベクトルも求められているものとする。 The object tracking unit 33 determines that an object having a moving direction and a moving speed that are similar to those of the tracking target object among the objects detected in the search range is the same as the tracking target object, and performs association. As a method of detecting an object in the search range, it is assumed that the detection method using the multi-layered cluster described above is adopted, and the current position of the object and its movement vector are obtained.

図20は、探索範囲内で3つの物体O1〜O3が検出されたときに、追跡対象の物体と同一の物体を求める方法を示す図である。観測点1で検出された物体O1は移動ベクトルVo1を持ち、観測点2で検出された物体O2は移動ベクトルVo2を持ち、観測点3で検出された物体O3は移動ベクトルVo3を持つ。追跡対象の物体は移動ベクトルVoを持つ。追跡対象の物体の移動ベクトルVoは、探索範囲を設定する際に用いた移動ベクトルである。 FIG. 20 is a diagram showing a method of obtaining the same object as the tracking target object when three objects O1 to O3 are detected within the search range. The object O1 detected at the observation point 1 has a movement vector Vo1, the object O2 detected at the observation point 2 has a movement vector Vo2, and the object O3 detected at the observation point 3 has a movement vector Vo3. The object to be tracked has a movement vector Vo. The movement vector Vo of the tracking target object is a movement vector used when setting the search range.

物体追跡部33は、追跡対象の物体の移動ベクトルVoと近い移動ベクトルを有する物体を特定する。2つの移動ベクトルの近さは、2つの移動ベクトルの方向及び大きさの差分に関して閾値を設定しておき、差分が閾値以下となる場合に2つの移動ベクトルが近いと判断する。図20に示す例では、移動ベクトルが近い物体として物体O1及び物体O3が特定され、物体O2は除外される。物体追跡部33は、絞り込まれた物体のうち、予測点A1からの距離が近い物体を追跡対象の物体と同一の物体であると特定する。この例では、距離L1<距離L3なので、物体O1が特定される。このように物体追跡部33は、追跡対象の物体の移動ベクトルを用いることで、同一の物体を特定できる。 The object tracking unit 33 identifies an object having a movement vector close to the movement vector Vo of the tracking target object. For the closeness of the two movement vectors, a threshold is set for the difference between the direction and the magnitude of the two movement vectors, and when the difference is less than or equal to the threshold, it is determined that the two movement vectors are close. In the example shown in FIG. 20, the objects O1 and O3 are specified as the objects having similar movement vectors, and the object O2 is excluded. The object tracking unit 33 specifies that among the narrowed-down objects, an object having a short distance from the prediction point A1 is the same object as the tracking target object. In this example, since the distance L1<the distance L3, the object O1 is specified. In this way, the object tracking unit 33 can specify the same object by using the movement vector of the tracking target object.

図21は、複数の物体の探索範囲が重なりあった場合の処理について説明するための図である。図21に示す例では、追跡物体A1の探索範囲S1と、追跡物体A2の探索範囲S2が重なり合っている。そして、物体O2が探索範囲S1と探索範囲S2とが重なった領域の観測点2で物体O2が検出された。ここで、物体O2の移動ベクトルは、追跡物体A1とも追跡物体A2とも移動ベクトルが近いとする。この場合、追跡対象の物体の移動ベクトルの近さに基づいて物体の同一性判定を行っても、物体O2が追跡物体A1,A2のいずれとも結びつけることができない。このような場合には、物体追跡部33は、探索範囲の中心である予測点までの距離が短い方の探索範囲の追跡物体と結びつける。この例では、予測点1との距離L2_1<予測点2との距離L2_2であることから、探索範囲S1の追跡物体A1と結びつける。 FIG. 21 is a diagram for explaining processing when the search ranges of a plurality of objects overlap. In the example shown in FIG. 21, the search range S1 of the tracking object A1 and the search range S2 of the tracking object A2 overlap. Then, the object O2 is detected at the observation point 2 in the area where the object O2 overlaps the search range S1 and the search range S2. Here, it is assumed that the movement vector of the object O2 is close to that of the tracking object A1 and that of the tracking object A2. In this case, even if the identity of the object is determined based on the closeness of the movement vector of the tracking target object, the object O2 cannot be associated with either of the tracking objects A1 and A2. In such a case, the object tracking unit 33 associates with the tracking object in the search range having the shorter distance to the prediction point which is the center of the search range. In this example, since the distance L2_1 to the prediction point 1 <the distance L2_2 to the prediction point 2, the tracking object A1 in the search range S1 is associated.

以上、第3の実施の形態の物体検出システム3について説明した。第3の実施の形態の物体検出システム3は、物体の位置の情報のみならず、移動方向及び移動速度(すなわち、移動ベクトル)を求めることができる。そして、この移動ベクトルの情報を物体の追跡に生かすことにより、物体の追跡を効率的かつ精度良く行うことができる。 The object detection system 3 according to the third embodiment has been described above. The object detection system 3 according to the third embodiment can obtain not only the information on the position of the object but also the moving direction and the moving speed (that is, the moving vector). Then, by utilizing the information of the movement vector for tracking the object, the object can be tracked efficiently and accurately.

以上、本発明の物体検出システムについて実施の形態を挙げて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。多層化クラスタを生成する際に、物体候補クラスタどうしの距離が所定の閾値以下の場合に同じクラスタに属すると判断することを説明したが、この閾値は検出すべき物体の種類に応じて決定することができる。例えば、検出すべき物体が車両の場合と人物の場合とでは、車両の場合の方が閾値を大きくしてもよい。車両の方が移動速度が速いため、同じ時間間隔に大きく動く可能性があるからである。 The object detection system of the present invention has been described in detail above with reference to the embodiments, but the present invention is not limited to the above-mentioned embodiments. When generating a multi-layered cluster, it was explained that if the distance between object candidate clusters is less than or equal to a predetermined threshold, it is determined that they belong to the same cluster, but this threshold is determined according to the type of object to be detected. be able to. For example, depending on whether the object to be detected is a vehicle or a person, the threshold may be larger in the case of a vehicle. This is because the moving speed of the vehicle is higher, and thus the vehicle may move greatly in the same time interval.

また、この閾値は、距離画像を取得する時間間隔に応じて変えてもよい。すなわち、距離画像の取得間隔が1秒の場合は0.5秒の場合に比べて、2つの距離画像間での移動距離が2倍になる可能性があるからである。 Further, this threshold may be changed according to the time interval for acquiring the range image. That is, when the distance image acquisition interval is 1 second, the moving distance between the two distance images may be twice as large as when the distance image acquisition interval is 0.5 seconds.

本発明は、ノイズの影響を受けにくく、適切に物体を検出することができ、測距装置を用いた物体検出装置等として有用である。 INDUSTRIAL APPLICABILITY The present invention is not easily affected by noise, can appropriately detect an object, and is useful as an object detection device using a distance measuring device.

1〜3 物体検出システム
10 測距装置
20 物体検出装置
21 距離画像取得部
22 非背景画素抽出部
23 第1クラスタリング部
24 第2クラスタリング部
25 物体検出部
26 出力部
27 背景データ記憶部
28 第1クラスタリング部
29 主方向クラスタリング部
30 副方向クラスタリング部
31 物体移動検知部
32 探索範囲設定部
33 物体追跡部
1-3 Object detection system 10 Distance measuring device 20 Object detection device 21 Distance image acquisition unit 22 Non-background pixel extraction unit 23 First clustering unit 24 Second clustering unit 25 Object detection unit 26 Output unit 27 Background data storage unit 28 First Clustering unit 29 Main direction clustering unit 30 Sub direction clustering unit 31 Object movement detection unit 32 Search range setting unit 33 Object tracking unit

Claims (12)

測距装置の各測距方向における測距データを画素値とする距離画像を取得する距離画像取得部と、
前記距離画像から非背景画素を抽出する非背景画素抽出部と、
隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成する第1クラスタリング部と、
取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での第2の相対距離であって当該物体候補クラスタを構成する画素の相対距離によって規定される第2の相対距離に基づいて、前記第2の相対距離が所定の閾値以下である場合に隣接する物体候補クラスタが同じクラスタに含まれると判定し、前記第2の相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成する第2クラスタリング部と、
前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出する物体検出部と、
を備える物体検出装置。
A distance image acquisition unit for acquiring a distance image having the distance measurement data in each distance measurement direction of the distance measurement device as a pixel value;
A non-background pixel extraction unit that extracts non-background pixels from the distance image,
The relative distance between two points in the space corresponding to two adjacent non-background pixels is calculated based on the distance measurement direction of the non-background pixel and the distance measurement data, and the adjacent non-pixels are calculated based on the relative distance. A first clustering unit that generates an object candidate cluster that is a set of the non-background pixels by repeatedly performing a process of determining whether background pixels belong to the same cluster;
Based on the second relative distance in space of the object candidate clusters whose acquisition times are respectively generated from the adjacent distance images , and which is defined by the relative distances of the pixels forming the object candidate clusters. Then, it is determined that adjacent object candidate clusters are included in the same cluster when the second relative distance is less than or equal to a predetermined threshold, and the adjacent object candidate clusters are included in the same cluster when the second relative distance is greater than a predetermined threshold. A second clustering unit that generates a multi-layered cluster that is a set of the object candidate clusters by repeatedly performing a process of determining that the object clusters are not included ;
An object detection unit that detects one or a plurality of object candidate clusters in each distance image included in the multi-layered cluster as an object when the multi-layered cluster satisfies a predetermined condition,
An object detection device comprising.
前記第2クラスタリング部は、判定対象の前記物体候補クラスタの空間内での第2の相対距離に、その物体候補クラスタを生成した距離画像の取得時刻の時間間隔に応じた重み付けをし、重み付け後の距離に基づいて前記物体候補クラスタのクラスタリングを行う請求項1に記載の物体検出装置。 The second clustering unit weights the second relative distance in the space of the object candidate cluster to be determined according to the time interval of the acquisition time of the distance image that generated the object candidate cluster, and after weighting. The object detection device according to claim 1, wherein clustering of the object candidate clusters is performed based on the distance. 前記測距装置は、主方向及び副方向の2次元に走査する測距装置であって、
前記第1クラスタリング部は、
前記距離画像を前記主方向に対応する複数の領域に分割し、分割された各領域内で前記非背景画素のクラスタリングを行って線セグメントを生成する主方向クラスタリング部と、
隣接した領域で生成された前記線セグメントの空間内での距離に基づいて、前記線セグメントのクラスタリングを行って前記物体候補クラスタを生成する副方向クラスタリング部と、
を備える請求項1または2に記載の物体検出装置。
The distance measuring device is a distance measuring device that performs two-dimensional scanning in a main direction and a sub direction,
The first clustering unit is
A main direction clustering unit that divides the distance image into a plurality of regions corresponding to the main direction, and performs line clustering of the non-background pixels in each of the divided regions to generate a line segment,
Based on the distance in space of the line segment generated in the adjacent region, a sub-direction clustering unit that performs clustering of the line segment to generate the object candidate cluster,
The object detection device according to claim 1 or 2, further comprising:
前記第2クラスタリング部において、判定対象の2つの前記物体候補クラスタの第2の相対距離を求める処理は、
前記2つの物体候補クラスタにおいて、副方向が共通する画素の間で相対距離の計算を行い、当該副方向が共通する画素の組合せのうちで最小の相対距離を求める第1の処理と、
前記第1の処理を副方向を変えて行ってそれぞれの方向での最小相対距離を求め、求めた最小相対距離のうちで最も小さい最小相対距離を、前記第2の相対距離として求める第2の処理と、
を行う請求項3に記載の物体検出装置。
In the second clustering unit, the process of obtaining the second relative distance between the two object candidate clusters to be determined is
A first process of calculating a relative distance between pixels having a common sub-direction in the two object candidate clusters, and obtaining a minimum relative distance among combinations of pixels having a common sub-direction;
Determining the minimum relative distance to the first treatment in each direction performed by changing the sub-direction, the smallest minimum relative distance among the minimum relative distance seek, the second obtaining as the second relative distance Processing,
The object detection device according to claim 3, wherein
前記物体検出部は、前記多層化クラスタに含まれる前記物体候補クラスタの大きさと、前記多層化クラスタに含まれる画素数とに基づいて、物体を検出する請求項1乃至4のいずれかに記載の物体検出装置。 5. The object detection unit according to claim 1, wherein the object detection unit detects an object based on the size of the object candidate cluster included in the multilayer cluster and the number of pixels included in the multilayer cluster. Object detection device. 前記多層化クラスタから検出された各距離画像における物体の位置の遷移に基づいて、前記物体の移動方向及び移動速度を求める物体移動検知部を備える請求項1乃至5のいずれかに記載の物体検出装置。 The object detection according to claim 1, further comprising: an object movement detection unit that obtains a moving direction and a moving speed of the object based on a transition of the position of the object in each distance image detected from the multi-layered cluster. apparatus. 前記物体移動検知部は、検出された物体の画素値を3次元空間座標系の位置データに変換して3次元空間内で物体が占める空間を特定し、物体の移動方向及び移動速度を求める請求項6に記載の物体検出装置。 The object movement detection unit converts a pixel value of the detected object into position data of a three-dimensional space coordinate system, specifies a space occupied by the object in the three-dimensional space, and obtains a moving direction and a moving speed of the object. Item 6. The object detection device according to item 6. 前記物体の移動方向及び移動速度に基づいて、異なる時刻に検出された物体の中から同一の物体を検出し、物体の追跡を行う物体追跡部を備える請求項6又は7に記載の物体検出装置。 The object detection device according to claim 6 or 7, further comprising: an object tracking unit that detects the same object from the objects detected at different times based on the moving direction and the moving speed of the object and tracks the object. .. 前記物体検出部にて検出された物体の移動方向及び移動速度に基づいて、所定時間経過後にその物体が存在する範囲を推定し、その範囲を物体の探索範囲として設定する探索範囲設定部を備え、
前記物体追跡部は、前記所定時間経過後に前記探索範囲の中から検出された物体を先の時刻に検出された物体と同一の物体であると判定する請求項8に記載の物体検出装置。
Based on the moving direction and moving speed of the object detected by the object detection unit, a range in which the object exists is estimated after a lapse of a predetermined time, and a search range setting unit that sets the range as a search range of the object is provided. ,
The object detection device according to claim 8, wherein the object tracking unit determines that an object detected from the search range after the predetermined time has passed is the same object as an object detected at a previous time.
測距装置と、
請求項1乃至9のいずれかに記載の物体検出装置と、
を備える物体検出システム。
Rangefinder,
An object detection device according to any one of claims 1 to 9,
An object detection system including.
物体検出装置によって、測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出する方法であって、
前記物体検出装置が、前記距離画像を取得するステップと、
前記物体検出装置が、前記距離画像から非背景画素を抽出するステップと、
前記物体検出装置が、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、
前記物体検出装置が、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での第2の相対距離であって当該物体候補クラスタを構成する画素の相対距離によって規定される第2の相対距離に基づいて、前記第2の相対距離が所定の閾値以下である場合に隣接する物体候補クラスタが同じクラスタに含まれると判定し、前記第2の相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、
前記物体検出装置が、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップと、
を備える物体検出方法。
A method of detecting an object by an object detection device based on a distance image having pixel values of distance measurement data in each distance measurement direction of the distance measurement device,
The object detection device, a step of acquiring the distance image,
The object detection device extracting non-background pixels from the range image;
The object detection device calculates a relative distance between two points in the space corresponding to two adjacent non-background pixels based on the distance measurement direction of the non-background pixel and the distance measurement data, and calculates the relative distance. Repeating the process of determining whether the adjacent non-background pixels belong to the same cluster based on the step of generating an object candidate cluster that is a set of the non-background pixels,
In the object detection device, the acquisition time is a second relative distance in the space of the object candidate clusters generated from the distance images adjacent to each other and is defined by a relative distance of pixels forming the object candidate cluster. Based on the relative distance of 2, it is determined that adjacent object candidate clusters are included in the same cluster when the second relative distance is less than or equal to a predetermined threshold value, and the second relative distance is greater than the predetermined threshold value. In the case, by repeatedly performing the process of determining that they are not included in the same cluster, generating a multi-layered cluster that is a set of the object candidate clusters,
The object detecting device, when the multi-layered cluster satisfies a predetermined condition, detecting one or a plurality of object candidate clusters in each distance image included in the multi-layered cluster as an object;
An object detection method comprising:
測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出するためのプログラムであって、コンピュータに、
前記距離画像を取得するステップと、
前記距離画像から非背景画素を抽出するステップと、
隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、
取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での第2の相対距離であって当該物体候補クラスタを構成する画素の相対距離によって規定される第2の相対距離に基づいて、前記第2の相対距離が所定の閾値以下である場合に隣接する物体候補クラスタが同じクラスタに含まれると判定し、前記第2の相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、
前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップと、
を実行させるプログラム。
A program for detecting an object on the basis of a distance image in which distance measurement data in each distance measurement direction of a distance measurement device is used as a pixel value, the program comprising:
Acquiring the range image,
Extracting non-background pixels from the range image,
The relative distance between two points in the space corresponding to two adjacent non-background pixels is calculated based on the distance measurement direction of the non-background pixel and the distance measurement data, and the adjacent non-pixels are calculated based on the relative distance. Generating an object candidate cluster that is a set of the non-background pixels by repeatedly performing a process of determining whether or not the background pixels belong to the same cluster,
Based on the second relative distance in space of the object candidate clusters whose acquisition times are respectively generated from the adjacent distance images , and which is defined by the relative distances of the pixels forming the object candidate clusters. Then, it is determined that adjacent object candidate clusters are included in the same cluster when the second relative distance is less than or equal to a predetermined threshold, and the adjacent object candidate clusters are included in the same cluster when the second relative distance is greater than a predetermined threshold. By repeatedly performing the process of determining that it is not included , generating a multi-layered cluster that is a set of the object candidate clusters,
Detecting, as an object, one or more object candidate clusters in each range image included in the multi-layered cluster when the multi-layered cluster satisfies a predetermined condition,
A program to execute.
JP2016112983A 2016-06-06 2016-06-06 Object detection device, object detection system, object detection method, and program Active JP6742157B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016112983A JP6742157B2 (en) 2016-06-06 2016-06-06 Object detection device, object detection system, object detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016112983A JP6742157B2 (en) 2016-06-06 2016-06-06 Object detection device, object detection system, object detection method, and program

Publications (2)

Publication Number Publication Date
JP2017219385A JP2017219385A (en) 2017-12-14
JP6742157B2 true JP6742157B2 (en) 2020-08-19

Family

ID=60655994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016112983A Active JP6742157B2 (en) 2016-06-06 2016-06-06 Object detection device, object detection system, object detection method, and program

Country Status (1)

Country Link
JP (1) JP6742157B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109799513B (en) * 2019-01-04 2023-06-23 广西大学 Indoor unknown environment positioning method based on linear characteristics in two-dimensional laser radar data
JP2021050988A (en) * 2019-09-25 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 Range finder and electronic equipment
EP3885787B1 (en) * 2020-03-27 2022-05-04 Sick Ag Detection of distance measurement data
JP7506303B2 (en) * 2020-04-22 2024-06-26 株式会社デンソーウェーブ Sensor Device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005978A (en) * 1999-06-18 2001-01-12 Sony Corp Device and method for extracting object, and program providing medium
JP4622715B2 (en) * 2005-07-15 2011-02-02 株式会社日立製作所 Image data analysis method and system
JP5761942B2 (en) * 2010-08-06 2015-08-12 セコム株式会社 Object detection sensor
JP5950296B2 (en) * 2012-01-27 2016-07-13 国立研究開発法人産業技術総合研究所 Person tracking attribute estimation device, person tracking attribute estimation method, program
JP2013228267A (en) * 2012-04-25 2013-11-07 Panasonic Corp Display device, display method, and program
WO2013190772A1 (en) * 2012-06-20 2013-12-27 パナソニック株式会社 Spatial information detection device and person location detection device
KR101480651B1 (en) * 2013-12-09 2015-01-09 현대자동차주식회사 Method for Object Processing and Vehicle supporting the same

Also Published As

Publication number Publication date
JP2017219385A (en) 2017-12-14

Similar Documents

Publication Publication Date Title
US10565721B2 (en) Information processing device and information processing method for specifying target point of an object
Chen et al. Gaussian-process-based real-time ground segmentation for autonomous land vehicles
JP6742157B2 (en) Object detection device, object detection system, object detection method, and program
CN104793202B (en) The object emerging system of more radar imagery sensors
JP5950296B2 (en) Person tracking attribute estimation device, person tracking attribute estimation method, program
JP5822255B2 (en) Object identification device and program
JP5728815B2 (en) Object detection device
EP3631363A1 (en) Device and method for detection and localization of vehicles
US10046715B2 (en) Systems and methods for object detection
JP6524529B2 (en) Building limit judging device
US8731829B2 (en) Flow line detection system, flow line detection method, and flow line detection program
JP2017156219A (en) Tracking device, tracking method, and program
KR101864127B1 (en) Apparatus and method for environment mapping of an unmanned vehicle
JP5417645B2 (en) Plane estimation method and range image camera in range image
WO2020046203A1 (en) Device and method for tracking human subjects
Jwa et al. Kalman filter based railway tracking from mobile Lidar data
Linder et al. Towards a robust people tracking framework for service robots in crowded, dynamic environments
JP6331566B2 (en) Human head detection device and posture estimation device
JP6397386B2 (en) Region division processing apparatus, method, and program
JP2018025556A (en) Positioning system, and positioning method
JP5866682B2 (en) Measuring system and measuring method
JP2017167974A (en) Estimation apparatus, method and program
JP2005078528A (en) Apparatus and method for object detection
JP2010205042A (en) Pedestrian detection device
KR100994722B1 (en) Method for tracking moving object on multiple cameras using probabilistic camera hand-off

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200728

R150 Certificate of patent or registration of utility model

Ref document number: 6742157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250