JP2017219385A - 物体検出装置、物体検出システム、物体検出方法、およびプログラム - Google Patents

物体検出装置、物体検出システム、物体検出方法、およびプログラム Download PDF

Info

Publication number
JP2017219385A
JP2017219385A JP2016112983A JP2016112983A JP2017219385A JP 2017219385 A JP2017219385 A JP 2017219385A JP 2016112983 A JP2016112983 A JP 2016112983A JP 2016112983 A JP2016112983 A JP 2016112983A JP 2017219385 A JP2017219385 A JP 2017219385A
Authority
JP
Japan
Prior art keywords
distance
cluster
object candidate
object detection
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016112983A
Other languages
English (en)
Other versions
JP6742157B2 (ja
Inventor
高野 岳
Takeshi Takano
岳 高野
渉 小堀
Wataru Kobori
渉 小堀
岩崎 哲也
Tetsuya Iwasaki
哲也 岩崎
松本 恵治
Keiji Matsumoto
恵治 松本
伊藤 邦彦
Kunihiko Ito
邦彦 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso Wave Inc
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso Wave Inc
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso Wave Inc, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2016112983A priority Critical patent/JP6742157B2/ja
Publication of JP2017219385A publication Critical patent/JP2017219385A/ja
Application granted granted Critical
Publication of JP6742157B2 publication Critical patent/JP6742157B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】微小な虫や落ち葉などのノイズ源の影響を低減した物体検出装置を提供する。【解決手段】隣接する2つの非背景画素に対応する空間内の2点間の相対距離を非背景画素の測距方向及びその測距データに基づいて算出し、相対距離に基づいて隣接する非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行い、非背景画素の集合である物体候補クラスタを生成する第1クラスタリング部23と、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行い、物体候補クラスタの集合である多層化クラスタを生成する第2クラスタリング部24と、多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出する物体検出部25とを備える。【選択図】図1

Description

本発明は、物体を検出する物体検出装置、物体検出システム、物体検出方法およびプログラムに関する。
周囲の物体をリアルタイムで高精度に検知するライダー(LIDAR)というセンサーが注目されている。ライダーは、光を用いたリモートセンシング技術の一つで、測定光を発光し、対象物で反射した光を受光するまでの時間によって対象物までの距離を求める。発光方向を走査することにより、周囲にある対象物を検出することができる。こうしたセンサーは、車両や人物などの監視対象物の検出に用いられる。
例えば、微小な虫や落ち葉などのように監視対象物とは異なる物が測定光を遮ると、その障害物によって監視対象物からの反射光が得られず、監視対象物を適切に検出できない場合があった。
特許文献1は、上記の課題を解決する測距装置を開示している。特許文献1に記載された測距装置は、監視対象領域内であることを示す距離データが隣接する複数の走査角度方向に存在するときに、複数の距離データをまとめたグループを生成し、グループに含まれる距離データの個数または最大走査角度によって、走査方向に沿った物体のサイズを定義する。そして、物体のサイズが、物体検出最小幅を示す個数または走査角度以上となる場合に、監視対象の物体があると判定し、そうでない場合にはノイズであると判定する。
特開2012−242189
本発明は、微小な虫や落ち葉などのノイズ源の影響を低減し、適切に物体を検出することができる物体検出装置を提供することを目的とする。
本発明の物体検出システムは、測距装置と、物体検出装置とを備える。物体検出装置は、測距装置の各測距方向における測距データを画素値とする距離画像を取得する距離画像取得部と、前記距離画像から非背景画素を抽出する非背景画素抽出部と、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成する第1クラスタリング部と、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成する第2クラスタリング部と、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出する物体検出部とを備える。
このように、本発明は、距離画像から抽出した非背景画素をクラスタリングして物体の候補の画素の集合である物体候補クラスタを生成する。物体候補クラスタは、空間内における対応点の相対距離が近い画素の集まりであり、物体候補クラスタを構成する各画素は物体または物体の一部に対応すると考えられる。なお、本明細書では、測距装置から対象物までの距離に対して、空間内での対応点の間の距離を「相対距離」と呼ぶ。
そして、本発明は、取得時刻が異なる複数の距離画像から生成された複数の物体候補クラスタを時間方向にクラスタリングすることにより、多層化クラスタを生成する。多層化クラスタに含まれる物体候補クラスタは、時間の経過と共に移動する物体候補クラスタの集まりであると考えられる。
多層化クラスタが所定の条件を満たすときに、多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出することにより、ある時刻の距離画像にノイズが含まれていたとしてもそのノイズの影響を受けにくく、適切に物体を検出することができる。例えば、時刻t−1の距離画像から生成された物体候補クラスタB1と時刻tの距離画像から生成された物体候補クラスタB2,B3が多層化クラスタを構成し、所定の条件を満たした場合、物体候補クラスタB1が物体であると検出されると共に、物体候補クラスタB2,B3が物体候補クラスタB1と同じ物体として検出される。このように、時刻tにおいてはノイズによって物体候補クラスタB2,B3に分断された場合であっても、物体候補クラスタB2,B3を一つの物体として適切に判定できる。
また、本発明の第1クラスタリング部は、非背景画素を3次元空間座標に変換することなく、隣接する2つの非背景画素に対応する空間内の2点間の相対距離を画素値(測距方向及びその測距データ)から計算し、その相対距離に基づいてクラスタリングを行う。このように画素値に対応する3次元空間座標に変換するのではなく、画素値から相対距離を計算することにより、非背景画素に対応する空間内の点までの遠近にかかわらず、適切なクラスタリングを行うことができる。
また、隣接する非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うクラスタリングを行うので、クラスタリング処理の計算量を抑えることができる。なお、第2クラスタリング部も、第1クラスタリング部と同様に、計算量を抑えつつ適切なクラスタリングを行うことができる。
本発明の物体検出装置において、前記第2クラスタリング部は、判定対象の前記物体候補クラスタの空間内での相対距離に、その物体候補クラスタを生成した距離画像の取得時刻の時間間隔に応じた重み付けをし、重み付け後の距離に基づいて前記物体候補クラスタのクラスタリングを行ってもよい。
距離画像の取得時刻の時間間隔が異なる場合には、その時間間隔の間に物体が移動する距離が異なるが、本発明の構成によれば、距離画像の取得時刻の時間間隔が異なる場合にも、取得時刻の間隔に応じて適切に多層化クラスタを生成できる。
本発明の物体検出装置において、前記測距装置は、主方向及び副方向の2次元に走査する測距装置であって、前記第1クラスタリング部は、前記距離画像を前記主方向に対応する複数の領域に分割し、分割された各領域内で前記非背景画素のクラスタリングを行って線セグメントを生成する主方向クラスタリング部と、隣接した領域で生成された前記線セグメントの空間内での相対距離に基づいて、前記線セグメントのクラスタリングを行って前記物体候補クラスタを生成する副方向クラスタリング部とを備えてもよい。
このように主方向と副方向のそれぞれについてクラスタリングを行うことにより、クラスタリングの計算量を抑えつつ、3次元の物体候補クラスタを生成することができる。
前記第2クラスタリング部において、前記判定対象の2つの前記物体候補クラスタの相対距離を求める処理は、前記2つの物体候補クラスタにおいて、副方向が共通する画素の間で相対距離の計算を行い、当該副方向が共通する画素の組合せのうちで最小の相対距離を求める第1の処理と、前記第1の処理を副方向を変えて行ってそれぞれの方向での最小相対距離を求め、求めた最小相対距離のうちで最も小さい最小相対距離を、前記2つの物体候補クラスタの相対距離として求める第2の処理とを行ってもよい。このように副方向の異なる画素間の組合せによる相対距離を考慮しないことにより、大幅に計算量が削減できる。
本発明の物体検出装置において、前記物体検出部は、前記多層化クラスタに含まれる前記物体候補クラスタの大きさと、前記多層化クラスタに含まれる画素数とに基づいて物体を検出してもよい。
この構成により、検出したい物体とノイズとを切り分けて物体を検出することができる。例えば、飛び回っている虫などのようなノイズ源を物体候補クラスタとして多層化クラスタを生成してしまった場合にも、物体候補クラスタの大きさや多層化クラスタに含まれる画素数の条件によって除外できる。
本発明の物体検出装置は、前記多層化クラスタから検出された各距離画像における物体の位置の遷移に基づいて、前記物体の移動方向及び移動速度を求める物体移動検知部を備えてもよい。また、前記物体移動検知部は、検出された物体の画素値を3次元空間座標系の位置データに変換して3次元空間内で物体が占める空間を特定し、物体の移動方向及び移動速度を求めてもよい。
この構成により、ノイズの影響を低減して検出した物体の情報に基づいて、物体の移動方向及び移動速度を精度良く求めることができる。
本発明の物体検出装置は、前記物体の移動方向及び移動速度に基づいて、異なる時刻に検出された物体の中から同一の物体を検出し、物体の追跡を行う物体追跡部を備えてもよい。
物体の移動方向及び移動速度は、短時間のうちには大きく変化しないことが多いので、本発明の構成により、先に検出した物体と同一の物体を検出し、物体の追跡を行える。
本発明の物体検出装置は、前記物体検出部にて検出された物体の移動方向及び移動速度に基づいて、所定時間経過後にその物体が存在する範囲を推定し、その範囲を物体の探索範囲として設定する探索範囲設定部を備え、前記物体追跡部は、前記所定時間経過後に前記探索範囲の中から検出された物体を先の時刻に検出された物体と同一の物体であると判定してもよい。
このように物体の移動先と推定される探索範囲を設定することにより、同一の物体の追跡精度を高めることができる。
本発明の物体検出方法は、物体検出装置によって、測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出する方法であって、前記物体検出装置が、前記距離画像を取得するステップと、前記物体検出装置が、前記距離画像から非背景画素を抽出するステップと、前記物体検出装置が、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、前記物体検出装置が、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、前記物体検出装置が、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップとを備える。
本発明のプログラムは、測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出するためのプログラムであって、コンピュータに、前記距離画像を取得するステップと、前記距離画像から非背景画素を抽出するステップと、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップとを実行させる。
本発明は、測距装置から取得した距離画像の中から、ノイズの影響を低減して、適切に物体を検出することができる。
第1の実施の形態の物体検出システムの構成を示す図である。 測距装置の走査角度について説明するための図である。 検出対象である人物が移動する例を示す図である。 測距装置により得られた測距データについて説明する図である。 物体候補クラスタおよび多層化クラスタの例を示す図である。 画素間の相対距離を算出する手法を説明する図である。 第1の実施の形態の物体検出システムの検出結果の出力例を示す図である。 物体検出装置により物体を検出する動作を示すフローチャートである。 第1クラスタリング部による処理を示すフローチャートである。 第2クラスタリング部による処理を示すフローチャートである。 第2クラスタリングの処理によって多層化クラスタが生成される過程を示す図である。 第2クラスタリングの処理によって多層化クラスタが生成される過程を示す図である。 第2の実施の形態の物体検出システムの構成を示す図である。 距離画像を主方向クラスタリング単位に分割した例および主方向クラスタリング単位内での画素の読み出し順序を示す図である。 第2の実施の形態の第2クラスタリング部が物体候補クラスタどうしの距離を求める方法を説明するための図である。 第2の実施の形態の物体検出システムの検出結果の出力例を示す図である。 第3の実施の形態の物体検出システムの構成を示す図である。 物体の移動方向と移動速度を求める例を示す図である。 探索範囲設定部の処理について説明するための図である。 探索範囲内で検出された物体から追跡対象の物体を求める方法を示す図である。 複数の探索範囲が重なりあった場合の処理について説明するための図である。
以下、本発明に係る実施の形態に係る物体検出システムについて、図面を参照しながら具体的に説明する。本実施の形態では、所定の物体検出領域に進入する人物を検出する物体検出装置を例として説明する。
(第1の実施の形態)
図1は、本発明の第1の実施形態に係る物体検出システム1の概略構成を示すブロック図である。物体検出システム1は、測距装置10と、物体検出装置20とを備えている。
[測距装置]
測距装置10は、測定光を照射し、照射方向にある対象物からの反射光に基づいて照射方向にある対象物との距離を算出する。測距装置10は2次元走査型の測距装置であり、3次元空間を2次元方向に測距方向を走査する。測距装置10は、各測距方向について対象物までの距離を算出する。これにより、各測距方向における測距データを画素値とする距離画像が得られる。
距離画像は2次元画像であり、走査方向の一方(主方向)のインデックスをims1とし、他方(副方向)のインデックスをims2とする。距離画像の主方向および副方向の画素数をそれぞれNms1,Nms2とすると、インデックスims1は1〜Nms1の値をとり得、インデックスims2は1〜Nms2の値をとり得る。
図2(a)及び図2(b)は、測距装置10を詳しく説明する図である。測距装置10は、物体検出領域内の遮蔽物をできるだけ避けられるよう、物体検出領域の上方に設置されるのが望ましい。そして、本実施の形態の測距装置10は、2次元方向として、水平方向および垂直方向に走査を行う機能を有する。すなわち、測距装置10は、水平方向に走査する走査系を、さらに垂直方向に走査する。図2(a)に示すように、水平方向の測距角度θms1は正面を0度として−95〜+95度をとり得る。図2(b)に示すように、垂直方向の測距角度θms2は水平方向を0度として0〜−90度をとり得る。測距角度の組(θms1,θms2)は、測距の方向を示す。
測距装置10は、ある測距角度の組(θms1,θms2)が示す方向に測定光を照射する。そして、測距装置10は、反射光に基づいて、この方向にある対象物と測距装置10との距離Rを算出する。そして、測距装置10は、算出された距離Rを、当該測距角度の組(θms1,θms2)と対応する、距離画像における画素(ims1,ims2)の値とする。以下、距離画像における画素(ims1,ims2)が示す距離(データ)をR(ims1,ims2)と表記する。測距装置10は、測距角度の組における距離データを得るため、図2に示す走査範囲を離散的に走査する。
なお、ある測距角度の組(θms1,θms2)と、距離画像における画素(ims1,ims2)との対応関係は予め一意に定められている。逆にいうと、距離画像における画素(ims1,ims2)に対して、測距角度の組(θms1,θms2)が定まる。
測距方式としては、公知の手法を適用することができる。例えば特許第4837413号に記載のTOF(Time of Flight)方式は、物体検出領域に向かってパルス状の測定光を照射し、照射時と反射光検出時との時間差に基づいて、対象物までの距離を算出するものである。また、特許第4703830号に記載のAM(Amplitude Modulation)方式は、物体検出領域に向かって振幅変調された測定光を照射し、測定光と反射光の位相差に基づいて、対象物までの距離を算出するものである。なお、測距装置10の構成や、主副走査パターン、測距方式に特に制限はなく、上述した例とは異なるものであっても構わない。
以上に測距装置10の構成について説明した。測距装置10は、水平方向と垂直方向の2方向に走査可能な装置であるが、第1の実施の形態では、水平方向にのみ走査を行って物体検出装置20に1次元の距離画像のデータを入力する例について説明し、第2の実施の形態において、水平方向および垂直方向に走査を行って物体検出装置20に2次元の距離画像のデータを入力する例を説明する。
[物体検出の概要]
物体検出装置20の詳しい説明に入る前に、本実施の形態の物体検出装置20による物体検出の概要について説明する。ここでは、物体検出の概要の理解のため、水平方向の1元走査のみを行う例を挙げて説明するが、2次元走査を行う場合にももちろんあてはまる。
図3(a)は、検出対象である人物が時刻t−4から時刻tにかけて移動する例を示している。測距装置10を水平方向に走査して測距を行うと、図3(b)に示すように角度θms1ごとに対象物までの距離Rが得られる。なお、測距装置10による走査は人物の動きよりも十分早く、各時刻において水平方向の走査を完了する。
図3(b)に記載した「×」の印は、時刻t−2の測距においてノイズが入ったことを示す。つまり、時刻t−2に測距画像を取得する際に、測距装置10と人物との間に虫や落ち葉などのノイズ源が介在して、人物の一部を測距できなかったことを示している。
図4は、測距装置10により得られた測距データについて説明する図である。時刻t−4から時刻tの各時刻に取得した測距画像は、測距方向ごとに距離データを有する。具体的には、測距方向を示すインデックスims1に関連付けて距離R(ims1)のデータを有している。
図4において、網掛けをした画素は非背景画素であり、網掛けのない画素は背景画素である。あらかじめ物体検出領域内の背景の距離データを記憶しておき、観測された測距データから背景データを差し引き、差分の大きい画素を抽出することで、非背景画素を求めることができる。
図4において、網掛けの種類は、同じ物体から得られたデータであることを示している。ここでは説明の便宜上、物体ごとに異なる網掛けをしているが、実際には、物体検出を行わなければ物体が同じなのか異なるかは分からない。図4において斜めの網掛けは、図3(a)及び図3(b)で示した人物までの距離Rを表わす。時刻t−2の画素N1は、その左右の画素とは異なる対象物からの測距データであるが、これは人物と測距装置10との間に(つまり人物よりも手前に)ノイズ源が介在し、測定光を遮ったために生じたものである。本実施の物体検出は、このようなノイズ源があっても人物を適切に検出するものである。
本実施の形態では、各時刻に取得した距離画像ごとに、その距離画像に含まれる非背景画素をクラスタリングし、物体候補クラスタを生成する。ここでのクラスタリングは、隣接する非背景画素が同じクラスタに含まれるか否かを順次判定することにより行う。隣接する2つの非背景画素にそれぞれ対応する空間内の2点の相対距離が所定の閾値以下である場合に隣接する2つの画素が同じクラスタに含まれると判定し、相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する。
図5(a)は、物体候補クラスタの例を示す図である。時刻t−4の距離画像においては物体候補クラスタB4が生成され、時刻t−3の距離画像においては物体候補クラスタB3が生成され、時刻tの距離画像においては物体候補クラスタB0が生成された。時刻t−2の距離画像においては、画素N1とその左右の非背景画素とが同じクラスタではないと判定され、2つの物体候補クラスタB21,B22が生成された。時刻t−1の距離画像においては、人物以外にも非背景画素N2,N3があるため、この2つの非背景画素N2,N3からなる物体候補クラスタB11が生成された。
次に、物体候補クラスタを時間方向にクラスタリングして、多層化クラスタを生成する。ここでのクラスタリングは、取得時刻が隣接する2つの距離画像から得られたそれぞれの物体候補クラスタが同じクラスタに含まれるか否かを順次判定することにより行う。2つの物体候補クラスタの相対距離が所定の閾値以下である場合に隣接する物体候補クラスタが同じクラスタに含まれると判定し、相対距離が所定の閾値より大きい場合には同じクラスタに含まれないと判定する。
図5(b)は、多層化クラスタCmの例を示す図である。物体候補クラスタB4と物体候補クラスタB3は同じクラスタに含まれると判定され、物体候補クラスタB3と物体候補クラスタB21,B22は同じクラスタに含まれると判定され、物体候補クラスタB21,B22と物体候補クラスタB12は同じクラスタに含まれると判定され、物体候補クラスタB12と物体候補クラスタB0が同じクラスタに含まれると判定された結果、物体クラスタB4,B3,B21,B22,B12,B0からなる多層化クラスタCmが生成された。
そして、多層化クラスタCmが所定の条件を満たす場合に多層化クラスタCmに含まれる物体候補クラスタを物体として検出する。所定の条件は、物体候補クラスタのサイズや多層化クラスタCmに含まれる物体候補クラスタの総画素数に関するものであり、例えば、多層化クラスタCmに含まれる物体候補クラスタのサイズが所定の大きさより大きく、かつ、多層化クラスタCmに含まれる物体候補クラスタの総画素数が所定の閾値以上である場合に、多層化クラスタCmに含まれる物体候補クラスタを物体であると判定する。
多層化クラスタCmが所定の条件を満たす場合には、距離画像ごとに物体を検出する。例えば、時刻t−4の距離画像のように多層化クラスタCmに1つの物体候補クラスタB4が含まれる場合には、物体候補クラスタB4を物体であると検出する。時刻t−2の距離画像のように、2つの物体候補クラスタB21,B22を含んでいる場合には、2つの物体候補クラスタB21,B22は時刻t−4で検出した物体と同じ1つの物体を示していると判定する。これにより、時刻t−2のようにノイズ源によって2つの物体候補クラスタに分かれてしまった場合でも、他の時刻に取得した距離画像も含めて生成した多層化クラスタCmの情報を用いて1つの物体であることを検出することができる。
また、時刻t−1における画素N2,N3のように一瞬だけ現れた非背景画素については、その前後の時刻において物体候補クラスタが連続していないことからノイズであると判断でき、ノイズ源を物体と誤って検出してしまうことがない。
[物体検出装置の構成]
図1を参照して物体検出装置20の構成について説明する。物体検出装置20は、距離画像取得部21と、非背景画素抽出部22と、第1クラスタリング部23と、第2クラスタリング部24と、物体検出部25と、出力部26とを有している。これら各部の一部または全部は、ハードウェアで構成されてもよいし、コンピュータのプロセッサが所定のプログラムを実行することによって実現されてもよい。
距離画像取得部21は、測距装置10によって生成された距離画像を取得する。第1の実施の形態においては、水平方向の走査をしたときの距離画像のデータを取得するものとする。この場合、距離画像の各画素(ims1)の値は、画素に対応する方向にある対象物までの距離R(ims1)を示す。
非背景画素抽出部22は、距離画像から非背景の画素(ims1)を抽出する。なお、「背景」は、測距装置10の測距対象となり得るが、物体として検出する必要がないものであり、例えば床や天井、固定された家具などである。非背景画素抽出部22は、背景画像データ記憶部27に記憶された背景画像と距離画像とを比較して、その差分が所定の閾値以上の画素を非背景画素として抽出する。
ここで、背景画像データ記憶部27に記憶される背景画像は、例えば物体検出領域内に物体が何もない状態で、測距装置10によって生成された距離画像とすることができる。あるいは、測距装置10によって生成された多数の距離画像を画素ごとに平均した平均距離画像であってもよい。後者の場合、測距装置10のノイズの影響を抑えることができるし、物体検出領域内に物体が何もない状態を実現することが難しい場合でも、背景画像を生成できる。なお、平均としては、算術平均のほか、幾何平均や刈り込み平均などを用いることができる。
第1クラスタリング部23は、非背景画素抽出部22にて抽出した非背景画素をクラスタリングして、物体候補クラスタを生成する。第1クラスタリング部23は、ある非背景画素(画素(ims1)とする)が示す空間内での点と、隣接する非背景画素(画素(i’ms1)とする)が示す空間内での点との相対距離Rrltvを算出し、この相対距離Rrltvに基づいてクラスタリングを行う。ここで、「隣接する非背景画素」について説明する。距離画像は、測距方向ごとの距離データを画素として有しており、測距方向によって隣接する画素を規定することができる。画素には、背景画素と非背景画素があり、非背景画素の隣りの画素は必ずしも非背景画素であるとは限らないが、「隣接する非背景画素」とは、隣りが背景画素の場合には、その背景画素を飛ばして隣りの画素を見ていき、最初に現れる非背景画素が「隣接する非背景画素」である。
隣接する非背景画素の相対距離は、非背景画素(ims1)が示す対象物と測距装置10との距離R(i’ms1)と、隣接する非背景画素(i’ms1)が示す対象物と測距装置10との距離R(i’ms1)とに基づいて算出される。図6は、画素間の相対距離Rrltvを算出する手法を説明する図である。図示のように、画素(ims1)が示す点P(ims1)は、測距装置10を原点Oとして、距離R(ims1)とその測距方向を表わすベクトルD(ims1)によって特定される。同様に、画素(i’ms1)が示す点P’(i’ms1)は、距離R(i’ms1)とその測距方向を表わすベクトルD(i’ms1)によって特定される。
第1クラスタリング部23は、これらの距離R,R’と測距方向を表わすベクトルD,D’に基づき、三角形OPP’に余弦定理を適用して相対距離Rrltvを算出する。具体的には、下記(1)式により、画素(ims1)と、画素(i’ms1)との相対距離Rrltv((ims1),(i'ms1))が得られる。
Figure 2017219385
第1クラスタリング部23は、隣接する非背景画素の相対距離Rrltvが所定の閾値(例えば0.20[m])以下である場合、その2画素が同一のクラスタに属すると判定し、相対距離Rrltvが所定の閾値より大きい場合、その2画素は同一のクラスタには属しないと判定する。隣接する2つの非背景画素間の相対距離Rrltvと閾値との比較評価を、距離画像を構成する全画素について順次行うことで、距離画像に含まれる非背景画素を複数の物体候補クラスタに分ける。
図1に戻って第2クラスタリング部24について説明する。第2クラスタリング部24は、第1のクラスタリングで生成された複数の物体候補クラスタを時間方向にクラスタリングして、多層化クラスタを生成する。第2クラスタリング部24は、所定の時刻の距離画像から得られた物体候補クラスタと、隣接する時刻の距離画像から得られた物体候補クラスタとの間の相対距離RB2rltvを算出する。
物体候補クラスタどうしの相対距離RB2rltvは、各物体候補クラスタに含まれるすべての画素どうしの相対距離を算出し、最小の相対距離を物体候補クラスタの相対距離RB2rltvとして求める。具体的には、下記(2)式により、所定の時刻tに取得した距離画像から得られたjt番目の物体候補クラスタB(t,jt)と、隣接する時刻t−1に取得した距離画像から得られたj't-1番目の物体候補クラスタB(t-1,j't-1)との相対距離RB2rltvが得られる。
Figure 2017219385
ただし、ims1はB(t,jt)内の画素、i'ms1,はB(t-1,j't-1)内の画素である。
第2クラスタリング部24も、各画素が示す点をXY座標系に変換することなく、距離画像の各画素が示す距離Rと測距走査方向ベクトルDとに基づいて画素間の相対距離RB2rltvを算出する。これにより、クラスタリングの計算量を減らすことができる。
そして、第2クラスタリング部24は、相対距離RB2rltvが所定の閾値(例えば0.50[m])以下である場合、その2つの物体候補クラスタが同一のクラスタに属すると判断し、相対距離RB2rltvが所定の閾値より大きい場合、その2つの物体候補クラスタが異なるクラスタに属すると判断する。隣接する時刻に取得した距離画像から得られた物体候補クラスタの間の相対距離RB2rltvと閾値との比較評価を、全ての物体候補クラスタについて順次行うことで、1または複数の多層化クラスタが形成される。
図1に戻って物体検出部25について説明する。物体検出部25は、第2クラスタリング部24にて生成された多層化クラスタが所定の条件を満たすか否かに基づいて、物体を検出する。本実施の形態において用いる条件は、多層化クラスタCmに含まれる最大の物体候補クラスタのサイズが所定の大きさ(例えば、0.5m)より大きく、かつ、多層化クラスタCmに含まれる物体候補クラスタの総画素数が所定の閾値(例えば、20画素)以上である場合に、多層化クラスタCmに含まれる物体候補クラスタを物体であると判定する。多層化クラスタCmが所定の条件を満たす場合には、物体検出部25は、距離画像ごとに物体を検出する。つまり、距離画像から得られた1又は複数の物体候補クラスタを1つの物体として検出する。
出力部26は、物体検出部25にて検出された物体を出力座標系に応じて出力する。物体検出部25で検出された物体はθms1,R,Tの3次元の観測点の集合である。そのままで出力するのならば、出力部26は、R-θms1-T座標系で出力する。時間の情報が不要な場合には、例えば距離画像と同様なR-θms1座標系で出力する。また、XYT座標系に変換しても良いし、この場合も時間の情報が不要ならXY座標系に変換しても良い。本実施の形態では、XYT座標系に変換して出力する例を取り上げて説明する。出力の態様としては、例えば、モニタ等の表示手段に表示してもよい。
図7は、出力部26により出力された物体Kの検出結果の例を示す図である。図7に示すように、XYT座標系において物体Kの検出結果を表示することで、物体の動きを容易に把握することができる。
[物体検出装置の動作]
次に、本実施の形態の物体検出装置20の動作について説明する。図8は、物体検出装置20により物体を検出する動作を示すフローチャートである。物体検出装置20は、測距装置10から距離画像のデータを取得する(S10)。測距装置10は、定期的に測距を行って距離画像を生成し、物体検出装置20は測距装置10から定期的に距離画像のデータを取得する。
物体検出装置20は、取得した距離画像の中から非背景画素を抽出する(S11)。続いて、物体検出装置20は、距離画像に含まれる非背景画素に対して第1のクラスタリングを行い、非背景画素の集合である物体候補クラスタを生成する(S12)。第1のクラスタリングの処理については、図9を参照して後述する。物体検出装置20は、物体候補クラスタに対して第2のクラスタリングを行い、物体候補クラスタの集合である多層化クラスタを生成する(S13)。第2のクラスタリング処理については、図10を参照して後述する。
物体検出装置20は、多層化クラスタが所定の条件を満たすか否かを判定し、物体を検出する(S14)。第2のクラスタリング処理により、複数の多層化クラスタが生成されるが、所定の条件を満たす多層化クラスタからは物体が検出され、所定の条件を満たさない多層化クラスタはノイズとして判断される。
物体検出装置20は、検出した物体を示す画素値を空間座標系に変換する(S15)。上述したとおり、検出した物体の位置情報を出力する際には、出力座標系に対応するように変換を行えばよいが、本実施の形態では、物体の位置情報をXYT座標系に変換する。続いて、物体検出装置20は、検出結果を出力する(S16)。
図9は、第1のクラスタリングの処理を示すフローチャートである。まず、第1クラスタリング部23は、物体候補クラスタに属する画素を順次追加していくための一時保存領域を確保する(ステップS20)。
そして、第1クラスタリング部23は、距離画像から処理対象の画素(ims1)を取得する(ステップS21)。処理対象の画素の取得の順序としては、最初に走査範囲の端にある非背景画素を取得し、その後は順次、前の非背景画素に隣接する非背景画素を取得していく。処理対象の画素の取得の順序を記憶した記憶部を備えてもよい。
第1クラスタリング部23は、一時保存領域に画素が保存されているか否かを判定する(S22)。一時保存領域に画素が保存されていない場合には(S22でNO)、処理対象の画素を保存領域に保存する(S28)。距離画像から最初に非背景画素を取得したときには、一時保存領域には画素が保存されていないので、最初の処理対象画素は一時保存領域に保存される(S28)。
一時保存領域に画素が保存されている場合には(S22でYES)、処理対象画素と隣接する1つ前の処理対象画素を一時保存領域から読み出す(S23)。上述したとおり、第1クラスタリング部23は、隣接する非背景画素を順次読み出しているので、ここで一時保存領域から読み出される非背景画素は、処理対象画素に隣接する非背景画素である。第1クラスタリング部23は、処理対象画素と1つ前の処理対象画素との相対距離Rrltvを上述した式(1)によって算出する(S24)。
第1クラスタリング部23は、求めた相対距離Rrltvが所定の閾値以下であるか否かを判定する(S25)。相対距離Rrltvが所定の閾値以下である場合には(S25でYES)、処理対象画素と、1つ前の処理対象画素が同じクラスタに属すると判定し、第1クラスタリング部23は、処理対象画素を一時保存領域に保存する(S26)。相対距離Rrltvが所定の閾値以下でない場合(S25でNO)、処理対象画素と、1つ前の処理対象画素とは異なるクラスタに属すると判定し、第1クラスタリング部23は、一時保存領域に記憶されている処理対象画素が物体候補クラスタを構成すると確定する(S27)。
第1クラスタリング部23は、確定した物体候補クラスタを構成する画素データを別の保存領域に移動すると共に、一時保存領域のデータをクリアする(S27)。このときに、一時保存領域に1つの画素しか保存されていなかったときには、その画素は前後の隣接画素とクラスタを構成するものではないので、別の保存領域に移動することなく一時保存領域からクリアしてもよい。続いて、第1クラスタリング部23は、処理対象画素を一時保存領域に保存する(S28)。
第1クラスタリング部23は、距離画像に含まれるすべての非背景画素について処理を行ったか否かを判定し(S29)、まだ未処理の非背景画素がある場合には(S29でNO)、未処理の非背景画素を処理対象画素として抽出するステップに戻り(S21)、上述した処理を繰り返す。
図10は、第2のクラスタリングの処理を示すフローチャートである。図11及び図12は、第2のクラスタリングの処理によって多層化クラスタが生成される過程を示す図である。
第2クラスタリング部24は、取得時刻が最先の距離画像から生成された物体候補クラスタを多層化クラスタ候補として保存する(S30)。図11(a)に示す例では、最先の取得時刻t−3の2つの物体候補クラスタを多層化クラスタ候補Cm1,Cm2として保存する。
第2クラスタリング部24は、隣接する時刻に取得した距離画像を処理対象として選択し(S31)、処理対象の距離画像から得られた物体候補クラスタを処理対象として選択する(S32)。そして、選択された物体候補クラスタと多層化クラスタ候補との相対距離RB2rltvを計算する(S33)。図11(a)に示す例では、取得時刻t−3に隣接する取得時刻t−2の距離画像を処理対象として選択し(S31)、物体候補クラスタB1を処理対象として選択する(S32)。そして、物体候補クラスタB1と多層化クラスタ候補Cm1,Cm2との相対距離RB2rltvを計算する(S33)。
第2クラスタリング部24は、相対距離RB2rltvが閾値以下の多層化クラスタ候補があるか否かを判定し(S34)、相対距離RB2rltvが閾値以下の多層化クラスタ候補がある場合には(S34でYES)、その多層化クラスタ候補に処理対象の物体候補クラスタを追加する(S35)。もし、相対距離RB2rltvが閾値以下の多層化クラスタ候補がない場合には(S34でNO)、処理対象の物体候補クラスタを新たな多層化クラスタ候補として保存する(S36)。
図11(a)に示す例では、相対距離RB2rltvが閾値以下であることを実線の矢印で示し、閾値以下でないことを点線の矢印で示している。ここでは、物体候補クラスタB1と多層化クラスタ候補Cm1との相対距離RB2rltvが所定の閾値以下であるので、図11(b)に示すように多層化クラスタ候補Cm1に物体候補クラスタB1を加える。多層化クラスタ候補Cm2については、追加される物体候補クラスタがないので、この時点で多層化クラスタ候補Cm2の更新は終了する。
第2クラスタリング部24は、処理対象の距離画像の全ての物体候補クラスタについて処理を行ったか否かを判定し(S37)、まだ未処理の物体候補クラスタがある場合には(S37でNO)、未処理の物体候補クラスタを処理対象として選択して(S32)、上述した処理を行う。
処理対象の距離画像の全ての物体候補クラスタについて処理を行った場合には(S37でYES)、第2クラスタリング部24は、全ての距離画像を処理したか否か判定し(S38)、未処理の距離画像がある場合には(S38でNO)、処理を行った距離画像と隣接する時刻に取得した距離画像を新たな処理対象として選択し(S31)、上述した処理を行う。全ての距離画像について処理を行った場合には(S38でYES)、生成された多層化クラスタ候補を多層化クラスタとして確定し(S39)、処理を終了する。
図11及び図12を参照して多層化クラスタの生成の過程についてさらに説明する。取得時刻t−2の距離画像についての処理が完了すると、取得時刻t−1の距離画像を処理対象として選択する。その距離画像から処理対象の物体候補クラスタB2〜B4を順次選択して処理を行う。図11(c)に示すように物体候補クラスタB2と多層化クラスタ候補Cm1との相対距離RB2rltvを計算し、所定の閾値以下であると判定し、物体候補クラスタB2を多層化クラスタ候補Cm1に追加する。
なお、物体候補クラスタB2と多層化クラスタ候補Cm1との相対距離RB2rltvを求める際に用いるのは、多層化クラスタ候補Cm1に含まれる物体候補クラスタのうち、処理対象である時刻t−1の距離画像と隣接する時刻t−2の距離画像から生成された物体候補クラスタB1との相対距離であり、隣接していない時刻t−3の距離画像から生成された物体候補クラスタとの相対距離ではない。
同様に、物体候補クラスタB3と多層化クラスタ候補Cm1との相対距離RB2rltvを計算し、所定の閾値以下であると判定し、物体候補クラスタB3を多層化クラスタ候補Cm1に追加する。続いて、物体候補クラスタB4と多層化クラスタ候補Cm1との相対距離RB2rltvを計算し、所定の閾値以下ではないと判定し、図12(a)に示すように、物体候補クラスタB4を新たな多層化クラスタ候補Cm3とする。
以上で、時刻t−1の距離画像に含まれる物体候補クラスタB2〜B4の処理が完了したので、時刻tの距離画像を処理対象とする。その距離画像から処理対象の物体候補クラスタB5を選択して処理を行う。図12(b)に示すように、物体候補クラスタB5と多層化クラスタ候補Cm1,Cm3との相対距離RB2rltvを計算し、多層化クラスタ候補Cm1との相対距離RB2rltvが所定の閾値より大きく、多層化クラスタ候補Cm3との相対距離RB2rltvが所定の閾値以下であると判定し、物体候補クラスタB5を多層化クラスタ候補Cm3に追加する。なお、本実施の形態では、取得時刻の古い距離画像の物体候補クラスタから順に多層化クラスタ候補を追加していったが、取得時刻の新しい距離画像から順に多層化クラスタ候補を追加していってもよい。
以上のようにした多層化クラスタCm1,Cm2,Cm3を生成する。そして、多層化クラスタ候補を多層化クラスタとして確定する。なお、多層化クラスタ候補の更新を終了したときに1層しかない多層化クラスタ候補Cm2は、多層化クラスタとして確定しない構成としてもよい。
本実施の形態の物体検出システム1は、複数の時刻に取得した距離画像から抽出した物体候補クラスタを時間方向にクラスタリングして多層化クラスタを生成し、多層化クラスタが所定の条件を満たすか否かによって物体を検出する。したがって、ある取得時刻においてノイズが含まれていたとしてもそのノイズの影響を受けにくく、適切に物体を検出することができる。図12(c)に示す例では、時刻t−1に取得した距離画像に含まれる2つの物体候補クラスタB2,B3は、多層化クラスタCm1に基づいて物体検出を行うことにより、時刻t−2に検出された物体候補クラスタB1と同じ物体であることを検出することができる。
(第2の実施の形態)
図13は、第2の実施の形態の物体検出システム2の構成を示す図である。第2の実施の形態の物体検出システム2の基本的な構成は、第1の実施の形態の物体検出システム1と同じであるが、第2の実施の形態の物体検出システム2は、測距装置10から水平方向及び垂直方向に走査したときの距離画像のデータを取得する。この場合、距離画像の各画素(ims1,ims2)の値は、画素に対応する方向にある対象物までの距離R(ims1,ims2)を示す。
第2の実施の形態の物体検出システム2は、2次元の距離画像を処理するため、物体検出装置20が備える第1クラスタリング部28の構成が異なる。第1クラスタリング部28は、距離画像に含まれる非背景画素をクラスタリングして物体候補クラスタを生成する際に、主方向クラスタリングと副方向クラスタリングを行う。
第1クラスタリング部28は、主方向クラスタリング部29と副方向クラスタリング部30を有している。主方向クラスタリング部29は、処理対象の距離画像を副方向に分割して主方向クラスタリング単位を生成し、主方向クラスタリング単位で非背景画素のクラスタリングを行う。本明細書では、主方向クラスタリングによって生成されるクラスタを「線セグメント」という。
図14(a)は、距離画像を主方向クラスタリング単位に分割した例を示す図である。図示のように、例えば距離画像を副方向に8等分(実際は例えば60等分程度)して8つの主方向クラスタリング単位1〜8を設定する。各主方向クラスタリング単位は、複数ライン(同図では3ライン)の画素から構成されるようにすることができる。主方向クラスタリング部29は、隣接する非背景画素を順次読み出して、隣接する非背景画素が示す3次元空間内の点間の相対距離が所定の閾値以下であるか否かに基づいてクラスタリングを行う。
図14(b)は、主方向クラスタリングが画素を読み出す順序を規定した主方向クラスタリング走査マップを模式的に説明する図である。各主方向クラスタリング単位に属する画素の順序は、主方向インデックスims1の昇順とし、主方向インデックスims1が同一の画素が複数ある場合には副方向インデックスims2の降順とすることができる。例えば、画素(1,1)と画素(1,2)が隣接しているほか、画素(1,1)と画素(2,3)も隣接しているとする。主方向クラスタリング部29は、図14(b)に示すような主方向クラスタリング走査マップを有しており、主方向クラスタリング走査マップにしたがって非背景画素の読み出しを行う。
副方向クラスタリング部30は、主方向クラスタリング部29にて生成された線セグメントのクラスタリングを行い、物体候補クラスタを生成する。副方向クラスタリング部30は、隣接する主方向クラスタリング単位で生成された線セグメントどうしの相対距離に基づいて、線セグメントが同じクラスタに属するか否かを判定する処理を繰り返し行い、クラスタリングを行って、物体候補クラスタを生成する。この処理は、第2クラスタリング部24で説明した「隣接する時刻に取得した距離画像」を「隣接した主方向クラスタリング単位」に置き換え、「物体候補クラスタ」を「線セグメント」に置き換えたものと理解することができる。
第2クラスタリング部24は、第1のクラスタリングで生成された複数の物体候補クラスタを時間方向にクラスタリングして、多層化クラスタを生成する。第2クラスタリング部24は、所定の時刻の距離画像から得られた物体候補クラスタと、隣接する時刻の距離画像から得られた物体候補クラスタとの間の相対距離を算出する。
本実施の形態においては、物体候補クラスタは、線セグメントを副方向にクラスタリングして作成され、主方向及び副方向に広がりを有する。したがって、物体候補クラスタに含まれるすべての画素について総当たりで距離を計算すると、物体候補クラスタどうしの距離の計算処理が非常に重くなり、物体を迅速に検出できないおそれがある。本実施の形態では、物体候補クラスタどうしの距離を効率良く計算する方法を提案する。
図15(a)及び図15(b)は、第2の実施の形態の第2クラスタリング部24が物体候補クラスタどうしの距離を求める方法を説明するための図である。図15(a)及び図15(b)はともに、時刻t−1に取得した距離画像から得られた物体候補クラスタBt-1,1,Bt-1,2,Bt-1,3,Bt-1,4と時刻tに取得した距離画像から得られた物体候補クラスタBt,1,Bt,2,Bt,3,Bt,4とを示している。図15において、網掛けした部分が物体候補クラスタを構成する画素である。第2クラスタリング部24は、これらの2つの物体候補クラスタの距離を計算する際に、副方向のラインを固定して、対応する副方向に含まれる画素の距離を計算する。
図15(a)では、副方向を第1番目のラインに固定して、第1番目のラインにある物体候補クラスタの画素どうしの相対距離を計算する。時刻t−1の第1番目のラインに含まれる画素と、時刻tの第2番目、第3番目・・・のラインにある画素との相対距離は計算しないし、時刻tの第1番目のラインに含まれる画素と、時刻t−1の第2番目、第3番目・・・のラインにある画素との相対距離は計算しない。このように副方向の異なる画素間の組合せによる相対距離を考慮しないことで、単純に物体候補クラスタ間の相対距離を求める場合に比べ、大幅に計算量が削減できる。
なお、ここでは、物体候補クラスタどうしの距離をどの画素間の距離で規定するかを視覚的に理解しやすく説明したが、実際の処理においては、距離画像の画素データR(ims1,ims2)において、副方向インデックスims2が所定の値を有する画素だけ計算対象にすることで、副方向のラインを固定した計算を行える。
副方向のラインを固定した状態は、水平方向の走査により取得した距離画像と同等であり、この相対距離の計算には第1の実施の形態で説明した方法を用いる。第1番目のラインにある画素どうしの距離計算が完了すると、図15(b)に示すように計算対象の画素を第2番目のラインに移して、画素どうしの距離計算を行う。そして、物体候補クラスタに含まれる画素どうしの距離のうち最小の距離を物体候補クラスタの距離とする。
例えば、図15に示す例では、物体候補クラスタBt-1,1と物体候補クラスタBt,1に含まれる画素間の相対距離は、第1番目のラインで4通り(2画素×2画素)、第2番目のラインで2通り(2画素×1画素)、第3番目のラインで4通り(2画素×2画素)の合計10通りの相対距離が求まるが、このうちで最小値となるものを物体候補クラスタBt-1,1と物体候補クラスタBt,1の相対距離とする。
なお、以上の説明と図15(a)及び図15(b)から分かるように、例えば、物体候補クラスタBt-1,1と物体候補クラスタBt,4や物体候補クラスタBt-1,1と物体候補クラスタBt,4のように、そもそも副方向の位置が対応しない存在しない物体候補クラスタは、距離計算の対象になることはなく、計算を省略できる。
図15の模式図を用いて説明した内容を、より詳細に述べる。B(t,jt)を時刻tの距離画像に含まれるjt番目の物体候補クラスタ、B(t-1,j't-1)を時刻t-1の距離画像に含まれるj't-1番目の物体候補クラスタとする。隣接する時刻間t,t-1にそれぞれ属する2つの物体候補クラスタB(t,jt)とB(t-1,j't-1)の相対距離RB2rltvは、クラスタに含まれる同一の副方向位置の画素間の相対距離のうちで最小となる値を選ぶ。具体的には物体候補クラスタB(t,jt)に含まれる画素のそれぞれの副方向に関して、副方向ims2を固定し、副方向ims2であるB(t,jt)の画素とB(t-1,j't-1)の画素間の相対距離のうちで最小となるものをRanyims1(ims2)として求める。続いて、物体候補クラスタB(t,jt)に含まれるすべて副方向ims2に関して求めたRanyims1(ims2)の中から最小値を選び、これを物体候補クラスタ間相対距離RB2rltvとする。
下記(3)式により、所定の時刻tに取得した距離画像から得られた物体候補クラスタB(t,jt)と、隣接する時刻t−1に取得した距離画像から得られた物体候補クラスタB(t-1,j't-1)との相対距離RB2rltvが得られる。
Figure 2017219385
ただし、
R(ims1,ims2,t):時刻tにおける画素(ims1,ims2)の距離
R(i'ms1,ims2,t-1):時刻t-1における画素(i'ms1,ims2)の距離
以上、第2の実施の形態の物体検出システム2について、第1の実施の形態の物体検出システム1と異なる構成について説明した。第2の実施の形態の物体検出システム2の第1の実施の形態と同様に多層化クラスタを用いて、精度の良い物体検出を行うことができる。
第2の実施の形態の物体検出システム2は、物体候補クラスタを生成する際に、隣接する非背景画素を2つの走査方向についてクラスタリングするので、立体的な物体の形状を検出することができる。
図16は、第2の実施の形態の物体検出システム2にて出力された物体Kの検出結果の例を示す図である。第2の実施の形態の物体検出システム2では、物体Kの動きを立体的に把握することができる。
(第3の実施の形態)
図17は、第3の実施の形態の物体検出システム3の構成を示す図である。第3の物体検出システム3は、検出した物体の移動方向及び移動速度を検知し、この移動に関するデータを用いて物体を追跡する機能を有する。
第3の実施の形態の物体検出システム3の基本的な構成は、第1の実施の形態の物体検出システム1と基本的な構成は同じであるが、第3の実施の形態では、物体検出装置20が、第1の実施の形態の物体検出装置20の構成に加えて、物体移動検知部31と、探索範囲設定部32と、物体追跡部33とをさらに備えている。
物体移動検知部31は、物体検知部25に検知した物体の位置をXY座標系に変換し、多層化クラスタの両端の物体の位置と時間から物体の移動方向と移動速度を求める。図18は、物体の移動方向と移動速度を求める例を示す図である。
図18に示すように、物体移動検知部31は、検出した物体の画素値をXYT座標系に変換する。そして、各時刻において物体が占める領域の平均位置を求める。そして、時刻t−4の物体の平均位置p1(x,y)と時刻tの物体の平均位置p5(x,y)から、物体の移動方向と移動速度、すなわち、移動ベクトルv(X,Y)を求める。ここでは、XYT座標系において物体の移動方向と移動速度を求める例を説明したが、移動方向と移動速度は、R-θ座標系において求めてもよい。
探索範囲設定部32は、追跡対象の物体が存在すると推定される探索範囲を設定する機能を有している。物体追跡部33は、異なる時刻に検出された物体の結び付け(アソシエーション)を行い、異なる時刻の間で物体を追跡する。なお、ここでいう異なる時刻とは、多層化クラスタリングを行う時間範囲よりも大きく異なる時刻である。多層化クラスタを生成する際には、物体を追跡していることを前提として物体検出を行っているからである。探索範囲設定部32は、物体の移動方向と移動速度に基づいて、所定時間経過後に物体の存在する場所を推定し、その周辺に探索範囲を設定する。なお、探索範囲を「ゲート」、探索範囲の設定を「ゲートをオープンする」ともいう。
図19は、探索範囲設定部32の処理について説明するための図である。探索範囲設定部32は、物体の現在位置P1と物体の移動ベクトルvとに基づいて、所定時間後の物体の推定位置P2aを求め、物体の推定位置を中心とする円形の探索範囲Saを設定する。探索範囲設定部32が設定する探索範囲の半径は、物体の追跡を行う時間間隔に応じて決定してもよい。すなわち、追跡の時間間隔が長くなれば探索範囲の半径を大きくし、短ければ探索範囲の半径を小さくしてもよい。
本実施の形態の探索範囲設定部32は、物体の移動ベクトルvを用いて所定時間後の物体の位置を推定するので、適切に探索範囲を設定できる。これにより、探索範囲で検出された物体と同一の物体であるという結び付けを行うことができ、物体の追跡を行える。この例では、所定時間後の物体の位置はP2であり、所定時間の経過後に探索範囲で見つかった物体が、現在検出された物体であると正しく追跡できる。もし、移動ベクトルvを用いない場合には、物体の1つ前の位置と現在位置とを結ぶ直線上に推定位置P2bが求められ、推定位置P2bを中心とする円形の探索範囲Sbが設定されることになるが、誤った物体とのアソシエーションを行ってしまう可能性がある。
物体追跡部33は、探索範囲において検出された物体の中で追跡対象の物体の移動方向及び移動速度が近い物体を、追跡対象の物体と同一であると判定し、アソシエーションを行う。なお、探索範囲において物体を検出する方法は、上で説明した多層化クラスタを用いた検出方法を採用し、物体の現在位置と共にその移動ベクトルも求められているものとする。
図20は、探索範囲内で3つの物体O1〜O3が検出されたときに、追跡対象の物体と同一の物体を求める方法を示す図である。観測点1で検出された物体O1は移動ベクトルVo1を持ち、観測点2で検出された物体O2は移動ベクトルVo2を持ち、観測点3で検出された物体O3は移動ベクトルVo3を持つ。追跡対象の物体は移動ベクトルVoを持つ。追跡対象の物体の移動ベクトルVoは、探索範囲を設定する際に用いた移動ベクトルである。
物体追跡部33は、追跡対象の物体の移動ベクトルVoと近い移動ベクトルを有する物体を特定する。2つの移動ベクトルの近さは、2つの移動ベクトルの方向及び大きさの差分に関して閾値を設定しておき、差分が閾値以下となる場合に2つの移動ベクトルが近いと判断する。図20に示す例では、移動ベクトルが近い物体として物体O1及び物体O3が特定され、物体O2は除外される。物体追跡部33は、絞り込まれた物体のうち、予測点A1からの距離が近い物体を追跡対象の物体と同一の物体であると特定する。この例では、距離L1<距離L3なので、物体O1が特定される。このように物体追跡部33は、追跡対象の物体の移動ベクトルを用いることで、同一の物体を特定できる。
図21は、複数の物体の探索範囲が重なりあった場合の処理について説明するための図である。図21に示す例では、追跡物体A1の探索範囲S1と、追跡物体A2の探索範囲S2が重なり合っている。そして、物体O2が探索範囲S1と探索範囲S2とが重なった領域の観測点2で物体O2が検出された。ここで、物体O2の移動ベクトルは、追跡物体A1とも追跡物体A2とも移動ベクトルが近いとする。この場合、追跡対象の物体の移動ベクトルの近さに基づいて物体の同一性判定を行っても、物体O2が追跡物体A1,A2のいずれとも結びつけることができない。このような場合には、物体追跡部33は、探索範囲の中心である予測点までの距離が短い方の探索範囲の追跡物体と結びつける。この例では、予測点1との距離L2_1<予測点2との距離L2_2であることから、探索範囲S1の追跡物体A1と結びつける。
以上、第3の実施の形態の物体検出システム3について説明した。第3の実施の形態の物体検出システム3は、物体の位置の情報のみならず、移動方向及び移動速度(すなわち、移動ベクトル)を求めることができる。そして、この移動ベクトルの情報を物体の追跡に生かすことにより、物体の追跡を効率的かつ精度良く行うことができる。
以上、本発明の物体検出システムについて実施の形態を挙げて詳細に説明したが、本発明は上記した実施の形態に限定されるものではない。多層化クラスタを生成する際に、物体候補クラスタどうしの距離が所定の閾値以下の場合に同じクラスタに属すると判断することを説明したが、この閾値は検出すべき物体の種類に応じて決定することができる。例えば、検出すべき物体が車両の場合と人物の場合とでは、車両の場合の方が閾値を大きくしてもよい。車両の方が移動速度が速いため、同じ時間間隔に大きく動く可能性があるからである。
また、この閾値は、距離画像を取得する時間間隔に応じて変えてもよい。すなわち、距離画像の取得間隔が1秒の場合は0.5秒の場合に比べて、2つの距離画像間での移動距離が2倍になる可能性があるからである。
本発明は、ノイズの影響を受けにくく、適切に物体を検出することができ、測距装置を用いた物体検出装置等として有用である。
1〜3 物体検出システム
10 測距装置
20 物体検出装置
21 距離画像取得部
22 非背景画素抽出部
23 第1クラスタリング部
24 第2クラスタリング部
25 物体検出部
26 出力部
27 背景データ記憶部
28 第1クラスタリング部
29 主方向クラスタリング部
30 副方向クラスタリング部
31 物体移動検知部
32 探索範囲設定部
33 物体追跡部

Claims (12)

  1. 測距装置の各測距方向における測距データを画素値とする距離画像を取得する距離画像取得部と、
    前記距離画像から非背景画素を抽出する非背景画素抽出部と、
    隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成する第1クラスタリング部と、
    取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成する第2クラスタリング部と、
    前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出する物体検出部と、
    を備える物体検出装置。
  2. 前記第2クラスタリング部は、判定対象の前記物体候補クラスタの空間内での相対距離に、その物体候補クラスタを生成した距離画像の取得時刻の時間間隔に応じた重み付けをし、重み付け後の距離に基づいて前記物体候補クラスタのクラスタリングを行う請求項1に記載の物体検出装置。
  3. 前記測距装置は、主方向及び副方向の2次元に走査する測距装置であって、
    前記第1クラスタリング部は、
    前記距離画像を前記主方向に対応する複数の領域に分割し、分割された各領域内で前記非背景画素のクラスタリングを行って線セグメントを生成する主方向クラスタリング部と、
    隣接した領域で生成された前記線セグメントの空間内での距離に基づいて、前記線セグメントのクラスタリングを行って前記物体候補クラスタを生成する副方向クラスタリング部と、
    を備える請求項1または2に記載の物体検出装置。
  4. 前記第2クラスタリング部において、前記判定対象の2つの前記物体候補クラスタの相対距離を求める処理は、
    前記2つの物体候補クラスタにおいて、副方向が共通する画素の間で相対距離の計算を行い、当該副方向が共通する画素の組合せのうちで最小の相対距離を求める第1の処理と、
    前記第1の処理を副方向を変えて行ってそれぞれの方向での最小相対距離を求め、求めた最小相対距離のうちで最も小さい最小相対距離を、前記2つの物体候補クラスタの相対距離として求める第2の処理と、
    を行う請求項3に記載の物体検出装置。
  5. 前記物体検出部は、前記多層化クラスタに含まれる前記物体候補クラスタの大きさと、前記多層化クラスタに含まれる画素数とに基づいて、物体を検出する請求項1乃至4のいずれかに記載の物体検出装置。
  6. 前記多層化クラスタから検出された各距離画像における物体の位置の遷移に基づいて、前記物体の移動方向及び移動速度を求める物体移動検知部を備える請求項1乃至5のいずれかに記載の物体検出装置。
  7. 前記物体移動検知部は、検出された物体の画素値を3次元空間座標系の位置データに変換して3次元空間内で物体が占める空間を特定し、物体の移動方向及び移動速度を求める請求項6に記載の物体検出装置。
  8. 前記物体の移動方向及び移動速度に基づいて、異なる時刻に検出された物体の中から同一の物体を検出し、物体の追跡を行う物体追跡部を備える請求項6又は7に記載の物体検出装置。
  9. 前記物体検出部にて検出された物体の移動方向及び移動速度に基づいて、所定時間経過後にその物体が存在する範囲を推定し、その範囲を物体の探索範囲として設定する探索範囲設定部を備え、
    前記物体追跡部は、前記所定時間経過後に前記探索範囲の中から検出された物体を先の時刻に検出された物体と同一の物体であると判定する請求項8に記載の物体検出装置。
  10. 測距装置と、
    請求項1乃至9のいずれかに記載の物体検出装置と、
    を備える物体検出システム。
  11. 物体検出装置によって、測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出する方法であって、
    前記物体検出装置が、前記距離画像を取得するステップと、
    前記物体検出装置が、前記距離画像から非背景画素を抽出するステップと、
    前記物体検出装置が、隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、
    前記物体検出装置が、取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、
    前記物体検出装置が、前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップと、
    を備える物体検出方法。
  12. 測距装置の各測距方向における測距データを画素値とする距離画像に基づいて物体を検出するためのプログラムであって、コンピュータに、
    前記距離画像を取得するステップと、
    前記距離画像から非背景画素を抽出するステップと、
    隣接する2つの前記非背景画素に対応する空間内の2点間の相対距離を前記非背景画素の測距方向及びその測距データに基づいて算出し、当該相対距離に基づいて隣接する前記非背景画素が同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記非背景画素の集合である物体候補クラスタを生成するステップと、
    取得時刻が隣接する距離画像からそれぞれ生成された物体候補クラスタの空間内での相対距離に基づいて、判定対象の2つの物体候補クラスタが同じクラスタに属するか否かを判定する処理を繰り返し行うことにより、前記物体候補クラスタの集合である多層化クラスタを生成するステップと、
    前記多層化クラスタが所定の条件を満たすときに、当該多層化クラスタに含まれる各距離画像内の1又は複数の物体候補クラスタを物体として検出するステップと、
    を実行させるプログラム。
JP2016112983A 2016-06-06 2016-06-06 物体検出装置、物体検出システム、物体検出方法、およびプログラム Active JP6742157B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016112983A JP6742157B2 (ja) 2016-06-06 2016-06-06 物体検出装置、物体検出システム、物体検出方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016112983A JP6742157B2 (ja) 2016-06-06 2016-06-06 物体検出装置、物体検出システム、物体検出方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2017219385A true JP2017219385A (ja) 2017-12-14
JP6742157B2 JP6742157B2 (ja) 2020-08-19

Family

ID=60655994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016112983A Active JP6742157B2 (ja) 2016-06-06 2016-06-06 物体検出装置、物体検出システム、物体検出方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6742157B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109799513A (zh) * 2019-01-04 2019-05-24 广西大学 一种基于二维激光雷达数据中直线特征的室内未知环境定位方法
WO2021059699A1 (ja) * 2019-09-25 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 測距装置及び測距装置の制御方法、並びに、電子機器
CN113447940A (zh) * 2020-03-27 2021-09-28 西克股份公司 距离测量数据的检测
JP7506303B2 (ja) 2020-04-22 2024-06-26 株式会社デンソーウェーブ センサ装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005978A (ja) * 1999-06-18 2001-01-12 Sony Corp 物体抽出装置、物体抽出方法、およびプログラム提供媒体
JP2007020829A (ja) * 2005-07-15 2007-02-01 Hitachi Ltd 画像データ解析方法およびシステム
JP2012038077A (ja) * 2010-08-06 2012-02-23 Secom Co Ltd 物体検出センサ
JP2013156718A (ja) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP2013228267A (ja) * 2012-04-25 2013-11-07 Panasonic Corp 表示装置、表示方法、及びプログラム
WO2013190772A1 (ja) * 2012-06-20 2013-12-27 パナソニック株式会社 空間情報検出装置、人位置検出装置
US20150158489A1 (en) * 2013-12-09 2015-06-11 Hyundai Motor Company Method for object processing and vehicle supporting the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005978A (ja) * 1999-06-18 2001-01-12 Sony Corp 物体抽出装置、物体抽出方法、およびプログラム提供媒体
JP2007020829A (ja) * 2005-07-15 2007-02-01 Hitachi Ltd 画像データ解析方法およびシステム
JP2012038077A (ja) * 2010-08-06 2012-02-23 Secom Co Ltd 物体検出センサ
JP2013156718A (ja) * 2012-01-27 2013-08-15 National Institute Of Advanced Industrial & Technology 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP2013228267A (ja) * 2012-04-25 2013-11-07 Panasonic Corp 表示装置、表示方法、及びプログラム
WO2013190772A1 (ja) * 2012-06-20 2013-12-27 パナソニック株式会社 空間情報検出装置、人位置検出装置
US20150158489A1 (en) * 2013-12-09 2015-06-11 Hyundai Motor Company Method for object processing and vehicle supporting the same

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109799513A (zh) * 2019-01-04 2019-05-24 广西大学 一种基于二维激光雷达数据中直线特征的室内未知环境定位方法
CN109799513B (zh) * 2019-01-04 2023-06-23 广西大学 一种基于二维激光雷达数据中直线特征的室内未知环境定位方法
WO2021059699A1 (ja) * 2019-09-25 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 測距装置及び測距装置の制御方法、並びに、電子機器
CN113447940A (zh) * 2020-03-27 2021-09-28 西克股份公司 距离测量数据的检测
JP2021156882A (ja) * 2020-03-27 2021-10-07 ジック アーゲー 距離測定データの取得
JP7114207B2 (ja) 2020-03-27 2022-08-08 ジック アーゲー 距離測定データの取得
JP7506303B2 (ja) 2020-04-22 2024-06-26 株式会社デンソーウェーブ センサ装置

Also Published As

Publication number Publication date
JP6742157B2 (ja) 2020-08-19

Similar Documents

Publication Publication Date Title
CN104793202B (zh) 多雷达成像传感器的对象融合系统
US10565721B2 (en) Information processing device and information processing method for specifying target point of an object
JP5102410B2 (ja) 移動体検出装置および移動体検出方法
JP5950296B2 (ja) 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
JP5617100B2 (ja) センサ統合システム及びセンサ統合方法
CN110609281B (zh) 一种区域检测方法及装置
CN109509210A (zh) 障碍物跟踪方法和装置
EP3631363A1 (en) Device and method for detection and localization of vehicles
JP6524529B2 (ja) 建築限界判定装置
JP2015062121A (ja) 歩行者の視覚的認識が困難であり得ることを運転者に警告するシステム及び方法
Liu et al. Ground surface filtering of 3D point clouds based on hybrid regression technique
JP6742157B2 (ja) 物体検出装置、物体検出システム、物体検出方法、およびプログラム
JP7232946B2 (ja) 情報処理装置、情報処理方法及びプログラム
Tsokas et al. Multi-robot multiple hypothesis tracking for pedestrian tracking
CN109343051A (zh) 一种用于高级辅助驾驶的多传感器数据融合方法
KR20180027242A (ko) 무인 차량을 위한 주변 환경 매핑 방법 및 장치
Linder et al. Towards a robust people tracking framework for service robots in crowded, dynamic environments
JP6397386B2 (ja) 領域分割処理装置、方法、及びプログラム
JP6331566B2 (ja) 人物頭部検知装置及び姿勢推定装置
JP2010205042A (ja) 歩行者検出装置
KR100994722B1 (ko) 카메라 핸드오프를 이용한 다중 카메라상의 연속적인 물체추적 방법
Ibisch et al. Arbitrary object localization and tracking via multiple-camera surveillance system embedded in a parking garage
Habermann et al. 3D point clouds segmentation for autonomous ground vehicle
KR20090113746A (ko) 물체의 공간적 의미정보를 이용한 로봇의 자기위치 추정 방법
Abd Rahman et al. Pedestrian detection using triple laser range finders

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200728

R150 Certificate of patent or registration of utility model

Ref document number: 6742157

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250