JP5434861B2 - 移動体検出装置及びプログラム - Google Patents

移動体検出装置及びプログラム Download PDF

Info

Publication number
JP5434861B2
JP5434861B2 JP2010209878A JP2010209878A JP5434861B2 JP 5434861 B2 JP5434861 B2 JP 5434861B2 JP 2010209878 A JP2010209878 A JP 2010209878A JP 2010209878 A JP2010209878 A JP 2010209878A JP 5434861 B2 JP5434861 B2 JP 5434861B2
Authority
JP
Japan
Prior art keywords
moving object
template data
captured image
spatial distribution
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010209878A
Other languages
English (en)
Other versions
JP2012064153A (ja
Inventor
美樹男 笹木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2010209878A priority Critical patent/JP5434861B2/ja
Publication of JP2012064153A publication Critical patent/JP2012064153A/ja
Application granted granted Critical
Publication of JP5434861B2 publication Critical patent/JP5434861B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、移動体を検出するための装置及びプログラムに関する。
従来、移動体検出装置としては、カメラの撮影画像に映る歩行者を検出する装置であって、撮影画像のサンプルから動きベクトルを抽出し、動きベクトルに対してパラメトリック固有空間法を適用し固有空間上に投影して得られる参照曲線のデータを予め生成する一方、歩行者検出対象の撮影画像から動きベクトルを抽出し、動きベクトルに対してパラメトリック固有空間法を適用して固有空間上に投影される投影点の情報を得て、この投影点と参照曲線との比較により撮影画像に映る歩行者を検出するものが知られている(特許文献1参照)。
また、撮影画像から特徴点の動きベクトルを算出し、各特徴点の動きベクトルから自車両に接近してくる複数の特徴点のまとまりを接近移動物体として検出し、モニタ上で、撮影画像における接近移動物体の画像領域を強調表示する装置(特許文献2参照)や、各特徴点の動きベクトルから移動ベクトルが略等しい複数の特徴点のまとまりを移動体として検出する装置(特許文献3参照)が知られている。
この他、撮影画像から特徴点を抽出する方法としては、Harris法やKLT(Kanade Lucas Tomasi Tracker)法により特徴点を抽出する方法が知られている。KLT法によれば抽出した特徴点を追跡して特徴点の動きベクトル(オプティカルフロー)を算出することも可能である。
更に、動きベクトルの算出方法としては、勾配法やブロックマッチング法が知られ、これらの技術を利用したものとしては、勾配法に基づき、撮影画像の遠距離に対応する領域の画素の動きベクトルを算出し、ブロックマッチング法に基づき、撮影画像の近距離に対応する領域の画素の動きベクトルを算出するものが知られている(特許文献4参照)。
また、複数の手法を用いて移動体を検出する方法としては、車両が停止していない場合には、ブロックマッチング法により算出した動きベクトルに基づき移動体を検出し、車両が停止している場合には、フレーム間の差分画像に基づき、移動体を検出する方法が知られている(特許文献5参照)。この他、移動体が画面上から消える消失点を検出して、その周囲を解析し移動体を検出するものが知られている(特許文献6参照)。
この他、カメラが搭載されたロボットにおけるカメラの位置及び姿勢を、撮影画像から抽出された特徴点群とモデルから特定される特徴点群とを比較することにより判定する装置であって、撮影画像から抽出された特徴点群とモデルから特定される特徴点群との二乗誤差を算出し、二乗誤差に基づき、撮影画像から抽出された特徴点群とモデルから特定される特徴点群との適合度を判定し、適合する場合にはモデルに対応する位置及び姿勢を、現在のカメラ位置及び姿勢として判定するものが知られている(特許文献7参照)。
また、画素ブロック単位で動き情報を取得して移動体を検出する装置であって、動きベクトルがあまり発生しない離れた位置にある歩行者等の移動体を検出するために、動き補償差分画像の二次元DCT係数と動きベクトルとを併用して画像評価する装置が知られている(特許文献8参照)。
特開2003−288600号公報 特開2005−123968号公報 特開2005−132170号公報 特開2007−172540号公報 特開2009−146153号公報 特開2009−143385号公報 特開平6−262568号公報 特開2009−271758号公報
ところで、本発明者は、車載カメラの撮影画像から、撮影画像に現れる自動車や自転車等の移動体を迅速に検出できるようにすることを考えている。しかしながら、従来技術では、背景雑音による影響で、その検出能力向上に限界があった。
例えば、移動体検出対象の撮影画像から得られた特徴点群と、モデルやサンプルから得られる特徴点群とを比較して移動体を検出する場合について述べると、背景雑音がなくともモデルやサンプルから得られる特徴点群と移動体検出対象の撮影画像から得られる特徴点群とは正確に一致する類のものではないことから、背景雑音が含まれる場合に、モデルやサンプルから得られる特徴点群と移動体検出対象の撮影画像から得られた特徴点群との類似度を適切に評価するのは容易ではなく、従来技術では、特に撮影画像に現れ始めの移動体の検出を精度よく行うのが難しいといった問題があった。
一方、動きベクトルに基づいて移動体を検出する際には、撮影画像に現れ始めの移動体のような撮影画像内において動きの少ない移動体についての動きベクトルを精度よく抽出することが難しく、移動体が撮影画像に表れてから移動体を検出できるようになるまでに時間を要するといった問題があった。
本発明は、こうした問題に鑑みなされたものであり、カメラによる撮影画像から特徴点を抽出して移動体を検出する装置であって、高い検出能力を有する移動体検出装置、及び、当該移動体検出装置としての機能をコンピュータに実現させるためのプログラムを提供することを目的とする。
上記目的を達成するためになされた本発明の移動体検出装置は、カメラの撮影画像に映る移動体を検出する移動体検出装置であって、撮影画像において移動体が映る領域の位置情報と、この領域に移動体が存在する状態での撮影画像の当該領域における特徴点の空間分布が数値化されてなる空間分布特徴量と、が関連付けられたテンプレートデータを、記憶手段に記憶保持するものである。
この移動体検出装置は、更に、特徴点抽出手段と、領域設定手段と、空間分布特徴量算出手段と、確度判定手段と、移動体検出手段と、を備える。この移動体検出装置において、特徴点抽出手段は、カメラから取得した移動体検出対象の撮影画像から特徴点を抽出する。また、領域設定手段は、テンプレートデータが備える位置情報に基づき、位置情報が示す領域に対応した移動体検出対象の撮影画像内の領域を、評価領域に設定し、空間分布特徴量算出手段は、特徴点抽出手段により抽出された特徴点に基づき、移動体検出対象の撮影画像における領域設定手段により設定された評価領域の特徴点の空間分布を数値化した空間分布特徴量を算出する。
一方、確度判定手段は、移動体検出対象の撮影画像における上記評価領域にテンプレートデータに対応する移動体が存在する確度として、空間分布特徴量算出手段により算出された空間分布特徴量と、テンプレートデータが示す空間分布特徴量との類似度を算出し、移動体検出手段は、確度判定手段により算出された確度に基づき、移動体検出対象の撮影画像におけるテンプレートデータに対応する移動体の存在有無を判定する。これによって、移動体検出対象の撮影画像に映る移動体を検出する。尚、この移動体検出装置は、例えば、車載カメラの撮影画像に基づき移動体を検出する構成にすることができる。
本発明によれば、撮影画像から得られる特徴点とテンプレートデータとの比較により移動体を検出する際に、特徴点の空間分布を数値化した空間分布特徴量を用いる。従って、この発明によれば、背景雑音の影響を抑えて、撮影画像から得られる特徴点とテンプレートデータとの一致度を適切に評価することができ、移動体検出装置による移動体の検出能力を高めることができる。
即ち、テンプレートデータとして移動体の特徴点の各位置座標を表すデータを保持し、このテンプレートデータが示す各特徴点の位置座標と、移動体検出対象の撮影画像から得られた各特徴点の位置座標とを比較して移動体を検出する従来手法では、仮に背景雑音がない場合でも各特徴点の位置座標がテンプレートデータと移動体検出対象の撮影画像との間で正確に一致するわけではないので、背景雑音の影響を排除し辛く、撮影画像から得られる特徴点とテンプレートデータとの一致度を適切に評価することが難しかった。
一方、本発明によれば、特徴点の空間分布を、統計量等を用いて数値化するため、背景雑音の影響を抑えて、特徴点の分布をテンプレートデータとの間で評価して、高精度に移動体を検出することができる。更に言えば、特徴点の空間分布に基づき移動体を検出するため、遠方の移動体のような撮影画像内において動きの少ない移動体についても、高精度に検出することができる。
従って、本発明によれば、移動体検出装置を、撮影画像に現れる移動体を迅速に検出可能な高い検出能力を有した構成とすることができる。尚、このような特徴を生かして、本発明の移動体検出装置は、例えば、テンプレートデータとして、撮影画像内において移動体が出現する領域についての空間分布特徴量を記述したテンプレートデータを記憶手段に記憶保持し、撮影画像内において側方や正面遠方から出現する移動体を検出するように構成することができる。
また、上記空間分布特徴量は、空間分布を数値表現する領域を区画化して得られる各区画に存在する特徴点の数の夫々を要素とするベクトル量とすることができる(請求項2)。例えば、空間分布を数値表現する領域を十字に四分割することによって、右上、右下、左上、左下の区画に分割し、各区画の特徴点数の夫々を要素とする四次元ベクトルを構成することによって、空間分布を表現することが可能である。
また、移動体検出装置には、移動体検出対象の撮影画像から動きのある特徴点を抽出する第二特徴点抽出手段を設けて、空間分布特徴量算出手段は、特徴点抽出手段により抽出された特徴点及び第二特徴点抽出手段により抽出された動きのある特徴点に基づき、評価領域の空間分布特徴量として、移動体検出対象の撮影画像における評価領域での特徴点及び動きのある特徴点の空間分布を数値化した空間分布特徴量を算出する構成にされると一層好ましい。この場合、記憶手段には、空間分布特徴量として、位置情報が示す領域に移動体が存在する状態での撮影画像の当該領域における特徴点の空間分布及び動きのある特徴点の空間分布が数値化されてなる空間分布特徴量を示すテンプレートデータを格納することができる(請求項3)。
このように構成された移動体検出装置によれば、テンプレートデータと撮影画像とを比較して移動体を検出する際に、動きのある特徴点の空間分布の情報を用いるので、移動体を一層高精度に検出することができる。この場合、空間分布特徴量は、空間分布を数値表現する領域を区画化して得られる各区画に存在する特徴点の数及び動きのある特徴点の数の夫々を要素とするベクトル量とすることができる(請求項4)。
また、空間分布特徴量としてベクトル量を用いる場合、確度判定手段は、空間分布特徴量算出手段により算出された空間分布特徴量とテンプレートデータが示す空間分布特徴量との類似度を、二乗距離及びコサイン距離の少なくとも一方を指標にして算出する構成にすることができる(請求項5)。
この他、移動体検出装置は、離散コサイン変換(DCT)により得られる二次元DCT係数を用いて、撮影画像の評価領域に移動体が存在する確度を算出する構成にされてもよい。即ち、移動体検出装置は、移動体検出対象の撮影画像についてのフレーム差分画像を、予め定められたブロック単位で離散コサイン変換(DCT)することで、フレーム差分画像の各ブロックにおける二次元DCT係数を算出するDCT係数算出手段と、DCT係数算出手段により算出された評価領域に対応する各ブロックの二次元DCT係数に基づき、評価領域に移動体が存在する確度を算出する補助判定手段と、を備えた構成にすることができる。この場合、移動体検出手段は、確度判定手段により算出された確度及び補助判定手段により算出された確度に基づき、テンプレートデータに対応する移動体の存在有無を判定して、撮影画像に映る移動体を検出する構成にすることができる(請求項6)。
撮影画像に動きのある移動体が映っている場合には、例えば、フレーム差分画像に移動体の輪郭が現れるが、この輪郭がシャープに現れていれば、DCT係数の交流成分が高い値を採る。従って、空間分布特徴量に加えて、このような二次元DCT係数を用いて、移動体を検出すれば、移動体を一層高精度に検出することができる。
具体的に、補助判定手段は、評価領域に対応するブロック群について、ブロック毎に、当該ブロックの二次元DCT係数における交流成分の和を交流成分電力として算出し、ブロック毎の交流成分電力に基づき、評価領域に移動体が存在する確度を算出する構成にすることができる(請求項7)。更に言えば、補助判定手段は、評価領域に移動体が存在する確度として、評価領域に対応するブロック群の全体に占める交流成分電力が閾値を超えるブロックの割合を算出する構成にすることができる(請求項8)。
この他、移動体検出装置は、主成分分析(PCA)の手法を用いて、撮影画像に移動体が存在する確度を算出する構成にすることができる。移動体が映っている状態での時系列ベクトルのサンプルの主成分ベクトルを予め求めておき、移動体検出対象の撮影画像から得られた時系列ベクトルと、主成分ベクトルとにより主成分得点を算出して、撮影画像に移動体が存在する確度を算出するといった具合である。
例えば、補助判定手段は、評価領域に対応するブロック群について、ブロック毎に、当該ブロックの過去所定期間の二次元DCT係数を時系列に配列してなる時系列ベクトルの主成分得点を、時系列ベクトルのサンプルから求められた主成分ベクトルに基づき算出し、算出したブロック毎の主成分得点に基づき、評価領域に移動体が存在する確度を算出する構成にすることができる。この場合には、移動体が映っている状態での時系列ベクトルのサンプルを主成分分析して求めた主成分ベクトルを格納した主成分ベクトル記憶手段を、移動体検出装置に設ける(請求項9)。このように移動体検出装置を構成する場合でも、高精度に移動体を検出することができる。
更に言えば、この場合の補助判定手段は、上記評価領域に移動体が存在する確度として、評価領域に対応するブロック群の全体に占める主成分得点が閾値を超えるブロックの割合を算出する構成にすることができる(請求項10)。
この他、主成分分析の手法を用いる場合には、時系列ベクトルを二次元DCT係数により構成する必要はない。即ち、撮像画像の特徴量に関する時系列ベクトルであれば、どのようなものであってもよい。一般化すると、上記補助判定手段は、「移動体検出対象の撮影画像に基づき、当該撮影画像の評価領域における過去所定期間の所定特徴量を時系列に配列してなる時系列ベクトルの主成分得点を、時系列ベクトルのサンプルから求められた主成分ベクトルに基づき算出し、算出した主成分得点に基づき、評価領域に移動体が存在する確度を算出する」構成にすることができる(請求項11)。
ところで、上記評価領域として、テンプレートデータが備える位置情報が示す領域に一致する領域のみを設定すると、仮に、その領域においてカメラの視界を遮るような物体がある場合に、テンプレートデータに対応する移動体を検出することができなくなってしまう。
そこで、領域設定手段は、テンプレートデータが備える位置情報に基づき、位置情報が示す領域に一致する移動体検出対象の撮影画像内の領域及びその周囲の領域の夫々を、評価領域に設定する構成にされるとよい。また、移動体検出手段は、単一のテンプレートデータに対して評価領域毎に算出された確度に基づき、これら評価領域の内、移動体が存在する可能性の最も高い領域を最適な評価領域として抽出し、テンプレートデータに対して評価領域毎に算出された確度の内、当該最適な評価領域に対して算出された確度に基づき、テンプレートデータに対応する移動体の存在有無を判定して、移動体検出対象の撮影画像に映る移動体を検出する構成にすることができる(請求項12)。
このように移動体検出装置を構成すれば、障害物に阻害されて移動体を検出することができなくなるのを抑えることができる。また、このように評価領域をテンプレートデータが有する位置情報が示す領域に一致する領域からずらす場合には、位置情報が示す領域と評価領域とのずれについても評価するために、空間分布特徴量に領域の位置情報を組み込むとよい。
即ち、確度判定手段は、評価領域にテンプレートデータに対応する移動体が存在する確度として、空間分布特徴量算出手段により算出された空間分布特徴量及びこの空間分布特徴量に対応する評価領域の位置パラメータを要素とするベクトル量と、テンプレートデータが示す空間分布特徴量及びテンプレートデータが備える位置情報が示す領域の位置パラメータを要素とするベクトル量との類似度を算出する構成にされるのがよい(請求項13)。尚、位置パラメータは、評価領域が矩形領域である場合、領域内の所定点の位置座標及び領域の縦幅及び横幅により構成されてもよいし、四つ角夫々の位置座標により構成されてもよい。
この他、移動体検出装置は、障害物にカメラの視界を遮断されて移動体を検出することができなくなるのを抑えるため、次のように構成されてもよい。即ち、領域設定手段は、テンプレートデータが備える位置情報に基づき、位置情報が示す領域に一致する移動体検出対象の撮影画像の領域を、評価領域に設定し、再設定の指示が入力された場合には、移動体検出対象の撮像画像における二次元DCT係数に基づき、評価領域の位置を調整して、評価領域を再設定する構成にされ、移動体検出手段は、位置情報が示す領域に一致する評価領域に対して補助判定手段が算出した確度が閾値未満である場合には、再設定の指示を入力し、再設定された評価領域に対して確度判定手段が算出した確度、又は、再設定された評価領域に対して確度判定手段及び補助判定手段の夫々が算出した確度に基づき、テンプレートデータに対応する移動体の存在有無を判定して、移動体検出対象の撮影画像に映る移動体を検出する構成にされてもよい(請求項14)。
この他、撮影画像内において左右対称の関係にある移動体が映る領域のテンプレートデータとしては、これらの領域に共通するテンプレートデータであって、位置情報及び空間分布特徴量として、左右対称の関係にある移動体が映る領域の一方についての位置情報及び空間分布特徴量を記述したデータを記憶手段に格納するとよい。このようにテンプレートデータを共通化すれば、記憶手段に対するデータ格納量を抑えることができる。尚、上記共通するテンプレートデータに基づいて、左右対称の関係にある移動体が映る領域の内、位置情報及び空間分布特徴量がテンプレートデータに記述されていない領域に対応する評価領域の確度を算出する際には、左右対称の関係に従って、テンプレートデータが示す位置情報及び空間分布特徴量を読み変えて、確度を算出すればよい(請求項15)。
また、記憶手段には、移動体の種類毎に、位置情報と、当該種類の移動体が位置情報に対応する領域に映る状態での当該領域における空間分布特徴量と、が関連付けられたテンプレートデータを格納することができる(請求項16)。このようにテンプレートデータを記憶手段に格納し、移動体検出対象の撮影画像に映る移動体を検出する際には、移動体の種類毎に、当該移動体の種類のテンプレートデータに基づき確度を算出して、当該テンプレートデータに対応する移動体の存在有無を判定すれば、形状の異なる複数種類の移動体の夫々を高精度に検出することができる。
また、移動体検出装置は、上述したように、自動車等の車両に搭載されて、車載カメラの撮影画像に基づき移動体を検出する構成にすることができ、この場合、記憶手段には、道路環境毎に、当該道路環境において移動体が映る領域夫々のテンプレートデータを格納することができる(請求項17)。このようにテンプレートデータを記憶手段に格納して、移動体検出対象の撮影画像に映る移動体を検出する際には、移動体検出対象の撮影画像に映る道路環境を特定し、当該特定した道路環境に対応するテンプレートデータ毎に、当該テンプレートデータに対応する確度を算出して、当該テンプレートデータに対応する移動体の存在有無を判定することで、テンプレートデータの一群の中から、道路環境に対応したテンプレートデータを選択的に用いて効率的に移動体を検出することができる。
具体的に、記憶手段には、道路環境毎のテンプレートデータとして、交差点の種類毎に、当該種類に対応する交差点がカメラにより撮影されている環境でのカメラの撮影画像において移動体が映る領域夫々についてのテンプレートデータを格納することができる(請求項18)。このようにテンプレートデータを記憶手段に格納して、移動体検出対象の撮影画像に映る移動体を検出する際には、移動体検出対象の撮影画像に映る交差点の種類を特定して、当該特定した交差点の種類に対応するテンプレートデータ毎に、当該テンプレートデータに対応する確度を算出し、当該テンプレートデータに対応する移動体の存在有無を判定することで、カメラに映る交差点の種類に対応したテンプレートデータを選択的に用いて効率的に移動体を検出することができる。
尚、交差点の種類の特定については、移動体検出装置に、現在位置の情報を取得する現在位置取得手段と、交差点の位置及び交差点の種類の情報が関連付けられた地図データを記憶する地図データ記憶装置(外部サーバ装置や自装置の記録媒体等)から地図データを取得する地図データ取得手段とを設けることで、実現可能である。
また、記憶手段には、移動体の三次元位置及び移動体の三次元姿勢に関する情報を、更に位置情報及び空間分布特徴量に関連付けたテンプレートデータを格納すると、移動体検出の際に、移動体の三次元位置及び姿勢を特定することができて便利である。例えば、検出した移動体の三次元位置(例えば交差点までの距離)や姿勢(例えば、右折中である等の姿勢)をユーザに報知すれば、当該移動体との衝突回避に役立てることができる。
尚、上述した移動体検出装置(請求項1〜請求項19)が備える記憶手段を除く各手段としての機能は、プログラムによりコンピュータに実現させることができる(請求項20)。また、当該プログラムは、記録媒体に記録されてユーザに提供されてもよい。
移動体検出装置1の構成を表すブロック図である。 解析ユニット50が実行する各処理をブロック化して示した概略図である。 撮影画像から抽出される特徴点の分布の一例を示す図である。 記憶装置40が記憶するテンプレートデータ群の構成(a)及びテンプレートデータの詳細構成(b)を表す図である。 解析ユニット50が実行するフレーム差分画像解析処理を表すフローチャートである。 解析ユニット50が実行する移動体検出処理を表すフローチャートである。 解析ユニット50が実行する類似度評価処理を表すフローチャートである。 障害物により視界が遮られているときの移動体の出現例を示した図(a)及び移動体検出対象領域Ωの調整方法に関する説明図(b)である。 左右共通のテンプレートデータの読み替えに関する説明図である。 移動体検出処理(変形例)を表すフローチャートである。 移動体検出対象領域Ωの調整方法(変形例)に関する説明図である。 変形例の解析ユニット50が実行するアクティビティ算出処理(a)及び総評値算出処理(b)を表すフローチャートである。 領域の分割方法(変形例)に関する説明図である。
以下に本発明の実施例について、図面と共に説明する。
図1は、本発明が適用された移動体検出装置1の構成を表すブロック図である。本実施例の移動体検出装置1は、自動車等の車両に搭載されて使用されるものであり、カメラ10と、位置検出器20と、表示装置30と、記憶装置40と、解析ユニット50と、を備える。カメラ10は、車両前方を広い範囲で撮影可能な広角カメラで構成され、フレームデータ(静止画像データ)の列により構成される動画データを、撮影画像を表すデータとして出力する。一方、位置検出器20は、GPS衛星からの衛星信号を受信するGPS受信機、車輪の回転から自車の走行距離を検出する距離センサ及び方位センサ等のセンサ類の複数により構成され、これらセンサ類から得られる信号に基づき、自車の位置及び進行方位を検出する。また、表示装置30は、車両の運転席近傍に取り付けられ、各種情報を車両運転者に提供するものであり、例えば、液晶ディスプレイで構成される。
また、記憶装置40は、カメラ10の撮影画像から移動体を検出するのに必要な各種データを記憶するものである。この記憶装置40は、国内の道路網における各交差点の位置及び属性情報が記述された道路地図データを有する。属性情報としては、例えば、交差点の種類を表す情報が記述される。この他、記憶装置40は、移動体が映っている状態での撮影画像の特徴点に関する情報が記述されたテンプレートデータの一群を記憶する(詳細後述)。
また、解析ユニット50は、各種演算処理を実行してカメラ10の撮影画像に映る移動体を検出するものである。この解析ユニット50は、例えば、専用回路にて構成される。この他、解析ユニット50は、CPU51、ROM53及びRAM55等を備え、ソフトウェアにより移動体の検出に必要な処理を実行する構成にされてもよい。即ち、解析ユニット50は、ROM53が記憶するプログラムに基づく演算処理をCPU51が実行することにより、移動体検出に係る機能を実現する構成にすることができる。
続いて、図2を用いて、解析ユニット50により実行される処理を概略的に説明する。図2は、解析ユニット50により実行される各処理をブロック化して概略的に示した図である。本実施例の移動体検出装置1において、解析ユニット50は、カメラ10から入力されるフレームデータが示す撮影画像の特徴点を抽出する特徴点抽出処理を、カメラ10からフレームデータが入力される度に実行する(特徴点抽出処理ブロックB1)。
特徴点の抽出方法については、様々なものが知られているが、例えば、KLT(Kanade Lucas Tomasi Tracker)法に採用されたHarrisオペレータを用いて特徴点を抽出することができる。この手法を用いると、撮影画像におけるエッジやコーナ部分において多くの特徴点が抽出される。図3には、撮影画像における特徴点の例を、白丸で示す。但し、特徴点の抽出に関しては、エッジやコーナ部分に特徴点が表れる手法であれば、KLT法に限らず様々な手法を採用することができる。
特徴点抽出後、解析ユニット50は、今回のフレームデータから抽出された特徴点と前回フレームデータから抽出された特徴点との比較により、これら特徴点についてのオプティカルフローを算出する(オプティカルフロー算出処理ブロックB2)。そして、算出したオプティカルフローに基づき、今回入力されたフレームデータから動きのある特徴点を抽出する(動きのある特徴点の抽出処理ブロックB3)。具体的には、オプティカルフローに基づき、動き量が閾値以上の特徴点を、動きのある特徴点として抽出すればよい。
その後、解析ユニット50は、移動体検出処理を実行し、今回抽出された特徴点及び動きのある特徴点の情報と、記憶装置40が記憶するテンプレートデータが示す移動体が存在する状態での特徴点及び動きのある特徴点の情報とを比較して、フレームデータが示す撮影画像に映る移動体を検出する(移動体検出処理ブロックB5)。
図4(a)に示すように、記憶装置40には、交差点の種類毎に、カメラ10が当該種類の交差点を撮影している場合に用いるべきテンプレートデータ群(以下「第一テンプレートデータ群」と表現する。)が記憶されている。更に、交差点の種類毎の第一テンプレートデータ群は、検出対象の移動体の三次元位置及び三次元姿勢に応じたテンプレートデータの一群を、移動体の種類毎に有する。以下、第一テンプレートデータ群を移動体の種類毎に分類して得られる、移動体の種類毎のテンプレートデータ群を「第二テンプレートデータ群」と表現する。即ち、交差点の種類及び移動体の種類毎に設けられる第二テンプレートデータ群は、該当種類の交差点を移動する該当種類の移動体の三次元位置及び三次元姿勢に応じた複数のテンプレートデータを有する。
そして、上記第二テンプレートデータ群を構成するテンプレートデータの夫々は、図4(b)に示すように、該当する種類の交差点が映るカメラ10の撮影画像において該当する種類の移動体が映る矩形領域の位置情報と、その位置情報が示す領域に移動体が映っている状態での当該領域における特徴点の空間分布を数値化した空間分布特徴量Vnに関する情報と、その位置情報が示す領域に移動体が映っている状態での当該領域における動きのある特徴点の空間分布を数値化した空間分布特徴量Vmに関する情報と、このテンプレートデータに対応する移動体の三次元位置として移動体が存在する地点から交差点中央までの距離Lを表す三次元位置情報と、当該移動体の三次元姿勢を表す三次元姿勢情報と、移動体の色情報と、が記述されたデータとして構成されている。
具体的に、移動体が映る矩形領域の位置情報は、撮影画像における該当領域の縦方向及び横方向の位置座標と、該当領域の縦幅(高さ)及び横幅と、を表す情報からなる。また、空間分布特徴量Vnに関する情報は、位置情報が示す矩形領域を十字に四分割して得られる右上、右下、左上及び左下の各区画における特徴点数が記述された情報として構成されている。同様に、空間分布特徴量Vmに関する情報は、位置情報が示す矩形領域を十字に四分割して得られる右上、右下、左上及び左下の各区画における動きのある特徴点の数が記述された情報として構成されている。
この空間分布特徴量Vn,Vmに関する情報については、予め移動体検出装置1の設計者が、移動体検出装置1の使用を想定してカメラ10から撮影画像のサンプルを取得し、上記位置情報が示す領域に、対応する種類の移動体が映っているときの特徴点及び動きのある特徴点の数をカウントして、テンプレートデータに記述する。サンプルを複数取得してテンプレートデータを作成する場合には、特徴点数についての平均やばらつきを評価して、テンプレートデータに記述する空間分布特徴量としてふさわしい値を導き出し、これをテンプレートデータに空間分布特徴量として記述してもよい。
また、テンプレートデータに記述される上記三次元位置情報は、当該テンプレートデータの生成に用いた撮影画像のサンプルに映る移動体が存在する地点から交差点中央までの三次元空間(現実空間)上の距離Lを表すものであり、三次元姿勢情報は、当該テンプレートデータの生成に用いた撮影画像のサンプルに映る移動体の三次元姿勢を表すものである。具体的に、三次元姿勢情報は、自車を基準にした移動体の三次元姿勢を表し、「右から接近」「右から右折」「直進」等の情報によって構成される。
尚、第一テンプレートデータ群については、「交差点の種類」毎として、五差路、四差路、三差路等の交差点の形状毎に、記憶装置40に設けることができるが、原点対称ではない三差路等の交差点では、進入路に応じて、カメラ10から見える道路環境(交差点形状)が異なる。即ち、原点対称でない形状の交差点については、進入路を基準に交差点の向きまで考慮すると、更に複数の形状に分類できる。従って、記憶装置40には、交差点への進入路を基準にした交差点の向きまでも考慮した「交差点の種類」毎に、第一テンプレートデータ群を設ける。
また、第二テンプレートデータ群については、「移動体の種類」毎として、例えば、トラックやセダン、バイク、自転車等の形状の異なる車両の種類毎に記憶装置40に設けることができる。そして「移動体」には「人物」も含ませることができる。即ち、記憶装置40には、成人、子供等の大きさの異なる人物の種類毎に、第二テンプレートデータ群を設けることができる。
この他、記憶装置40には、テンプレートデータとして、撮影画像内の移動体が出現する領域についての位置情報及び空間分布特徴量Vm,Vnを記述したテンプレートデータを格納することができる。即ち、交差点の中心から延びる各道路がカメラ10の撮影可能領域(撮影画像)から外れる領域周辺を、移動体が映る領域の位置情報として記述したテンプレートデータの一群を、記憶装置40に記憶させることができる。本実施例では、このようなテンプレートデータ群を記憶装置40に格納することにより、側方や前方遠く等から出現する移動体(図3及び図8(a)参照)を迅速に検出できるように、移動体検出装置1を構成する。
移動体検出処理の説明に戻ると、移動体検出処理では、位置検出器20から得られる自車の位置及び進行方位並びに道路地図データに基づき、カメラ10が撮影する交差点の種類を特定する。ここでは、交差点への進入路についても考慮した上述の「交差点の種類」を特定する。そして、特定した「交差点の種類」に対応した第一テンプレート群に属するテンプレートデータの夫々について、このテンプレートデータが示す空間分布特徴量Vn,Vmと、このテンプレートデータの位置情報が示す領域に対応する今回入力されたフレームデータの撮影画像領域の空間分布特徴量Vn,Vmと、を比較することにより、テンプレートデータに対応する移動体が存在する確度を評価し、移動体を検出する。
この際には、フレーム差分画像解析処理(フレーム差分画像解析処理B4)にて得られた前回フレームデータが示す撮影画像と今回入力されたフレームデータが示す撮影画像との差分画像(以下、「フレーム差分画像」と表現する。)の二次元DCT係数によっても、テンプレートデータの位置情報が示す領域に対応する今回入力されたフレームデータの撮影画像領域に移動体が存在する確度を評価し、空間分布特徴量Vn,Vmから得られた上記確度、及び、二次元DCT係数から得られた上記確度を総合的に評価し、移動体の存在有無を判定し、移動体を検出する。
続いて、上述したフレーム差分画像解析処理及び移動体検出処理の詳細を、図5及び図6を用いて説明する。図5は、フレームデータが入力される度に、解析ユニット50が実行するフレーム差分画像解析処理を表すフローチャートである。フレーム差分画像解析処理では、まず、前回入力されたフレームデータ及び今回入力されたフレームデータに基づき、これらのフレーム差分画像を表すフレーム差分画像データを生成する(S110)。その後、ブロック画素番号を表す変数kを、k=1に初期化する(S120)。更に、フレーム差分画像におけるk番目のブロック画素を処理対象ブロック画素に選択する(S130)。尚、ここでは、フレーム差分画像全体を縦横8画素単位で分割して得られる8×8画素のブロックを、ブロック画素の単位として、フレーム差分画像全体を構成するK個のブロック画素の内、k番目のブロック画素を処理対象ブロック画素に選択する。
そして、フレーム差分画像データにおける処理対象ブロック画素に対応する領域を離散コサイン変換(DCT)することにより、8×8個の配列からなる二次元DCT係数を算出する(S140)。以下では、二次元DCT係数の各要素の値を配列Cd[i,j]で表現し、二次元DCT係数の直流成分を第0行第0列の要素の値Cd[0,0]で表現する。i,jは、0から7までの値を採る。
また、処理対象ブロック画素の二次元DCT係数を算出すると、解析ユニット50は、この処理対象ブロック画素の二次元DCT係数に基づき、処理対象ブロック画素である第kブロック画素の交流成分電力Ap(k)を、次式に従って算出する(S150)。
即ち、第kブロック画素における二次元DCT係数の交流成分(絶対値)の和を、交流成分電力Ap(k)として算出する。
更に、交流成分電力Ap(k)を予め定められた閾値Th_Apと比較して二値化することにより、ACインデックスIDX1(k)を算出する(S160)。即ち、Ap(k)>Th_Apである場合には、IDX1(k)=1を算出し、Ap(k)≦Th_Apである場合には、IDX1(k)=0を算出する。
その後、解析ユニット50は、全ブロック画素についてACインデックスIDX1(k)の算出が完了したか否かを判断し(S170)、完了していなければ(S170でNo)、kを1加算して(S180)、次のブロック画素についてのACインデックスIDX1(k)を算出する(S130〜S160)。そして、全ブロック画素についてACインデックスIDX1(k)の算出が完了すると(S170でYes)、当該フレーム差分画像解析処理を終了する。
一方、解析ユニット50は、カメラ10からフレームデータが入力される度に、上述の移動体検出処理として図6に示す処理を実行する。具体的に、この処理では、フレームデータが入力される度に、当該入力されたフレームデータが示す撮影画像(以下、「解析対象フレーム」と表現する。)を解析して移動体を検出する。但し、本実施例の移動体検出装置1は、交差点への進入の際に、その周囲に位置する移動体(特に側方から到来する移動体)を検出することを目的としたものであるため、交差点から離れたエリアに自車が存在する場合、この移動体検出処理は休止される。自車位置と交差点との位置関係は、位置検出器20から得られる自車の位置及び進行方位並びに道路地図データに基づいて判断される。
さて、移動体検出処理を開始すると、解析ユニット50は、上述したように、位置検出器20から得られる自車の位置及び進行方位並びに道路地図データに基づいて、カメラ10が撮影する交差点の種類を特定する(S210)。その後、処理対象の移動体種類番号を表す変数Mを1に初期化し(S220)、処理対象のテンプレート番号を表す変数Nを1に初期化する(S230)。
この処理を終えると、解析ユニット50は、S210で特定した交差点の種類に対応する第一テンプレート群に属し、変数Mが示す番号に対応する移動体種類の第二テンプレート群の中から、変数Nが示すテンプレート番号に対応したテンプレートデータを読み出し、このテンプレートデータを処理対象のテンプレートデータに設定する(S240)。更に、処理対象テンプレートデータが示す位置情報、空間分布特徴量Vn,Vmに基づき、特徴点分布ベクトルVsを算出する(S250)。
Vs=(R,Vn,Vm)
ここで、Rは、位置情報が示す領域の縦位置p1、横位置p2、縦幅d1及び横幅d2を要素とするベクトル量である。
R=(p1,p2,d1,d1)
更に付言すると、空間分布特徴量Vnは、処理対象テンプレートデータが示す右上区画での特徴点数vn1、右下区画での特徴点数vn2、左上区画での特徴点数vn3、及び、左下区画での特徴点数vn4を要素とする四次元のベクトル量Vn=(vn1,vn2,vn3,vn4)であり、空間分布特徴量Vmは、処理対象テンプレートデータが示す右上区画での動きのある特徴点数vm1、右下区画での動きのある特徴点数vm2、左上区画での動きのある特徴点数vm3、及び、左下区画での動きのある特徴点数vm4を要素とする四次元のベクトル量Vm=(vm1,vm2,vm3,vm4)である。従って、特徴点分布ベクトルVsは、具体的に次の12次元ベクトルで表される。
Vs=(p1,p2,d1,d2,vn1,vn2,vn3,vn4,vm1,vm2,vm3,vm4)
また、S250で特徴点分布ベクトルVsを算出すると、解析ユニット50は、処理対象テンプレートデータの三次元位置情報が示す距離Lを、これから検出する移動体の交差点中央までの距離であると推定し(S260)、更に、処理対象テンプレートデータの位置情報が示す領域に一致する解析対象フレーム内の領域を、移動体検出対象領域Ωに設定する(S270)。以下では、処理対象テンプレートデータの位置情報が示す領域に一致する解析対象フレーム内の領域をテンプレート基準領域Ω0とも表現する。
そして、この移動体検出対象領域Ωにおける各区画の特徴点数及び動きのある特徴点数をカウントし、上記特徴点分布ベクトルVsと同様のベクトル量であって、移動体検出対象領域Ωについての特徴点分布ベクトルVrを算出する(S280)。
Vr=(R*,Vn*,Vm*
ここで、R*は、解析対象フレームにおける移動体検出対象領域Ωの縦位置、移動体検出対象領域Ωの横位置、移動体検出対象領域Ωの縦幅、及び、移動体検出対象領域Ωの横幅を要素とするベクトル量である。また、Vn*は、解析対象フレームにおける移動体検出対象領域Ωでの特徴点の空間分布特徴量であり、本実施例では移動体検出対象領域Ωの右上区画(図3参照)での特徴点数、右下区画での特徴点数、左上区画での特徴点数、及び、左下区画での特徴点数を要素とする四次元のベクトル量である。また、Vm*は、解析対象フレームにおける移動体検出対象領域Ωでの動きのある特徴点の空間分布特徴量であり、本実施例では移動体検出対象領域Ωの右上区画での動きのある特徴点数、右下区画での動きのある特徴点数、左上区画での動きのある特徴点数、及び、左下区画での動きのある特徴点数を要素とする四次元のベクトル量である。
S280にて移動体検出対象領域Ωについての特徴点分布ベクトルVrを算出すると、解析ユニット50は、S290に移行して図7に示す類似度評価処理を実行し、テンプレートデータから算出した特徴点分布ベクトルVsと、移動体検出対象領域Ωの特徴点分布ベクトルVrとの類似度Gを算出する。これによって、移動体検出対象領域Ωにテンプレートデータに対応する移動体が存在する確度を、特徴点及び動きのある特徴点の分布を指標に評価する。
類似度評価処理を開始すると、解析ユニット50は、まず、テンプレートデータから算出した特徴点分布ベクトルVsと、移動体検出対象領域Ωの特徴点分布ベクトルVrとの二乗距離E及びコサイン距離Fを算出する(S291,S293)。
そして、二乗距離E及びコサイン距離Fに基づいて、ベクトル間の類似度Gを次式に従って算出する(S295)。
尚、二乗距離E及びコサイン距離Fの両者を用いて、ベクトル間の類似度Gを算出するのは、次の理由からである。即ち、二乗距離E単体で、ベクトル間の類似度GをG=1/(1+E)で評価すると、特徴点数の変動が類似度の変動に大きく表れ、特徴点数は多いがテンプレートデータとわずかな差がある場合の類似度が過剰に低く評価されてしまう一方、コサイン距離F単体で、ベクトル間の類似度GをG=F評価すると、特徴点数の多さに関する情報が類似度に反映されないため、特徴点数についてテンプレートデータと乖離のある場合でも類似度が高く評価されてしまうケースがあるためである。本実施例では、このような理由から夫々の弱点を補完できるように、上式に従って、ベクトル間の類似度Gを算出する。尚、上式にて算出される類似度Gは、VrとVsが一致するとき、E=0となりF=1となるため、G=1となる。即ち、類似度Gは、最大値1を採り、類似度の評価が高い程大きな値を採る。
また、このようにして類似度Gを算出した後には、算出した類似度Gを、移動体検出対象領域Ω内の総特徴点数Np、推定した移動体から交差点までの距離L(S260参照)、及び、移動体検出対象領域Ωの面積Aに基づいて補正する。
詳述すると、移動体検出対象領域Ω内の画質が良い場合には、移動体検出対象領域Ω内の総特徴点数Npが多くなる傾向にあり、総特徴点数が多ければ、特徴点分布ベクトルの信頼度は高いといえる。そこで、ここでは、移動体検出対象領域Ω内の総特徴点数Npに基づく類似度Gの補正係数α1を、α1=Np/N0に決定する。尚、N0は、移動体検出対象領域Ω内の総特徴点数Npについての基準値であり、設計者によって予め定められる。具体的には、移動体の交差点までの距離Lが基準距離L0(例えば20m)であるときに得られる移動体検出対象領域Ω内の平均的な総特徴点数に定められる。
更に、移動体検出対象領域Ω内の特徴点数は、移動体が交差点に近づくほど増える傾向があるため、交差点までの距離Lに基づく類似度Gの補正係数α2を、α2=L0/Lに決定する。ここでのL0は、N0を定める際に用いた基準距離L0と同一である。
更に、移動体検出対象領域Ωについては、移動体の大きさなどにも依存する。そこで、移動体検出対象領域Ωの面積Aに基づく類似度Gの補正係数α3を、α3=A/A0に決定する。ここでのA0は、基準距離L0であるときの移動体検出対象領域Ωの面積についての基準値であり、設計者により予め定められる。
そして、これら補正係数α1,α2,α3の平均を、代表する補正係数αとして用いて類似度Gに作用させることにより、次式のように、類似度Gを補正する。ここでは、補正後の類似度をG*と表現する。
また、このようにして類似度Gを補正した後には、S300に移行し、解析対象フレームとそれより一つ前のフレームの差分画像(以下、「解析対象差分画像」と表現する。)から生成された上記ブロック画素毎のACインデックスIDX1(k)に基づき、解析対象差分画像のブロック画素群の内、移動体検出対象領域Ωに位置するブロック画素群のACインデックスIDX1(k)の平均(以下「DCTアクティビティ」と表現する。)を算出する。これによって、二次元DCT係数を指標に、移動体検出対象領域Ωに移動体が存在する確度を評価する。
ここで、解析対象差分画像のブロック画素群の内、移動体検出対象領域Ωに位置するブロック画素群が、K*個(k*=1,…,K*)のブロック画素群である環境では、DCTアクティビティY1は、次式で求められる。
尚、DCTアクティビティは、その計算から移動体検出対象領域Ωに対応するブロック画素群の全体に占める交流成分電力Apが閾値を超えるブロック画素の割合を表すものとも言える。
また、この処理を終えると、解析ユニット50は、移動体検出対象領域Ωに処理対象テンプレートデータに対応する移動体が存在する確度を、S290で算出した類似度G*及びS300で算出したDCTアクティビティY1に基づき、総合評価する(S310)。
具体的には、類似度G*及びDCTアクティビティY1の加重平均を、移動体検出対象領域Ωに移動体が存在する確度についての総評値Pとして算出する。
尚、ここでTは転置を表す。また、重み付け係数w1,w2については、設計者が任意に定めることができる。
また、この処理を終えると、解析ユニット50は、テンプレート基準領域Ω0周辺の局所探索が完了したか否かを判断する(S320)。ここで、「局所探索」について説明すると、本実施例の移動体検出装置1は、カメラ10の撮影画像内において出現する移動体を迅速に検出しようとするものであるが、移動体検出対象領域Ωとしてテンプレート基準領域Ω0を設定し、この移動体検出対象領域Ωに移動体が存在する確度を評価する程度では、図8(a)に示すように障害物により視界が阻害されて、移動体の出現位置が変化した場合に、十分に対応することができない。尚、図8(a)は、テンプレート基準領域Ω0に停止車両が存在することで、側方右側遠方から到来する自動車の撮影画像内での出現位置が変化してしまう例を示した図である。
そこで、本実施例では、図8(b)に示すように、テンプレート基準領域Ω0の周辺領域についても、この領域を移動体検出対象領域Ωに設定し、移動体検出対象領域Ωに移動体が存在する確度を評価する。即ち、ここで言う「局所探索」とは、テンプレート基準領域Ω0の周辺領域についての確度(総評値P)を算出する動作のことである。そして、「局所探索が完了したか否か」の判断とは、テンプレート基準領域Ω0を基準とした所定範囲の領域(即ち周辺領域)を、予め決められたルールで移動体検出対象領域Ωの縦位置、横位置、縦幅及び横幅を変更しながら、各変更後の移動体検出対象領域Ωについての総評値P(当該移動体検出対象領域Ωに移動体が存在する確度)を算出したか否かを判断することを言う。
ここで「局所探索」が完了していないと判断すると(S320でNo)、解析ユニット50は、テンプレート基準領域Ω0を基準に、予め決められたルールで移動体検出対象領域Ωの位置(縦位置及び横位置)並びに幅(縦幅及び横幅)を変更して(S330)、S280に移行し、変更後の移動体検出対象領域Ωの特徴点分布ベクトルVrを算出して(S280)、その後、この特徴点分布ベクトルVrとテンプレートデータの特徴点分布ベクトルVsとの類似度G*を算出し(S290)、更に、上記変更後の移動体検出対象領域ΩについてのDCTアクティビティY1を算出し(S300)、この類似度G*及びDCTアクティビティY1を用いて、変更後の移動体検出対象領域Ωに移動体が存在する確度についての総評値Pを算出する(S310)。
そして、予め定められた範囲で移動体検出対象領域Ωを変更し、これらの移動体検出対象領域Ωについての総評値Pを算出すると、「局所探索」が完了したと判断して(S320でYes)、S340に移行する。尚、移動体検出対象領域Ωの変更による「局所探索」は、例えば、テンプレート基準領域Ω0から、縦位置を前後に所定量刻みで規定位置まで変更する動作、横位置を左右に所定量刻みで規定位置まで変更する動作、縦幅を拡大する方向に所定量刻みで規定幅まで変更する動作、横幅を拡大する方向に所定量刻みで規定幅まで変更する動作の夫々を、全通り実行し、各移動体検出対象領域Ωについての総評値Pを算出することにより実現することができる。
また、S340に移行すると、解析ユニット50は、テンプレート基準領域Ω0での総評値P、及び、「局所探索」により得られたテンプレート基準領域Ω0から変更した各移動体検出対象領域Ωでの総評値Pに基づき、処理対象テンプレートデータに対応する移動体検出対象領域Ωとして最適な領域を選択し、この領域について算出した総評値Pを、処理対象テンプレートデータに対応する移動体が存在する確度についての総評値Pであると最終判定する。
具体的には、テンプレート基準領域Ω0での総評値P、及び、「局所探索」により得られたテンプレート基準領域Ω0から変更した各移動体検出対象領域Ωでの総評値Pの内、最も高い総評値Pに対応する領域を最適な移動体検出対象領域Ωとして選択し、当該最も高い総評値Pを処理対象テンプレートデータに対応する移動体が存在する確度についての総評値Pであると最終判定する。
そして、処理対象テンプレートデータについての確度判定結果として、移動体種類番号M及びテンプレート番号Nに関連付けて、最終判定した総評値Pと対応する移動体検出対象領域Ωの情報とを記憶する。
その後、解析ユニット50は、交差点種類がS210で特定した交差点種類に該当し移動体種類が変数Mに対応する移動体種類の第二テンプレートデータ群に属する全てのテンプレートデータについての総評値Pを算出・最終判定したか否かを判断し(S350)、算出・最終判定していない場合には、処理対象のテンプレート番号を表す変数Nを1加算して(S360)、上記第二テンプレートデータ群の内、今回処理対象としたテンプレートデータの次のテンプレートデータを読み出して、このテンプレートデータを新たな処理対象テンプレートデータに設定し(S240)、S250以降の処理を実行することで、当該テンプレートデータに対応する移動体が存在する確度についての総評値Pを算出・最終判定し、この確度判定結果を記憶する。
また、解析ユニット50は、このような動作を繰り返すことで、上記第二テンプレートデータ群に属する全てのテンプレートデータについての総評値Pを算出・最終判定したと判断すると(S350でYes)、S370に移行し、これまでの処理により得られた移動体種類番号Mの各テンプレートデータの確度判定結果について、これらの確度判定結果の内、総評値Pが上位Nm個の確度判定結果を残して、その他の確度判定結果を破棄する。
その後、解析ユニット50は、S210で特定した交差点種類の第一テンプレートデータ群に属する第二テンプレートデータ群の全てについての総評値Pを算出・最終判定したか否かを判断し(S380)、算出・最終判定していない場合には(S380でNo)、変数Mを1加算した値に更新して(S390)、次の移動体種類の第二テンプレートデータ群に属する各テンプレートデータに対応する移動体が存在する確度についての総評値Pを算出・最終判定する(S230〜S360)。そして、この移動体種類の各テンプレートデータに対応する移動体が存在する確度についての総評値Pを算出・最終判定した後には、S370に移行し、この移動体種類の確度判定結果群について、総評値Pが上位Nm個の確度判定結果を残して、その他の確度判定結果を破棄する。
そして、S210で特定した交差点種類の第一テンプレートデータ群に属する第二テンプレートデータ群の全てについての総評値Pを算出・最終判定したと判断すると(S380でYes)、S400に移行し、移動体検出対象の道路区分を選択する。ここで言う道路区分は、撮像画像に映る道路を区分化して得られる各区分のことを示しており、区分化の方法は、任意に定めることができる。例えば、区分化は、交差点中央からの距離によって行うことができる。更に、車線(移動体の移動方向)によって区分化されてもよい。但し、本実施例では、交差点中央からの距離によって(例えば5m間隔で)区分化すると共に、車線(移動体の移動方向)によって区分化するものとする。
S400で移動体検出対象の道路区分を選択すると、解析ユニット50は、S410に移行し、選択した道路区分に対応する各テンプレートデータの確度判定結果の一群から、総評値Pが上位Nr個の確度判定結果を抽出する。尚、S210〜S390の処理で記憶保持している確度判定結果の内、どの確度判定結果が選択した道路区分に対応するかは、対応するテンプレートデータが有する移動体の三次元位置情報(移動体の交差点までの距離L)及び三次元姿勢情報に基づいて特定する。
また、S410による上記総評値Pが上位Nr個の確度判定結果の抽出後には、抽出した確度判定結果の中から、更に総評値Pが予め定められた閾値以上のものを抽出し、抽出した総評値Pが閾値以上の確度判定結果を、移動体が存在することを示す確度判定結果として取り扱う(S420)。即ち、この動作により、解析ユニット50は、解析対象フレーム内の該当道路区分に映る移動体を検出する。
具体的には、上記確度判定結果の夫々について、当該確度判定結果が示す領域Ωに、確度判定結果が示す種類(移動体種類番号M)の移動体であって、確度判定結果が示すテンプレート番号Nのテンプレートデータが示す色の移動体が、当該テンプレートデータが示す三次元位置に、当該テンプレートデータが示す三次元姿勢で存在すると、判定することにより、上記各確度判定結果に対応する移動体を検出すると共に、その移動体の色、三次元位置、三次元姿勢を特定する。尚、検出された移動体の撮影画像上の検出領域Ω(換言すれば移動体検出対象領域Ω)、並びに、移動体の色、三次元位置及び三次元姿勢に関する情報は、描画処理ブロックB6(図2参照)に渡される。
また、S420での処理を終えると、解析ユニット50は、全道路区分についてS410,S420の処理を実行したか否かを判断し(S430)、全道路区分について実行してなければ(S430でNo)、S400に移行し、新たな道路区分を選択して、S410以降の処理を実行する。この動作により、解析ユニット50は、道路区分毎に、上位Nr個の確度判定結果であって総評値Pが閾値以上の確度判定結果を抽出し、この抽出した各確度判定結果に対応する移動体が存在すると判定して、この判定(検出)した移動体の撮影画像上の存在領域Ω、並びに、移動体の色、三次元位置及び三次元姿勢に関する情報を、描画処理ブロックB6(図2参照)に入力する。そして、全道路区分についてS410,S420の処理を実行すると、当該移動体検出処理を終了する。
尚、解析ユニット50は、このような移動体検出処理の実行結果を受けて、並列処理する描画処理にて、カメラ10から得られた撮影画像を表示装置30に表示すると共に、検出された移動体毎に、当該移動体の検出領域Ωを包囲するバウンディングボックス(境界線)を表示する。また、バウンディングボックス周辺には、当該移動体の色、三次元位置及び三次元姿勢に関する文字情報を表示する。
以上、本実施例の移動体検出装置1について説明したが、本実施例によれば、解析対象フレームから得られた特徴点の分布をテンプレートデータと比較するために、特徴点の分布を区画毎の特徴点数の情報からなるベクトルにより数値表現する。従って、特徴点毎の位置座標の比較により、解析対象フレームから得られた特徴点の分布とテンプレートデータとを比較する従来手法よりも、背景雑音の影響を受け辛く、本実施例によれば、解析フレーム左右から出現する遠方の移動体を、高精度に検出することができる。即ち、本実施例によれば、カメラ10の撮影画像内で出現する移動体を迅速に検出することができる。
特に、本実施例によれば、カメラ10として広角カメラを用いているので、交差点で事故の原因となりやすい側方から到来する移動体を、遠方に位置する時点からすばやく検出することができ、衝突回避に大変役立つ。また、広角カメラは、被写体が歪んだ形で現れるが、カメラから被写体までの距離によりその程度が異なるため、広角カメラから背景の間に移動体が位置している場合と、そうでない場合とで、異なる特徴点の分布が得られ易い。よって、本実施例によれば、広角カメラの特性を生かして高精度に、側方から到来する移動体を検出することができる。
また、本実施例によれば、特徴点の分布だけではなく、二次元DCT係数を用いて、移動体が移動体検出対象領域Ωに存在する確度を総合評価するので、特徴点の分布のみで確度を評価する場合よりも、高精度に移動体を検出することができる。
即ち、撮影画像に動きのある移動体が映っている場合には、フレーム差分画像に移動体の輪郭が現れるが、この輪郭がシャープに現れていれば、DCT係数の交流成分が高い値を採る。従って、このような二次元DCT係数を用いて、移動体を検出すれば、移動体を高精度に検出することができる。
尚、上記実施例に対しては、次のような変形例が考えられる。
[変形例1]
左右から移動体が到来する種類の交差点においては、カメラ10の撮影画像を通じて交差点での移動体の運動を見たときに、左側から到来する移動体と右側から到来する移動体とが、少々の差はあるものの略左右対称な運動(交差点への進入動作)をする。従って、左右対称に撮影画像に映る移動体のテンプレートデータについては、共通するテンプレートデータを記憶装置40に格納するようにしてもよい。
即ち、左から出現する移動体が映る領域の位置情報、空間分布特徴量Vn,Vmを記述したテンプレートデータ、及び、右から出現する移動体が映る領域の位置情報及び空間分布特徴量Vn,Vmを記述したテンプレートデータの夫々を、記憶装置40に格納するのではなく、左右共通のテンプレートデータとして、例えば、右から出現する移動体が映る領域の位置情報、空間分布特徴量Vn,Vmを記述したテンプレートデータのみを記憶装置40に格納する。テンプレートデータには、他に、移動体の三次元位置情報及び姿勢情報及び色情報を記述することになるが、これらの情報についても右から表れる移動体についての情報を記述する。更に、テンプレートデータには、左右共通のデータであることを示す情報を記述する。
そして、左右共通のテンプレートデータが処理対象テンプレートデータに設定された場合には、S250〜S340の処理を二回実行する。一回目は、処理対象テンプレートデータに記述された内容を、そのまま解釈して、上述した通りにS250〜S340の処理を実行する。二回目は、処理対象テンプレートデータに記述された内容を、左右対称の関係に従って読み変えて、S250〜S340の処理を実行するといった具合である。
即ち、図9(a)上段に示すテンプレートデータが処理対象テンプレートデータである場合であって、撮影画像の横幅がWである場合には、図9(a)下段に示すようにテンプレートデータが示す横位置を「W−15.98」に読み替え、右上区画及び右下区画の特徴点数(及び動きのある特徴点数)を夫々、左上区画及び左下区画の特徴点数(及び動きのある特徴点数)に読み替え、左上区画及び左下区画の特徴点数(及び動きのある特徴点数)を夫々、右上区画及び右下区画の特徴点数(及び動きのある特徴点数)に読み替え、特徴点分布ベクトルVsを算出する(S250)。尚、読み替えについて触れなかった要素については、読み替えずに解釈して上記特徴点分布ベクトルVsを生成する。また、ここでは、話を簡単にするため、縦位置及び横位置が、領域の中心地点での位置を示しているものとする。図9(b)には、読み替えによる変化する領域位置の概念図を示す。
この他、テンプレートデータが示す横位置を「W−15.98」に読み替えて、テンプレート基準領域Ω0を解釈し、これを移動体検出対象領域Ωに設定して(S270)、特徴点分布ベクトルVrを算出する(S280)。
そして、これら特徴点分布ベクトルVs,Vrを用いて類似度G*を算出する一方、DCTアクティビティY1を算出し(S300)、これらに基づいて総評値Pを算出する(S310)。更に、後続の処理を実行して移動体を検出し、検出した移動体についてのバウンディングボックスを描画する。
尚、テンプレートデータが有する移動体姿勢情報については、次のように読み替える。即ち、「右から接近」であれば「左から接近」と読み替え、「右から右折」であれば「左から左折」と読み替える。このような移動体姿勢情報の読み替えについては、予め読替表を用意しておき、この読替表に従って、移動体姿勢情報を読み替えるように、移動体検出装置1を構成すればよい。
以上、変形例1について説明したが、変形例1によれば、記憶装置40に格納すべき、移動体検出に必要なテンプレートデータ量を抑えることができるといった利点がある。
[変形例2]
続いて、変形例2について説明する。変形例2は、障害物によるカメラ10の視界の遮りに対応するために移動体検出対象領域Ωを調整する機能を、上述の実施例とは別の形態で実現するものである。具体的に、以下に説明する変形例2では、図6に示す移動体検出処理に代えて、図10に示す移動体検出処理を実行する。尚、図10に示す移動体検出処理の各ステップにおいて、図6に示す移動体検出処理と同内容のステップに対しては、図6に示す移動体検出処理の各ステップと同一のステップ番号を割り当て、その詳細な説明を適宜省略する。
図10に示す移動体検出処理を開始すると、解析ユニット50は、S210からS270までの処理を実行する。そして、移動体検出対象領域Ωとしてテンプレート基準領域Ω0を設定した後には(S270の処理後には)、その移動体検出対象領域Ωの特徴点分布ベクトルVrを算出し(S280)、処理対象テンプレートデータの特徴点分布ベクトルVsと移動体検出対象領域Ωの特徴点分布ベクトルVrとの類似度G*を算出する(S290)。また、移動体検出対象領域ΩのDCTアクティビティY1を算出する(S300)。
その後、解析ユニット50は、DCTアクティビティY1が予め定められた閾値Th_Y1未満であるか否かを判断する(S510)。ここで、DCTアクティビティY1が閾値Th_Y1未満であるか否かを判断するのは、DCTアクティビティY1が低く現在の移動体検出対象領域Ω(=Ω0)に移動体が存在する可能性が低い場合には、テンプレート基準領域Ω0の領域に、カメラ10の視界を遮り移動体を見えなくするような障害物がある可能性を考慮して、移動体検出対象領域Ωを、テンプレート基準領域Ω0から変更するためである。
即ち、DCTアクティビティY1が閾値Th_Y1未満であると判断すると(S510でYes)、解析ユニット50は、移動体検出対象領域Ωを、テンプレート基準領域Ω0の周囲領域に変更する(S520)。具体的には、解析対象フレームとそれより一つ前のフレームの差分画像から生成されたブロック画素毎のACインデックスIDX1(k)に基づき、解析対象フレームに分布するACインデックス「1」のブロック画素に対応する領域を特定し、テンプレート基準領域Ω0を基準とする所定範囲内で、ACインデックス「1」のブロック画素が最大限収まる領域を、図11に示すように、新たな移動体検出対象領域Ωに設定する。但し、ここでは、移動体検出対象領域Ωとテンプレート基準領域Ω0との縦横比を変更しない、若しくは、限られた範囲でしか縦横比を変更しないものとする。また、新たに設定する移動体検出対象領域Ωとテンプレート基準領域Ω0とのサイズ差についても制限を設ける。
また、他の態様として、解析対象フレームに分布するACインデックス「1」のブロック画素に対応する領域を特定すると共に、隣接するACインデックス「1」のブロック画素間の距離に基づき、かたまりとなっている(集中して位置する)ACインデックス「1」のブロック画素の集合をグループ化し、テンプレート基準領域Ω0を基準に所定範囲内で、ACインデックス「1」のブロック画素が最も多く集まるグループが位置する領域を、新たな移動体検出対象領域Ωに設定する。これによって、DCTアクティビティY1の高い領域を、新たな移動体検出対象領域Ωに設定する。
その後、解析ユニット50は、解析対象フレーム内の新たに設定した移動体検出対象領域Ω内の各区画の特徴点数をカウントして、当該移動体検出対象領域Ωの特徴点分布ベクトルVrを算出し(S530)、この特徴点分布ベクトルVrと処理対象テンプレートデータの特徴点分布ベクトルVsとの類似度G*を算出し(S540)、更に、この移動体検出対象領域ΩのDCTアクティビティY1を算出する(S550)。
また、解析ユニット50は、移動体検出対象領域Ωに処理対象テンプレートデータに対応する移動体が存在する確度を、S540で算出した類似度G*及びS550で算出したDCTアクティビティY1に基づき、総合評価する(S560)。具体的には、類似度G*及びDCTアクティビティY1の加重平均を、移動体検出対象領域Ωに移動体が存在する確度についての総評値Pとして算出する。その後、S350以降の処理を、上述した実施例と同様に実行する。
これに対し、移動体検出対象領域Ωがテンプレート基準領域Ω0であるときに、DCTアクティビティY1が閾値Th_Y1以上となった場合には(S510でNo)、S520〜S550の処理を実行せずに、S560に移行し、移動体検出対象領域Ωに処理対象テンプレートデータに対応する移動体が存在する確度の総評値Pを、S290で算出した類似度G*及びS300で算出したDCTアクティビティY1に基づき算出する(S560)。その後、S350以降の処理を、上述した実施例と同様に実行する。
以上のような手法によって、移動体検出対象領域Ωを変更しても、障害物による影響を抑え、移動体検出対象領域Ωを適切に設定することができ、障害物に阻害されて移動体が検出できなくなるのを抑えることができる。尚、本例においては、総評値Pを算出せず、類似度G*を総評値Pの代わりに用いて、移動体を検出するようにしてもよい。
[変形例3]
続いて、変形例3について説明する。変形例3は、更に主成分分析(PCA)の手法を用いて撮影画像に移動体が存在する確度を算出するものであり、上記実施例のS300(図6参照)の処理に代えて、図12(a)に示すアクティビティ算出処理を実行し、上記実施例のS310の処理に代えて、図12(b)に示す総評値算出処理を実行する点に特徴がある。
本例の解析ユニット50は、S300に代えて、図12(a)に示すアクティビティ算出処理を開始すると、フレーム差分画像解析処理によりブロック画素毎の二次元DCT係数が得られた「解析対象フレームとそれより一つ前のフレームの差分画像(現時点の最新フレーム差分画像)」から移動体検出対象領域Ωに対応するブロック画素の一つを処理対象ブロック画素として選択し(S610)、現時点t=t0のフレーム差分画像から得られた処理対象ブロック画素の二次元DCT係数Cd[t=t0]、及び、現時点より過去所定期間の各時刻t=t0−δt,t0−2・δt,t0−3・δt,…のフレーム差分画像から得られた当該処理対象ブロック画素の二次元DCT係数Cd[t=t0−δt],Cd[t=t0−2・δt],Cd[t=t0−3・δt],…に基づいて、当該処理対象ブロック画素におけるこれら二次元DCT係数Cd[t=t0],Cd[t=t0−δt],Cd[t=t0−2・δt],Cd[t=t0−3・δt],…から構成される時系列ベクトルXを生成する(S620)。
尚、二次元DCT係数は本来8行8列の配列であるが、ここでは、各二次元DCT係数を64次元の列ベクトルに置き換えて、これらの列ベクトルを、時系列に合わせて列方向に配列することにより、DCT係数についての時系列ベクトルXを生成する。例えば、現時点も含みN個の時点の二次元DCT係数Cd[t=t0],Cd[t=t0−δt],Cd[t=t0−2・δt],Cd[t=t0−3・δt],…,Cd[t=t0−(N−1)・δt]の各列ベクトルを配列して時系列ベクトルXを生成すると、時系列ベクトルXは、(64×N)行1列の列ベクトルとして構成される。
また、この処理を終えると、解析ユニット50は、時系列ベクトルXを、記憶装置40が記憶する第1から第H(例えばH=3)主成分ベクトルQ1,…,QHに作用させ、主成分毎の主成分得点Zを算出すると共に、その総和Zsを算出する。ここで、第h主成分の主成分得点をZhで表現すると、主成分得点Zh及びその総和Zsは、次式で算出される(S630)。
尚、記憶装置40が記憶する主成分ベクトルQ1〜QHは、ブロック画素に移動体が映っている状態で得られる時系列ベクトルXのサンプルを収集し、これらのサンプルを主成分分析して得られた主成分ベクトルであり、第h主成分ベクトルQhは、時系列ベクトルXのNx(>>H)個のサンプルから得られた共分散行列の固有値・固有ベクトルを算出して得られる固有ベクトルであって、固有値の大きい順に数えてh番目の固有ベクトルに対応する。このことについては主成分分析の基本的な事柄なのでこれ以上の説明を省略する。
S630での処理を終えると、解析ユニット50は、総和Zsを、予め定められた閾値Th_Zsと比較して二値化することにより、PCAインデックスIDX2を算出する。即ち、Zs>Th_Zsである場合には、IDX2=1を算出し、Zs≦Th_Zsである場合には、IDX2=0を算出する(S640)。
その後、解析ユニット50は、移動体検出対象領域Ωに対応する全ブロック画素についてのPCAインデックスIDX2の算出が完了したか否かを判断し(S650)、完了していない場合には(S650でNo)、S610に移行して、移動体検出対象領域Ωに対応するブロック画素であって、PCAインデックスIDX2の算出が未完了のブロック画素を新たな処理対象ブロック画素に選択し(S610)、選択した処理対象ブロック画素に対応するPCAインデックスIDX2を算出する(S620〜S640)。そして、移動体検出対象領域Ωに対応する全ブロック画素についてのPCAインデックスIDX2の算出が完了すると、S660に移行する。
S660に移行すると、解析ユニット50は、移動体検出対象領域Ωに対応する各ブロック画素のPCAインデックスIDX2の平均(以下「PCAアクティビティ」と表現する。)を算出する。これによって、二次元DCT係数の時系列変化を指標に、移動体検出対象領域Ωに移動体が存在する確度を評価する。
ここで、移動体検出対象領域Ωに位置するブロック群がK*個(k*=1,…,K*)のブロック画素群である環境では、PCAアクティビティY2は、次式で求められる。
但し、IDX2(k*)は、移動体検出対象領域Ωに位置するブロック群の内、第k*番目のブロック画素のPCAインデックスIDX2を表す。尚、PCAアクティビティは、その計算から移動体検出対象領域Ωに対応するブロック画素群の全体に占める主成分得点の総和Zsが閾値を超えるブロック画素の割合を表すものとも言える。
また、この処理を終えると、解析ユニット50は、上述の実施例と同様、移動体検出対象領域Ωに位置するブロック画素群のACインデックスINX1(k)の平均を算出することにより、DCTアクティビティY1を算出する(S670)。その後、当該アクティビティ算出処理を終了する。このようにして、アクティビティ算出処理では、DCTアクティビティY1だけでなく、PCAアクティビティY2を算出する。
また、アクティビティ算出処理を終えると、解析ユニット50は、図12(b)に示す総評値算出処理を実行することにより、移動体検出対象領域Ωに処理対象テンプレートデータに対応する移動体が存在する確度を、類似度G*及びDCTアクティビティY1及びPCAアクティビティY2に基づき、総合評価する(S700)。具体的には、類似度G*及びDCTアクティビティY1及びPCAアクティビティY2の加重平均を、移動体検出対象領域Ωに移動体が存在する確度についての総評値Pとして算出する。
尚、ここでTは転置を表す。また、重み付け係数w1,w2,w3については、設計者が任意に定めることができる。
本例ではこのようにして、PCAアクティビティY2を用いて総評値Pを算出する。そして、S300,S310以外の処理については、上記実施例と同様の処理を実行する。本例によれば、PCAアクティビティY2を用いて総評値Pを算出するので、一層高精度に移動体を検出することができて、左右側方から出現する移動体の迅速な検出に役立つ。
尚、変形例3では、二次元DCT係数の時系列ベクトルについて主成分分析し、この主成分分析により得られた主成分ベクトルと、移動体検出対象領域Ωの時系列ベクトルとを比較して、PCAアクティビティY2を算出するようにしたが、時系列ベクトルは、必ずしも、上記説明した二次元DCT係数の時系列ベクトルとする必要はない。例えば、特徴点分布ベクトルの時系列ベクトルについて主成分分析して、移動体が映っている状態での時系列ベクトルの主成分ベクトルを算出し、移動体検出対象領域Ωの時系列ベクトルと主成分ベクトルとを比較して、上述した原理でPCAアクティビティY2を算出するようにしてもよい。要するに、移動体が映ると特徴的な値が得られる画像特徴量についての時系列ベクトルを構成して、これを主成分分析し、PCAアクティビティY2を算出すればよいのである。
この他、本例では、総評値Pとして、類似度G*及びDCTアクティビティY1及びPCAアクティビティY2の加重平均を算出するようにしたが、総評値Pとしては、DCTアクティビティY1を用いずに、類似度G*及びPCAアクティビティY2の加重平均を算出するようにしてもよい。
[変形例4]
続いて、変形例4について説明する。変形例4は、図13に示すように、空間分布特徴量Vn,Vmを表現する対象の領域を4分割ではなく5分割して、空間分布特徴量Vn,Vmを5次元のベクトル量で表現するようにしたものである。具体的には、図13に示すように、空間分布特徴量を表現する対象の領域を、「右上」「右下」「中央」「左上」「左下」の各区画に分割する。そして、各区画の特徴点数(又は動きのある特徴点数)を要素とする5次元ベクトルにより、空間分布特徴量Vn,Vmを表現するのである。このように空間分布特徴量Vn,Vmを表現して、特徴点分布ベクトルVs,Vrを構成しても、上記実施例と同様の効果が得られる。
[対応関係]
以上に説明した変形例を含む各実施例と「特許請求の範囲」記載の各発明との対応関係は、次の通りである。テンプレートデータを記憶する記憶装置40の領域は、本発明の記憶手段の一例に対応し、解析ユニット50によって実行される特徴点抽出処理(特徴点抽出処理ブロックB1)は、本発明の特徴点抽出手段による処理の一例に対応し、解析ユニット50により実行される動きのある特徴点の抽出処理(動きのある特徴点の抽出処理ブロックB3)は、本発明の第二特徴点抽出手段による処理の一例に対応する。
この他、テンプレートデータの位置情報が示す領域に対応する移動体検出対象領域Ωを設定する処理(S270,S330,S520)は、本発明の領域設定手段による処理の一例に対応する。また、特徴点分布ベクトルVrを算出する処理(S280,S530)は、本発明の空間分布特徴量算出手段による処理の一例に対応し、類似度評価処理(S290)は、本発明の確度判定手段による処理の一例に対応し、総評値Pを算出して総評値Pが閾値以上の確度判定結果を移動体が存在することを示す確度判定結果として移動体を検出する処理(S420)は、本発明の移動体検出手段による処理の一例に対応する。
また、各ブロック画素の二次元DCT係数を算出する処理(S140)は、本発明のDCT係数算出手段による処理の一例に対応し、DCTアクティビティを算出する処理及びPCAアクティビティを算出する処理は、本発明の補助判定手段による処理の一例に対応する。また、主成分ベクトルQ1〜QHを記憶する記憶装置40の領域は、本発明の主成分ベクトル記憶手段の一例に対応する。また、変形例2においてDCTアクティビティが閾値未満であるか否かを判断して(S510)、閾値未満である場合にはS520以降を実行する処理は、本発明による移動体検出手段が再設定の指示を入力する動作の一例に対応する。
[最後に]
以上、本発明の実施例について説明したが、本発明は、上記実施例に限定されるものではなく、種々の態様を採りうることは言うまでもない。例えば、上記実施例では、車載カメラ10の映像に基づき移動体(特に自動車等)を検出する移動体検出装置1について説明したが、本発明の移動体検出装置は、このような用途に限定されない。
1…移動体検出装置、10…カメラ、20…位置検出器、30…表示装置、40…記憶装置、50…解析ユニット、51…CPU、53…ROM、55…RAM、B1…特徴点抽出処理ブロック、B2…オプティカルフロー算出処理ブロック、B3…動きのある特徴点の抽出処理ブロック、B4…フレーム差分画像解析処理、B5…移動体検出処理ブロック、B6…描画処理ブロック

Claims (20)

  1. カメラの撮影画像に映る移動体を検出する移動体検出装置であって、
    前記撮影画像において移動体が映る領域の位置情報と、この領域に前記移動体が存在する状態での前記撮影画像の当該領域における特徴点の空間分布が数値化されてなる空間分布特徴量と、が関連付けられたテンプレートデータを記憶保持する記憶手段と、
    前記カメラから取得した移動体検出対象の撮影画像から特徴点を抽出する特徴点抽出手段と、
    前記テンプレートデータが備える前記位置情報に基づき、前記位置情報が示す領域に対応した前記移動体検出対象の撮影画像における領域を、評価領域に設定する領域設定手段と、
    前記特徴点抽出手段により抽出された特徴点に基づき、前記移動体検出対象の撮影画像における前記領域設定手段により設定された前記評価領域の前記特徴点の空間分布を数値化した空間分布特徴量を算出する空間分布特徴量算出手段と、
    前記移動体検出対象の撮影画像における前記評価領域に前記テンプレートデータに対応する移動体が存在する確度として、前記空間分布特徴量算出手段により算出された前記空間分布特徴量と、前記テンプレートデータが示す前記空間分布特徴量との類似度を算出する確度判定手段と、
    前記確度判定手段により算出された前記確度に基づき、前記移動体検出対象の撮影画像における前記テンプレートデータに対応する移動体の存在有無を判定することによって、前記移動体検出対象の撮影画像に映る移動体を検出する移動体検出手段と、
    を備えることを特徴とする移動体検出装置。
  2. 前記空間分布特徴量は、前記空間分布を数値表現する領域を区画化して得られる各区画に存在する前記特徴点の数の夫々を要素とするベクトル量であること
    を特徴とする請求項1記載の移動体検出装置。
  3. 前記移動体検出対象の撮影画像から動きのある特徴点を抽出する第二特徴点抽出手段
    を備え、
    前記空間分布特徴量算出手段は、前記特徴点抽出手段により抽出された特徴点及び前記第二特徴点抽出手段により抽出された動きのある特徴点に基づき、前記評価領域の空間分布特徴量として、前記移動体検出対象の撮影画像における前記評価領域での前記特徴点及び動きのある特徴点の空間分布を数値化した空間分布特徴量を算出する構成にされ、
    前記記憶手段には、前記空間分布特徴量として、前記位置情報が示す領域に前記移動体が存在する状態での前記撮影画像の当該領域における特徴点の空間分布及び動きのある特徴点の空間分布が数値化されてなる空間分布特徴量を示す前記テンプレートデータが記憶保持されていること
    を特徴とする請求項1記載の移動体検出装置。
  4. 前記空間分布特徴量は、前記空間分布を数値表現する領域を区画化して得られる各区画に存在する前記特徴点の数及び前記動きのある特徴点の数の夫々を要素とするベクトル量であること
    を特徴とする請求項3記載の移動体検出装置。
  5. 前記確度判定手段は、ベクトル量である前記空間分布特徴量算出手段により算出された前記空間分布特徴量と前記テンプレートデータが示す前記空間分布特徴量との類似度を、二乗距離及びコサイン距離の少なくとも一方を指標にして算出すること
    を特徴とする請求項2又は請求項4記載の移動体検出装置。
  6. 前記移動体検出対象の撮影画像についてのフレーム差分画像を、予め定められたブロック単位で離散コサイン変換(DCT)することで、前記フレーム差分画像の各ブロックにおける二次元DCT係数を算出するDCT係数算出手段と、
    前記DCT係数算出手段により算出された前記評価領域に対応する各ブロックの二次元DCT係数に基づき、前記評価領域に移動体が存在する確度を算出する補助判定手段と、
    を備え、
    前記移動体検出手段は、前記確度判定手段により算出された前記確度及び前記補助判定手段により算出された前記確度に基づき、前記テンプレートデータに対応する移動体の存在有無を判定して、前記撮影画像に映る移動体を検出すること
    を特徴とする請求項1〜請求項5のいずれか一項記載の移動体検出装置。
  7. 前記補助判定手段は、前記評価領域に対応するブロック群について、ブロック毎に、当該ブロックの前記二次元DCT係数における交流成分の和を交流成分電力として算出し、前記ブロック毎の交流成分電力に基づき、前記評価領域に移動体が存在する確度を算出すること
    を特徴とする請求項6記載の移動体検出装置。
  8. 前記補助判定手段は、前記評価領域に移動体が存在する確度として、前記評価領域に対応するブロック群の全体に占める前記交流成分電力が閾値を超えるブロックの割合を算出すること
    を特徴とする請求項7記載の移動体検出装置。
  9. 前記補助判定手段は、前記評価領域に対応するブロック群について、ブロック毎に、当該ブロックの過去所定期間の前記二次元DCT係数を時系列に配列してなる時系列ベクトルの主成分得点を、前記時系列ベクトルのサンプルから求められた主成分ベクトルに基づき算出し、算出した前記ブロック毎の主成分得点に基づき、前記評価領域に移動体が存在する確度を算出する構成にされ、
    当該移動体検出装置は、
    移動体が映っている状態での前記時系列ベクトルのサンプルを主成分分析して求められた前記主成分ベクトルを記憶する主成分ベクトル記憶手段
    を備えること
    を特徴とする請求項6記載の移動体検出装置。
  10. 前記補助判定手段は、前記評価領域に移動体が存在する確度として、前記評価領域に対応するブロック群の全体に占める前記主成分得点が閾値を超えるブロックの割合を算出すること
    を特徴とする請求項9記載の移動体検出装置。
  11. 前記移動体検出対象の撮影画像に基づき、当該撮影画像の前記評価領域における過去所定期間の所定特徴量を時系列に配列してなる時系列ベクトルの主成分得点を、前記時系列ベクトルのサンプルから求められた主成分ベクトルに基づき算出し、算出した前記主成分得点に基づき、前記評価領域に移動体が存在する確度を算出する補助判定手段と、
    移動体が映っている状態での前記時系列ベクトルのサンプルを主成分分析して求められた前記主成分ベクトルを記憶する主成分ベクトル記憶手段と、
    を備え、
    前記移動体検出手段は、前記確度判定手段により算出された前記確度及び前記補助判定手段により算出された前記確度に基づき、前記テンプレートデータに対応する移動体の存在有無を判定して、前記撮影画像に映る移動体を検出すること
    を特徴とする請求項1〜請求項5のいずれか一項記載の移動体検出装置。
  12. 前記領域設定手段は、前記テンプレートデータが備える前記位置情報に基づき、前記位置情報が示す領域に一致する前記移動体検出対象の撮影画像内の領域及びその周囲の領域の夫々を、前記評価領域に設定する構成にされ、
    前記移動体検出手段は、単一の前記テンプレートデータに対して前記評価領域毎に算出された前記確度に基づき、これら評価領域の内、移動体が存在する可能性の最も高い領域を最適な評価領域として抽出し、前記テンプレートデータに対して前記評価領域毎に算出された前記確度の内、当該最適な評価領域に対して算出された確度に基づき、前記テンプレートデータに対応する移動体の存在有無を判定して、前記移動体検出対象の撮影画像に映る移動体を検出すること
    を特徴とする請求項1〜請求項11のいずれか一項記載の移動体検出装置。
  13. 前記確度判定手段は、前記評価領域に前記テンプレートデータに対応する移動体が存在する確度として、前記空間分布特徴量算出手段により算出された前記空間分布特徴量及びこの空間分布特徴量に対応する前記評価領域の位置パラメータを要素とするベクトル量と、前記テンプレートデータが示す前記空間分布特徴量及び前記テンプレートデータが備える前記位置情報が示す領域の位置パラメータを要素とするベクトル量との類似度を算出すること
    を特徴とする請求項12記載の移動体検出装置。
  14. 前記領域設定手段は、前記テンプレートデータが備える前記位置情報に基づき、前記位置情報が示す領域に一致する前記移動体検出対象の撮影画像の領域を、前記評価領域に設定し、再設定の指示が入力された場合には、前記移動体検出対象の撮像画像における前記二次元DCT係数に基づき、前記評価領域の位置を調整して、前記評価領域を再設定する構成にされ、
    前記移動体検出手段は、前記位置情報が示す領域に一致する前記評価領域に対して前記補助判定手段が算出した前記確度が閾値未満である場合には、前記再設定の指示を入力し、前記再設定された前記評価領域に対して前記確度判定手段が算出した前記確度、又は、前記再設定された前記評価領域に対して前記確度判定手段及び前記補助判定手段の夫々が算出した前記確度に基づき、前記テンプレートデータに対応する移動体の存在有無を判定して、前記移動体検出対象の撮影画像に映る移動体を検出すること
    を特徴とする請求項6〜請求項10のいずれか一項記載の移動体検出装置。
  15. 前記撮影画像内において左右対称の関係にある前記移動体が映る領域の前記テンプレートデータとして、これらの領域に共通するテンプレートデータであって、前記位置情報及び前記空間分布特徴量として、左右対称の関係にある前記移動体が映る領域の一方についての位置情報及び前記空間分布特徴量が記述されたデータを前記記憶手段に記憶保持し、
    前記共通するテンプレートデータに基づいて、左右対称の関係にある前記移動体が映る領域の内、前記位置情報及び前記空間分布特徴量が前記テンプレートデータに記述されていない領域に対応する前記評価領域の前記確度を算出する際には、前記左右対称の関係に従って、前記テンプレートデータが示す前記位置情報及び前記空間分布特徴量を読み変えて、前記確度を算出すること
    を特徴とする請求項1〜請求項14のいずれか一項記載の移動体検出装置。
  16. 前記記憶手段には、移動体の種類毎に、前記位置情報と、当該種類の移動体が前記位置情報に対応する領域に映る状態での当該領域における前記空間分布特徴量と、が関連付けられた前記テンプレートデータが記憶保持され、
    前記移動体検出対象の撮影画像に映る移動体を検出する際には、前記移動体の種類毎に、当該移動体の種類の前記テンプレートデータに基づき前記確度を算出して、当該テンプレートデータに対応する移動体の存在有無を判定すること
    を特徴とする請求項1〜請求項15のいずれか一項記載の移動体検出装置。
  17. 前記記憶手段には、道路環境毎に、当該道路環境において前記移動体が映る領域夫々の前記テンプレートデータが記憶保持され、
    前記移動体検出対象の撮影画像に映る移動体を検出する際には、前記移動体検出対象の撮影画像に映る道路環境を特定し、当該特定した道路環境に対応する前記テンプレートデータ毎に、当該テンプレートデータに対応する前記確度を算出して、当該テンプレートデータに対応する移動体の存在有無を判定すること
    を特徴とする請求項1〜請求項16のいずれか一項記載の移動体検出装置。
  18. 前記記憶手段には、前記道路環境毎の前記テンプレートデータとして、交差点の種類毎に、当該種類に対応する交差点が前記カメラにより撮影されている環境での前記カメラの撮影画像において前記移動体が映る領域夫々についての前記テンプレートデータが記憶保持され、
    前記移動体検出対象の撮影画像に映る移動体を検出する際には、前記移動体検出対象の撮影画像に映る交差点の種類を特定して、当該特定した交差点の種類に対応する前記テンプレートデータ毎に、当該テンプレートデータに対応する前記確度を算出して、当該テンプレートデータに対応する移動体の存在有無を判定すること
    を特徴とする請求項17記載の移動体検出装置。
  19. 前記テンプレートデータは、前記移動体の三次元位置及び前記移動体の三次元姿勢に関する情報が、更に前記位置情報及び前記空間分布特徴量に関連付けられたデータであること
    を特徴とする請求項1〜請求項18のいずれか一項記載の移動体検出装置。
  20. カメラの撮影画像を取得可能で、当該カメラの撮影画像において移動体が映る領域の位置情報と、この領域に前記移動体が存在する状態での前記撮影画像の当該領域における特徴点の空間分布が数値化されてなる空間分布特徴量と、が関連付けられたテンプレートデータを記憶保持する装置のコンピュータに、
    前記カメラから取得した移動体検出対象の撮影画像から特徴点を抽出する特徴点抽出手段と、
    前記テンプレートデータが備える前記位置情報に基づき、前記位置情報が示す領域に対応した前記移動体検出対象の撮影画像における領域を、評価領域に設定する領域設定手段と、
    前記特徴点抽出手段により抽出された特徴点に基づき、前記移動体検出対象の撮影画像における前記領域設定手段により設定された前記評価領域の前記特徴点の空間分布を数値化した空間分布特徴量を算出する空間分布特徴量算出手段と、
    前記移動体検出対象の撮影画像における前記評価領域に前記テンプレートデータに対応する移動体が存在する確度として、前記空間分布特徴量算出手段により算出された前記空間分布特徴量と、前記テンプレートデータが示す前記空間分布特徴量との類似度を算出する確度判定手段と、
    前記確度判定手段により算出された前記確度に基づき、前記移動体検出対象の撮影画像における前記テンプレートデータに対応する移動体の存在有無を判定することによって、前記移動体検出対象の撮影画像に映る移動体を検出する移動体検出手段
    としての機能を実現させるためのプログラム。
JP2010209878A 2010-09-17 2010-09-17 移動体検出装置及びプログラム Expired - Fee Related JP5434861B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010209878A JP5434861B2 (ja) 2010-09-17 2010-09-17 移動体検出装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010209878A JP5434861B2 (ja) 2010-09-17 2010-09-17 移動体検出装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2012064153A JP2012064153A (ja) 2012-03-29
JP5434861B2 true JP5434861B2 (ja) 2014-03-05

Family

ID=46059762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010209878A Expired - Fee Related JP5434861B2 (ja) 2010-09-17 2010-09-17 移動体検出装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5434861B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5267596B2 (ja) 2011-02-23 2013-08-21 株式会社デンソー 移動体検出装置
JP6018390B2 (ja) 2012-03-21 2016-11-02 日立オートモティブシステムズ株式会社 電動ポンプの制御装置
JP5648655B2 (ja) * 2012-04-27 2015-01-07 株式会社デンソー 対象物識別装置
KR102464781B1 (ko) * 2015-06-25 2022-11-07 에스케이 텔레콤주식회사 영상의 차이를 이용하여 이동 개체를 검출하는 방법 및 장치
US10304207B2 (en) * 2017-07-07 2019-05-28 Samsung Electronics Co., Ltd. System and method for optical tracking

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4475015B2 (ja) * 2004-06-01 2010-06-09 トヨタ自動車株式会社 車両周辺監視装置及び車両周辺監視方法
JP4859760B2 (ja) * 2007-06-06 2012-01-25 株式会社日立製作所 カーナビゲーション装置、道路標識認識方法およびプログラム
JP4623135B2 (ja) * 2008-05-08 2011-02-02 株式会社デンソー 画像認識装置

Also Published As

Publication number Publication date
JP2012064153A (ja) 2012-03-29

Similar Documents

Publication Publication Date Title
CN109034047B (zh) 一种车道线检测方法及装置
CN107038723B (zh) 棒状像素估计方法和系统
EP3007099B1 (en) Image recognition system for a vehicle and corresponding method
CN109334563B (zh) 一种基于道路前方行人和骑行者的防碰撞预警方法
JP6221371B2 (ja) 路面検知方法及び路面検知装置
JP5267596B2 (ja) 移動体検出装置
KR102099265B1 (ko) 보행자 상태 기반의 보행자와 차량간 충돌 경고 시스템 및 그 방법
Wang et al. Probabilistic inference for occluded and multiview on-road vehicle detection
JP5922257B2 (ja) 車両周辺監視装置
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
US20150235092A1 (en) Parts based object tracking method and apparatus
US11049275B2 (en) Method of predicting depth values of lines, method of outputting three-dimensional (3D) lines, and apparatus thereof
CN114424250A (zh) 结构建模
JP5434861B2 (ja) 移動体検出装置及びプログラム
CN112825192B (zh) 基于机器学习的对象辨识系统及其方法
EP3825904A1 (en) Method and apparatus with three-dimensional object display
CN113408324A (zh) 目标检测方法、装置及系统、高级驾驶辅助系统
CN112798811A (zh) 速度测量方法、装置和设备
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
CN114463713A (zh) 一种车辆在3d空间的信息检测方法、装置及电子设备
CN114241448A (zh) 障碍物航向角的获取方法、装置、电子设备及车辆
CN114118247A (zh) 一种基于多传感器融合的无锚框3d目标检测方法
KR20200087296A (ko) 라이다 센서 데이터 기반 장애물 검출 3차원 뷰어 시스템
Zhao et al. Improving Autonomous Vehicle Visual Perception by Fusing Human Gaze and Machine Vision
Li et al. SKRWM based descriptor for pedestrian detection in thermal images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131125

R151 Written notification of patent or utility model registration

Ref document number: 5434861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees