JP5365408B2 - 移動体認識装置、移動体認識方法及びプログラム - Google Patents

移動体認識装置、移動体認識方法及びプログラム Download PDF

Info

Publication number
JP5365408B2
JP5365408B2 JP2009190474A JP2009190474A JP5365408B2 JP 5365408 B2 JP5365408 B2 JP 5365408B2 JP 2009190474 A JP2009190474 A JP 2009190474A JP 2009190474 A JP2009190474 A JP 2009190474A JP 5365408 B2 JP5365408 B2 JP 5365408B2
Authority
JP
Japan
Prior art keywords
image
feature
point
feature point
calculation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009190474A
Other languages
English (en)
Other versions
JP2011043922A (ja
Inventor
時彦 秋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2009190474A priority Critical patent/JP5365408B2/ja
Publication of JP2011043922A publication Critical patent/JP2011043922A/ja
Application granted granted Critical
Publication of JP5365408B2 publication Critical patent/JP5365408B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、移動体認識装置、移動体認識方法及びプログラムに関し、更に詳しくは、視野内を移動する移動体を認識する移動体認識装置、視野内を移動する移動体を認識するための移動体認識方法及びプログラムに関する。
近年、自車周辺の移動体や、運転者の死角から自車に接近する移動体を検出する運転支援システムの実用化が進んでいる。この種のシステムでは、その性質上、短時間に精度よく移動体を検出する必要がある。そこで、画像処理を精度よく迅速に行うための方法が種々提案されている(例えば特許文献1乃至3参照)。
特開平9−18863号公報 特開平8−030792号公報 特開平4−207790号公報
特許文献1に記載された方法では、移動体を撮像して得られた画像が例えば、第1画像と第2画像とに分割される。そして、危険度に応じて第1画像及び第2画像のうちから一方の画像が選択され、選択された画像についてのみ画像処理が実行される。この方法を用いることにより、移動体の移動方向を短時間に検出することが可能となる。
また、特許文献2に記載された方法では、移動体が移動する際に、橋の欄干やガードレールなどのように周期的に画像中に現れる障害物に起因するオプティカルフローと、移動体に起因するオプティカルフローとが識別される。この方法を用いることにより、障害物に起因するオプティカルフローを除外して、検出対象物である移動体に起因するオプティカルフローのみに基づいて、移動体の検出を行うことができる。したがって、移動体の検出に用いる情報量を少なくすることができ、結果的に迅速に移動体を検出することが可能となる。
また、特許文献3に記載された方法では、1フレーム分だけ時間の異なる画像間のオプティカルフローの中から、最もマッチ度が低いベクトルが検出される。この方法を用いることにより、最も多くの移動体の移動情報を有するベクトルのみに基づいて、移動体の検出を行うことができる。したがって、移動体の検出に用いる情報量を少なくすることができ、結果的に迅速に移動体を検出することが可能となる。
上述した方法それぞれは、画像処理における演算量を削減するために、演算の対象となる領域を制限するものである。しかしながら、画像間の対応する領域を探索するためには、畳み込み演算が必要となる。この、畳み込み演算は、演算量が多く、探索する領域が広いと畳み込み演算に長時間を要することになる。このため、上記3つの方法を実行しようとすると、高速な演算装置が必要となる。
また、探索対象となる画像を構成する画素の輝度が低い場合や、対応する領域を構成する画素の輝度と、その周囲の領域の画素の輝度との差が小さい場合には、対応する領域を正確に探索することが困難となり、オプティカルフローに誤差が含まれることが考えられる。
本発明は、上述の事情の下になされたもので、短時間に精度良く移動体を検出することができる移動体認識装置等を提供することを目的とする。
上記目的を達成するために、本発明の移動体認識装置は、移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する特徴量演算手段と、特徴量の算出対象となる算出対象画素の特徴量の、算出対象画素の周囲にある画素の平均輝度に対する割合が所定の値以上の場合に、算出対象画素に対応する特徴点を、第1画像及び第2画像それぞれから抽出する特徴点抽出手段と、第1画像の特徴点の特徴量と、第2画像の特徴点それぞれの特徴量との差分を演算し、差分が所定の範囲内となる第2画像の特徴点をそれぞれ選択する選択手段と、第1画像の特徴点と、選択された第2画像の特徴点それぞれとの相関値を演算する相関値演算手段と、第1画像の特徴点を始点とし、始点としての特徴点に対する相関値が最も高い第2画像の特徴点を終点とするオプティカルフローを生成するオプティカルフロー生成手段と、を備える。
また、特徴量抽出手段は、算出対象画素の特徴量を、算出対象画素の周囲にある画素の平均輝度の2乗又は4乗で除して得られる値が、所定の値以上の場合に、算出対象画素に対応する特徴点を、第1画像及び第2画像それぞれから抽出することとしてもよい。
また、移動体認識装置は、第1画像の特徴点にそれぞれ対応する探索領域を、第2画像上にそれぞれ設定する探索領域設定手段を更に備え、選択手段は、探索領域内で第2画像の特徴点の選択を実行することとしてもよい。
また、相関値演算手段は、第1画像の特徴点を含む画像をテンプレートとし、テンプレートと、第2画像の特徴点を含む領域内の画像との相関値を算出することとしてもよい。
上記目的を達成するために、本発明の移動体認識方法は、移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する工程と、特徴量の算出対象となる算出対象画素の特徴量の、算出対象画素の周囲にある画素の平均輝度に対する割合を示す比較値を算出する工程と、比較値が所定の値以上の場合に、算出対象画素に対応する特徴点を、第1画像及び第2画像それぞれから抽出する工程と、第1画像の特徴点の特徴量と、第2画像の特徴点それぞれの特徴量との差分を演算し、差分が所定の範囲内となる第2画像の特徴点をそれぞれ選択する工程と、第1画像の特徴点と、選択された第2画像の特徴点それぞれとの相関値を演算する工程と、第1画像の特徴点を始点とし、始点としての特徴点に対する相関値が最も高い第2画像の特徴点を終点とするオプティカルフローを生成する工程と、を含む。
上記目的を達成するために、本発明のプログラムは、コンピュータを、移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する手段と、特徴量の算出対象となる算出対象画素の特徴量の、算出対象画素の周囲にある画素の平均輝度に対する割合が所定の値以上の場合に、算出対象画素に対応する特徴点を、第1画像及び第2画像それぞれから抽出する手段と、第1画像の特徴点の特徴量と、第2画像の特徴点それぞれの特徴量との差分を演算し、差分が所定の範囲内となる第2画像の特徴点をそれぞれ選択する手段と、第1画像の特徴点と、選択された第2画像の特徴点それぞれとの相関値を演算する手段と、第1画像の特徴点を始点とし、始点としての特徴点に対する相関値が最も高い第2画像の特徴点を終点とするオプティカルフローを生成する手段と、として機能させる。
本発明によれば、短時間に精度良く移動体を検出することができる。
第1の実施形態に係る移動体認識システムのブロック図である。 カメラの配置を概略的に示す図である。 撮像装置によって撮像された画像を示す図(その1)である。 撮像装置によって撮像された画像を示す図(その2)である。 特徴点抽出部の動作を説明するための図(その1)である。 特徴点抽出部の動作を説明するための図(その2)である。 画像上に設定された探索領域の一例を示す図である。 画像上に規定されたテンプレートを示す図である。 相関値演算部の動作を説明するための図である。 オプティカルフロー生成部の動作を説明するための図である。 第2の実施形態に係る移動体認識システムのブロック図である。 移動体認識装置の動作を説明するためのフローチャート(その1)である。 移動体認識装置の動作を説明するためのフローチャート(その2)である。 移動体認識装置の動作を説明するためのフローチャート(その3)である。
《第1の実施形態》
以下、本発明の第1の実施形態を、図1〜図11を参照しつつ説明する。図1は本実施形態にかかる移動体認識システム10の概略的な構成を示すブロック図である。移動体認識システム10は、例えば撮像装置20によって順次撮像される画像に含まれる移動体を認識し検出するシステムである。この移動体認識システム10は、図1に示されるように、撮像装置20と、撮像装置20の視野内を移動する移動体を認識する移動体認識装置30とを有している。
撮像装置20は、被写体を撮像することにより取得した画像を電気信号に変換して出力する装置である。撮像装置20は、例えば図2に示されるように、車両100の後方に取り付けられたカメラ20a介して、車両100の後方を走行する移動体としての車両を撮像し、撮像して得た画像に関する情報を移動体認識装置30へ出力する。
例えば、撮像装置20によって、自車よりも早い速度で右車線を走行する移動体101が順次撮像されると、図3に示される画像P1、図4に示される画像P2が順次撮像される。画像P1及び画像P2に関する情報は、移動体認識装置30へ出力される。
図1に戻り、移動体認識装置30は、記憶部31、特徴点抽出部32、探索領域設定部33、特徴点選択部34、相関値演算部35、オプティカルフロー生成部36、グルーピング処理部37、及び移動体検出部38を含んで構成されている。
記憶部31は、撮像装置20から順次出力される画像に関する情報を時系列的に記憶する。また、上記各部32〜38の処理結果としての情報を順次記憶する。
特徴点抽出部32は、記憶部31に記憶された画像を構成する画素それぞれについての特徴量を算出し、この特徴量に基づいて画像に含まれる特徴点を抽出する。画像上に規定されたXY座標系で示される画素M(x、y)の特徴量f(x、y)は、画像の輝度勾配を示す関数I(x、y)を用いると下記の式(1)によって表される。
Figure 0005365408
ただし、Ixx、Iyy、Ixyはそれぞれ下記の式(2)〜(3)によってそれぞれ表され、kは定数である。
Figure 0005365408
Figure 0005365408
Figure 0005365408
特徴点抽出部32は、まず、式(1)を用いて画像を構成する画素M(x、y)に対する特徴量f(x、y)をそれぞれ算出する。次に、特徴点抽出部32は、画素M(x、y)の周囲にある画素の輝度の平均値AVG(x、y)を算出し、特徴量f(x、y)を、輝度の平均値AVG(x、y)を4乗したもので除する。特徴点抽出部32は、これにより得られた比較値V(=f(x、y)/AVG(x、y))を、予め設定された閾値と比較して、比較値Vが閾値以上の場合に、このときの画素M(x、y)を特徴点として抽出する。ここで、特徴量f(x、y)を輝度の平均値AVG(x、y)を4乗したもので除する理由は、特徴量f(x、y)を輝度に関して正規化するためである。
図5は、画像P1から抽出された移動体101に関連する特徴点a〜aを模式的に示す図である。また、図6は、画像P2から抽出された移動体101に関連する特徴点b〜b18を模式的に示す図である。画像P1及び画像P2では、移動体101の輪郭が急峻に変化する不連続点や、移動体101を構成するパーツの形状が不連続に変化する点などが抽出される。
特徴点抽出部32は、特徴点の抽出が完了すると、抽出した特徴点に関する情報を記憶部31へ出力するとともに、特徴点の抽出が完了したことを探索領域設定部33へ通知する。
図1に戻り、探索領域設定部33は、順次撮像された1組の画像のうち最初に撮像された第1画像の特徴点を順次選択するとともに、選択した特徴点に対応する探索領域を、第1画像の次に撮像された第2画像に設定する。
例えば、図7には、1組の画像P1及びP2のうち、最初に撮像された画像P1上の特徴点aに対応した探索領域Fが示されている。この探索領域Fは、画像P1上の特徴点aに対応する特徴点が含まれると予想される領域である。探索領域Fは、具体的には、画像P1上の特徴点aを終点とし画像P1が撮像される前に撮像された画像上の特徴点を始点とするオプティカルフローを用いて予想することが可能な移動体101の移動速度、移動方向などを考慮して決定することができる。探索領域設定部33は、画像P1上のすべての特徴点a〜aについての探索領域F〜F(画像P2の部分領域)を、画像P2上に設定する。
探索領域設定部33は、探索領域の設定が完了すると、探索領域に関する情報を記憶部31へ出力するとともに、探索領域の設定が完了したことを特徴点選択部34へ通知する。
図1に戻り、特徴点選択部34は、第1画像の特徴点に対応するように第2画像に設定された探索領域から、第1画像の特徴点の特徴量と同等の特徴量を有する特徴点を選択する。
例えば、特徴点選択部34は、図5に示される特徴点aの特徴量と、図7に示される探索領域F内にある画像P2の4つの特徴点b,b,b,bそれぞれの特徴量を比較する。そして、特徴点aの特徴量との差分が、予め設定された閾値以下となる特徴点を選択する。特徴点選択部34は、特徴点a〜aについて設定された探索領域F〜Fからも、同様の要領で特徴点を選択する。
図1に戻り、相関値演算部35は、順次撮像された1組の画像のうちの最初に撮像された第1画像の特徴点を順次選択する。そして、この選択した特徴点と、この特徴点について設定された第2画像の探索領域内から選択された特徴点との相関値を算出する。
具体的には、相関値演算部35は、まず、図8に示されるように、画像P1の特徴点aを中心とする長方形の画像(画像P1の部分画像)をテンプレートTとして規定する。このテンプレートTは、M行N列のマトリクス状に配置された画素からなる画像である。また、以下の説明では、テンプレートTの座標とは、テンプレートの中心の座標をいうものとする。
次に、相関値演算部35は、特徴点b,b,b,bのうち、特徴点選択部34によって選択された特徴点を含む画像と、テンプレートTとをマッチングさせたときの相関値Rを算出する。この相関値Rの算出は、例えば正規化相互相関を示す下記の式(5)を用いることができる。なお、I(i,j)はマッチング対象となる画像の、i行目かつj列目に位置する画素の輝度である。また、T(i,j)はテンプレートTの、i行目かつj列目に位置する画素の輝度である。また、IAVGはマッチング対象となる画像を構成する画素の輝度の平均値であり、TAVGは、テンプレートを構成する画素の輝度の平均値である。IAVG及びTAVGは下記の式(6)及び式(7)で示される。
Figure 0005365408
Figure 0005365408
Figure 0005365408
相関値演算部35は、テンプレートTに含まれる特徴点aと、探索領域F内に含まれる特徴点b1,b3,b4,b9のうちから選択した特徴点とを一致させたときの、テンプレートTと、このテンプレートTと重なる対象画像との相関値Rを算出する。例えば、特徴点選択部34によって、探索領域F内の特徴点bが選択された場合には、相関値演算部35は、テンプレートTの特徴点aが特徴点bに一致するように、テンプレートTを画像P2に重ねる。そして、画像P2のテンプレートTと重なった対象画像と、テンプレートTとの相関値Rを、上記式(5)に基づいて算出する。
次に、図9を参照するとわかるように、相関値演算部35は、探索領域F内に、特徴点bを中心とし、テンプレートTより大きいマッチング領域MAを規定する。そして、テンプレートTを、マッチング領域MA内で所定のピッチで移動させながら、テンプレートTと、このテンプレートTと重なる対象画像との相関値Rを、上記式(5)に基づいて順次算出する。
相関値演算部35は、画像P1の特徴点a〜aと、特徴点a〜aそれぞれについて設定された探索領域F〜Fについても、上述と同様の処理を実行する。
相関値演算部35は、相関値の算出が完了すると、算出した相関値に関する情報を記憶部31へ出力するとともに、相関値の算出が完了したことをオプティカルフロー生成部36へ通知する。
図1に戻り、オプティカルフロー生成部36は、相関値演算部35によって算出された相関値に基づいて、第1画像の特徴点を始点とし、第2画像の特徴点或いはその近傍を終点とするオプティカルフローを生成する。
例えば、オプティカルフロー生成部36は、図9において、テンプレートTと探索領域F内の画像との相関値が最も高かったときの、画像P2上のテンプレートTの位置座標(X2、Y2)を新たな特徴点として特定する。そして、位置座標(X2、Y2)を終点Eとし、特徴点aの画像P上の位置座標(X1、Y1)を始点Sとするオプティカルフローを画像P1及び画像P2に共通するXY座標系に規定する。オプティカルフロー生成部36は、上述と同様の処理を、画像P1上の特徴点a〜aについて実行し、一例として図10に示されるように、始点S〜Sと終点E〜Eとで規定される1群のオプティカルフローを生成する。
オプティカルフロー生成部36は、オプティカルフローを生成すると、このオプティカルフローに関する情報を記憶部31へ出力するとともに、オプティカルフローの生成が完了したことをグルーピング処理部37へ通知する。
図1に戻り、グルーピング処理部37は、生成された1群のオプティカルフローのグルーピングを行う。図10に示されるように、本実施形態では説明の便宜上、移動体101に関するオプティカルフローが6本である場合について説明した。しかしながら、実際は、移動体101を撮像した画像からは、数十或いは数百の特徴点を抽出することができ、数十或いは数百本のオプティカルフローを規定することができる。
グルーピング処理部37は、数十或いは数百本のオプティカルフローのうちから、ある程度のノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、移動体101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線は一点(消失点)で交わるはずである。そこで、グルーピング処理部37は、オプティカルフローと一致する直線が、他のオプティカルフローと一致する直線が収束する消失点から著しく離れている場合には、このオプティカルフローを除外し、残りのオプティカルフローを同一の移動体に関連するオプティカルフローとみなしてグルーピングする。
グルーピング処理部37は、オプティカルフローのグルーピングが完了すると、グルーピングしたオプティカルフローに関する情報を記憶部31へ出力するとともに、グルーピングが完了したことを、移動体検出部38へ通知する。
移動体検出部38は、グルーピングされたオプティカルフローに基づいて、自車と移動体の距離、自車と移動体の相対速度及び相対移動方向などを検出し出力する。例えば、移動体検出部38は、一群のオプティカルフローの始点の配置と、終点の配置との相違から移動体の相対速度及び相対移動方向を検出し出力する。
以上説明したように、本第1の実施形態では、相関値演算部35によって、画像P1の特徴点を含むテンプレートTを用いたマッチング処理が行われる前に、特徴点選択部34によって、画像P2に設定された探索領域からマッチング処理を行う対象となる特徴点が選択される。そして、特徴点選択部34によって選択された特徴点を含む画像についてのみ、テンプレートTを用いたマッチング処理が実行される。このため、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理を実行することができ、結果的に短時間に精度よく移動体を検出することが可能となる。
また、本第1の実施形態では、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理が実行される。したがって、相互に特徴量が低い画像P1の特徴点と画像P2の特徴点とが、マッチング処理の誤りによって相互に対応づけられることを回避することが可能となる。
また、本第1の実施形態では、特徴点抽出部32は、画像P1及び画像P2それぞれを構成する画素の特徴量と、特徴量の算出対象となる画素の周囲に存在する画素の平均輝度とを考慮して、画像P1及び画像P2から特徴点を抽出する。したがって、撮像された画像の明るさ、すなわち画像を構成する画素それぞれの輝度に関わらず精度よく特徴点を抽出することが可能となる。
具体的には、一般に画像中の明るい領域はコントラストが高く、特徴量が大きくなる傾向がある。一方、暗い領域ではコントラストが低く、特徴量が小さくなる傾向がある。このため、単に画素について算出した特徴量を所定の閾値と比較すると、明るい領域では、多数の特徴点が抽出され、暗い領域では少数の特徴点が抽出される結果になる。本実施形態にでは、特徴量の算出対象となる画素の周囲に存在する画素の平均輝度を考慮して、特徴量が算出されるため、撮像された画像の明るさに関わらず、適当な特徴点を抽出することが可能となる。
《第2の実施形態》
次に、本発明の第2の実施形態を、図11〜図14を参照しつつ説明する。なお、第1の実施形態と同一又は同等の構成については、同等の符号を用いるとともに、その説明を省略又は簡略する。
本実施形態にかかる移動体認識システム10は、移動体認識装置30が、一般的なコンピュータ、又はマイクロコンピュータなどの装置と同様の構成によって実現されている点で、第1の実施形態にかかる移動体認識システム10と相違している。
図11は、移動体認識システム10の物理的な構成を示すブロック図である。図11に示されるように、移動体認識システム10は、撮像装置20と、コンピュータからなる移動体認識装置30とから構成されている。
移動体認識装置30は、CPU(Central Processing Unit)30a、主記憶部30b、補助記憶部30c、表示部30d、入力部30e、インターフェイス部30f、及び上記各部を相互に接続するシステムバス30gを含んで構成されている。
CPU30aは、補助記憶部30cに記憶されているプログラムに従って、撮像装置20によって取得された画像に対して後述する処理を実行する。
主記憶部30bは、RAM(Random Access Memory)等を含んで構成され、CPU30aの作業領域として用いられる。
補助記憶部30cは、ROM(Read Only Memory)、磁気ディスク、半導体メモリ等の不揮発性メモリを含んで構成されている。この補助記憶部30cは、CPU30aが実行するプログラム、及び各種パラメータなどを記憶している。また、撮像装置20から出力される画像に関する情報、及びCPU30aによる処理結果などを含む情報を順次記憶する。
表示部30dは、CRT(Cathode Ray Tube)またはLCD(Liquid Crystal Display)などを含んで構成され、CPU30aの処理結果を表示する。
入力部30eは、キーボードやマウス等のポインティングデバイスを含んで構成されている。オペレータの指示は、この入力部30eを介して入力され、システムバス30gを経由してCPU30aに通知される。
インターフェイス部30fは、シリアルインターフェイスまたはLAN(Local Area Network)インターフェイス等を含んで構成されている。撮像装置20は、インターフェイス部30fを介してシステムバス30gに接続される。
図12のフローチャートは、CPU30aによって実行されるプログラムの一連の処理アルゴリズムに対応している。以下、図12を参照しつつ、移動体認識装置30が実行する処理について説明する。なお、この処理は、移動体認識システム10が起動され、撮像装置20によって撮像された画像に関する情報が出力された後に実行される。また、前提として、撮像装置20からは、図5に示される画像P1、及び図6に示される画像P2が順次出力され、画像P1については、特徴点a〜aが既に抽出されているものとする。
まず、最初のステップS101では、CPU30aは、撮像装置20によって撮像された画像P2を構成する画素それぞれについての特徴量を算出し、この特徴量に基づいて画像P2に含まれる特徴点を抽出する。図13は、ステップS101で実行されるサブルーチン1を示す図である。CPU30aは、ステップS101での処理を、図13に示されるサブルーチン1を実行することにより実現する。
最初のステップS201では、CPU30aは、特徴量を算出する画素の座標を設定する。この座標は、撮像装置20によって撮像された画像P2上のXY座標系上に規定される。
次のステップS202では、CPU30aは、画像P2を構成する画素M(x、y)の周囲にある画素の輝度の平均値AVG(x、y)を算出する。
次のステップS203では、CPU30aは、式(1)を用いて画素M(x、y)に対する特徴量f(x、y)をそれぞれ算出する。
次のステップS204では、CPU30aは、特徴量f(x、y)を、輝度の平均値AVG(x、y)を4乗したもので除して、比較値V(=f(x、y)/AVG(x、y))を算出する。
次のステップS205では、CPU30aは、比較値Vが予め設定された閾値以上であるか否かを判断する。比較値Vが閾値以上である場合には、ステップS205での判断が肯定され、CPU30aは、ステップS206へ移行する。一方、比較値Vが閾値以下である場合には、ステップS205での判断が否定され、CPU30aは、ステップS207へ移行する。
次のステップS206では、CPU30aは、画素M(x、y)を画像P2の特徴点として抽出する。
次のステップS207では、画像P2を構成する画素についての処理が完了したか否かを判断する。画素P2のすべての画素について、ステップS201〜S206までの処理が完了していない場合には、ステップS207での判断が否定され、CPU30aは、ステップS201へ戻る。
CPU30aは、ステップS201において、特徴量を算出する画素の座標を再設定し、以降、ステップS207での判断が肯定されるまで、ステップS201〜S207の処理を繰り返し実行する。これにより、図6に示されるように、画像P2からは特徴点b〜b18が抽出される。画素P2のすべての画素について、ステップS201〜S206までの処理が完了終了すると(ステップS207:Yes)、CPU30aは、サブルーチン1を終了し、次のステップS102へ移行する。
図12に戻り、次のステップS102では、CPU30aは、画像P1から抽出された特徴点a〜aにそれぞれ対応する探索領域を画像P2上に設定する。例えば、図7には、1組の画像P1及びP2のうち、最初に撮像された画像P1上の特徴点aに対応した探索領域Fが示されている。この探索領域Fは、画像P1上の特徴点aに対応する特徴点が含まれると予想される領域である。CPU30aは、画像P1上のすべての特徴点a〜aについての探索領域F〜Fを、画像P2上に設定する。
次のステップS103では、CPU30aは、相関値の算出を行う。図14は、ステップS103で実行されるサブルーチン2を示す図である。CPU30aは、ステップS103での処理を、図14に示されるサブルーチン2を実行することにより実現する。
最初のステップS301では、CPU30aは、画像P1の特徴点aを選択する。
次のステップS302では、CPU30aは、特徴点aの特徴量と、特徴点aに対応する探索領域F内にある4つの特徴点b,b,b,bそれぞれの特徴量とを比較する。そして、特徴点aの特徴量との差分が、予め設定された閾値以下となる特徴点を選択する。ここでは、例えば特徴点b及び特徴点bが選択されたものとして以下の説明を行う。
次のステップS303では、CPU30aは、特徴点aと、探索領域F内にある4つの特徴点b,b,b,bのうちから選択した特徴点b及び特徴点bとの相関値を算出する。具体的には、CPU30aは、まず、図8に示されるように、画像P1の特徴点aを中心とする長方形の画像をテンプレートTとして規定する。次に、CPU30aは、テンプレートTに含まれる特徴点aと、探索領域F内に含まれる特徴点bとを一致させたときの、テンプレートTと、このテンプレートTと重なる対象画像との相関値Rを、上記式(5)を用いて算出する。
次のステップS304では、算出した相関値Rが最大であるか否かを判断する。算出した相関値Rが過去に算出された相関値よりも大きい場合には、ステップS304での判断が肯定され、CPU30aは、次のステップS305へ移行する。また、算出した相関値Rが過去に算出された相関値よりも小さい場合には、ステップS304での判断が否定され、CPU30aは、ステップS306へ移行する。ここでは、過去に算出さされた相関値がないため、相関値Rが最大となる。したがって、CPU30aは、次のステップS305へ移行する。
次のステップS305では、CPU30aは、特徴点aの画像P上の位置座標(X1、Y1)を始点Sとし、ステップS303におけるテンプレートTの画像P2上の位置座標(ここでは、特徴点bの座標(X2、Y2))を終点Eとするオプティカルフローを画像P1及び画像P2に共通するXY座標系に規定する。
次のステップS306では、CPU30aは、特徴点bの周辺領域の探索が完了したか否かを判断する。周辺領域の探索が完了していない場合には、ステップS306での判断は否定され、CPU30aは、次のステップS307へ移行する。一方、完了している場合には、ステップS306での判断は肯定され、CPU30aは、次のステップS308へ移行する。ここでは、特徴点bの周辺領域の探索が完了していないので、CPU30aは、次のステップS307へ移行する。
次のステップS307では、CPU30aは、図9を参照するとわかるように、探索領域F内に、特徴点bを中心とし、テンプレートTより大きいマッチング領域MAを規定する。そして、この領域を内にテンプレートTと同形状で、中心が特徴点bからずれたオフセット領域を設定する。
以降、CPU30aは、ステップS303〜S307までの処理をマッチング領域MAに対して繰り返し実行する。これにより、マッチング領域MA内に順次設定されるオフセット領域に対する相関値が順次算出される。そして、マッチング領域MA全域についてのマッチングが終了すると、ステップS306での判断が肯定され、CPU30aは、次のステップS308へ移行する。なお、CPU30aは、テンプレートTとオフセット領域との相関値が、ステップS304で最大と判断された場合には、ステップS305において、このときのテンプレートTが位置する座標に対応する点を画像P2の新たな特徴点とし、オプティカルフローの終点を新たな特徴点に変更する。
次のステップS308では、CPU30aは、探索領域Fから選択された特徴点すべてについてのマッチング処理が完了したか否かを判断する。探索領域Fから選択されたすべての特徴点についてのマッチング処理が完了していない場合には、ステップS308での判断は否定される。この場合、CPU30aは、ステップS302に戻り、次の特徴点bを選択し、同様に、ステップS302〜S308までの処理を実行する。以降、CPU30aは、ステップS308での判断が肯定されるまで、ステップS302〜S308までの処理を繰り返し実行する。
一方、探索領域Fから選択されたすべての特徴点についてのマッチング処理が完了した場合には、ステップS308での判断は肯定され、CPU30aは、次のステップS309へ移行する。
次のステップS309では、CPU30aは、画像P1の特徴点a〜aについて、ステップS302〜S309までの処理が実行されたか否かを判断する。画像P1の特徴点a〜aについての処理が完了していない場合には、ステップS301に戻り、次の特徴点を選択し、同様に、ステップS302〜S309までの処理を実行する。以降、CPU30aは、ステップS309での判断が肯定されるまで、ステップS302〜S309までの処理を繰り返し実行する。一方、画像P1の特徴点a〜aについての処理が完了した場合には、ステップS309での判断が肯定され、CPU30aは、サブルーチン2を終了し、次のステップS104に移行する。サブルーチン2が終了したときには、図10に示されるように、一群のオプティカルフローが規定された状態となっている。なお、図10には、6本の移動体101に関するオプティカルフローが示されているが、実際は、数十或いは数百本のオプティカルフローが規定される。
図12に戻り、次のステップS104では、CPU30aは、数十或いは数百本のオプティカルフローのうちから、ある程度のノイズ成分を多く含むオプティカルフローを除外し、残りのオプティカルフローをグルーピングする。例えば、移動体101が完全な直線運動をしている場合には、各オプティカルフローと一致する直線は一点(消失点)で交わるはずである。そこで、CPU30aは、オプティカルフローと一致する直線が、他のオプティカルフローと一致する直線群が収束する消失点から著しく離れている場合には、このオプティカルフローを除外し、残りの一群のオプティカルフローを同一の移動体に関連するオプティカルフローと見なしてグルーピングする。
次のステップS105では、CPU30aは、グルーピングされたオプティカルフローに基づいて、自車と移動体の距離、自車と移動体の相対速度及び相対移動方向などを検出し出力する。例えば、CPU30aは、一群のオプティカルフローの始点の配置と、終点の配置との相違から移動体の相対速度及び相対移動方向を検出し出力する。
以上説明したように、本第2の実施形態では、画像P1の特徴点を含むテンプレートTを用いたマッチング処理が行われる前に、画像P2に設定された探索領域からマッチング処理を行う対象となる特徴点が選択される。そして、選択された特徴点を含む画像についてのみ、テンプレートTを用いたマッチング処理が実行される。このため、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理を実行することができ、結果的に短時間に精度よく移動体を検出することが可能となる。
また、本第2の実施形態では、マッチング処理を実行することにより得られる相関値が高いと予想される領域についてのみ、マッチング処理が実行される。したがって、相互に特徴量が低い画像P1の特徴点と画像P2の特徴点とが、マッチング処理の誤りによって相互に対応づけられることを回避することが可能となる。
また、本第2の実施形態では、画像P1及び画像P2それぞれを構成する画素の特徴量と、特徴量の算出対象となる画素の周囲に存在する画素の平均輝度とを考慮して、画像P1及び画像P2から特徴点を抽出する。したがって、撮像された画像の明るさ、すなわち画像を構成する画素それぞれの輝度に関わらず精度よく特徴点を抽出することが可能となる。
以上、本発明の実施形態について説明したが、本発明は上記実施形態によって限定されるものではない。
例えば、上記各実施形態では、式(1)を用いて特徴量f(x、y)を算出したが、本発明はこれに限定されるものではない。例えば、特徴量は、いわゆるKLT特徴量min(λ1、λ2)であってもよい。この場合は、特徴量を上述した平均値AVG(x、y)を2乗したもので除することで比較値Vを算出することができる。なお、λ1及びλ2は、それぞれ下記の式(8)及び式(9)で示される。
Figure 0005365408
Figure 0005365408
なお、A〜Cは下記の式(10)で表される。ただし、Ix、Iyは、画像上の位置(x、y)における輝度I(x、y)のX軸方向及びY軸方向の勾配を示す。具体的には、下記の式(11)及び式(12)で表される。
Figure 0005365408
Figure 0005365408
Figure 0005365408
また、上記各実施形態に係る移動体認識装置30の機能は、専用のハードウェアによっても、また、通常のコンピュータシステムによっても実現することができる。
また、第2の実施形態において移動体認識装置30の補助記憶部30cに記憶されているプログラムは、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto-Optical disk)等のコンピュータで読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータにインストールすることにより、上述の処理を実行する装置を構成することとしてもよい。
また、プログラムをインターネット等の通信ネットワーク上の所定のサーバ装置が有するディスク装置等に格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するようにしても良い。
また、プログラムは、通信ネットワークを介して転送しながら起動実行することとしてもよい。
また、プログラムは、全部又は一部をサーバ装置上で実行させ、その処理に関する情報を通信ネットワークを介して送受信しながら、上述の画像処理を実行することとしてもよい。
なお、上述の機能を、OS(Operating System)が分担して実現する場合又はOSとアプリケーションとの協働により実現する場合等には、OS以外の部分のみを媒体に格納して配布してもよく、また、コンピュータにダウンロード等しても良い。
なお、本発明は、本発明の広義の精神と範囲を逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、上述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。
本発明の移動体認識装置、移動体認識方法及びプログラムは、移動体の認識に適している。
10 移動体認識システム
20 撮像装置
20a カメラ
30 移動体認識装置
30a CPU
30b 主記憶部
30c 補助記憶部
30d 表示部
30e 入力部
30f インターフェイス部
30g システムバス
31 記憶部
32 特徴点抽出部
33 探索領域設定部
34 特徴点選択部
35 相関値演算部
36 オプティカルフロー生成部
37 グルーピング処理部
38 移動体検出部
100 車両
101 移動体
P1,P2 画像
〜a 特徴点
〜b18 特徴点
MA マッチング領域
F 探索領域
T テンプレート

Claims (6)

  1. 移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する特徴量演算手段と、
    前記特徴量の算出対象となる算出対象画素の前記特徴量の、前記算出対象画素の周囲にある前記画素の平均輝度に対する割合が所定の値以上の場合に、前記算出対象画素に対応する前記特徴点を、前記第1画像及び前記第2画像それぞれから抽出する特徴点抽出手段と、
    前記第1画像の前記特徴点の前記特徴量と、前記第2画像の前記特徴点それぞれの前記特徴量との差分を演算し、前記差分が所定の範囲内となる前記第2画像の前記特徴点をそれぞれ選択する選択手段と、
    前記第1画像の前記特徴点と、前記選択された前記第2画像の前記特徴点それぞれとの相関値を演算する相関値演算手段と、
    前記第1画像の前記特徴点を始点とし、前記始点としての前記特徴点に対する前記相関値が最も高い前記第2画像の前記特徴点を終点とするオプティカルフローを生成するオプティカルフロー生成手段と、
    を備える移動体認識装置。
  2. 前記特徴量抽出手段は、
    前記算出対象画素の前記特徴量を、前記算出対象画素の周囲にある前記画素の平均輝度の2乗又は4乗で除して得られる値が、前記所定の値以上の場合に、前記算出対象画素に対応する前記特徴点を、前記第1画像及び前記第2画像それぞれから抽出する請求項1に記載の移動体認識装置。
  3. 前記第1画像の前記特徴点にそれぞれ対応する探索領域を、前記第2画像上にそれぞれ設定する探索領域設定手段を更に備え、
    前記選択手段は、前記探索領域内で前記第2画像の前記特徴点の選択を実行する請求項1又は2に記載の移動体認識装置。
  4. 前記相関値演算手段は、前記第1画像の前記特徴点を含む画像をテンプレートとし、
    前記テンプレートと、前記第2画像の前記特徴点を含む領域内の前記画像との前記相関値を算出する請求項1乃至のいずれか一項に記載の移動体認識装置。
  5. 移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する工程と、
    前記特徴量の算出対象となる算出対象画素の前記特徴量の、前記算出対象画素の周囲にある前記画素の平均輝度に対する割合を示す比較値を算出する工程と、
    前記比較値が所定の値以上の場合に、前記算出対象画素に対応する前記特徴点を、前記第1画像及び前記第2画像それぞれから抽出する工程と、
    前記第1画像の前記特徴点の前記特徴量と、前記第2画像の前記特徴点それぞれの前記特徴量との差分を演算し、前記差分が所定の範囲内となる前記第2画像の前記特徴点をそれぞれ選択する工程と、
    前記第1画像の前記特徴点と、前記選択された前記第2画像の前記特徴点それぞれとの相関値を演算する工程と、
    前記第1画像の前記特徴点を始点とし、前記始点としての前記特徴点に対する前記相関値が最も高い前記第2画像の前記特徴点を終点とするオプティカルフローを生成する工程と、
    を含む移動体認識方法。
  6. コンピュータを、
    移動する移動体を順次撮像して得られた第1画像及び第2画像それぞれを構成する画素についての特徴量を演算する手段と、
    前記特徴量の算出対象となる算出対象画素の前記特徴量の、前記算出対象画素の周囲にある前記画素の平均輝度に対する割合が所定の値以上の場合に、前記算出対象画素に対応する前記特徴点を、前記第1画像及び前記第2画像それぞれから抽出する手段と、
    前記第1画像の前記特徴点の前記特徴量と、前記第2画像の前記特徴点それぞれの前記特徴量との差分を演算し、前記差分が所定の範囲内となる前記第2画像の前記特徴点をそれぞれ選択する手段と、
    前記第1画像の前記特徴点と、前記選択された前記第2画像の前記特徴点それぞれとの相関値を演算する手段と、
    前記第1画像の前記特徴点を始点とし、前記始点としての前記特徴点に対する前記相関値が最も高い前記第2画像の前記特徴点を終点とするオプティカルフローを生成する手段と、
    として機能させるプログラム。
JP2009190474A 2009-08-19 2009-08-19 移動体認識装置、移動体認識方法及びプログラム Expired - Fee Related JP5365408B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009190474A JP5365408B2 (ja) 2009-08-19 2009-08-19 移動体認識装置、移動体認識方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009190474A JP5365408B2 (ja) 2009-08-19 2009-08-19 移動体認識装置、移動体認識方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011043922A JP2011043922A (ja) 2011-03-03
JP5365408B2 true JP5365408B2 (ja) 2013-12-11

Family

ID=43831321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009190474A Expired - Fee Related JP5365408B2 (ja) 2009-08-19 2009-08-19 移動体認識装置、移動体認識方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5365408B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010765A (ja) * 2012-07-02 2014-01-20 Sumitomo Electric Ind Ltd 移動体検出装置、画像式感知器及びコンピュータプログラム
EP2989611A4 (en) * 2013-04-25 2016-12-07 Harman Int Ind MOBILE OBJECT DETECTION
JP2017049742A (ja) 2015-09-01 2017-03-09 キヤノン株式会社 画像処理方法、画像処理装置、ロボット装置、プログラム、及び記録媒体
US11062174B2 (en) 2017-02-28 2021-07-13 Nec Solution Innovators, Ltd. Mobile entity detection apparatus, mobile entity detection method, and computer-readable recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764283A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths
JP2004005089A (ja) * 2002-05-31 2004-01-08 Mitsubishi Electric Corp 画像処理装置および画像処理方法
JP2005167657A (ja) * 2003-12-03 2005-06-23 Seiko Epson Corp 画像処理装置及び画像処理方法
US8300887B2 (en) * 2007-05-10 2012-10-30 Honda Motor Co., Ltd. Object detection apparatus, object detection method and object detection program
JP5034733B2 (ja) * 2007-07-13 2012-09-26 カシオ計算機株式会社 特徴点追跡装置及びプログラム

Also Published As

Publication number Publication date
JP2011043922A (ja) 2011-03-03

Similar Documents

Publication Publication Date Title
CN110363817B (zh) 目标位姿估计方法、电子设备和介质
US20070183665A1 (en) Face feature point detecting device and method
US20210329175A1 (en) Image processing system, image processing method, and program
CN108197567B (zh) 用于图像处理的方法、装置和计算机可读介质
EP3300025A1 (en) Image processing device and image processing method
KR20120044484A (ko) 이미지 처리 시스템에서 물체 추적 장치 및 방법
JP5365408B2 (ja) 移動体認識装置、移動体認識方法及びプログラム
KR20210049655A (ko) 특징맵 생성방법 및 특징맵 생성장치
JP6037134B2 (ja) 特徴点対応付けシステム、特徴点対応付け方法、およびプログラム
JP5048609B2 (ja) 対象物追跡装置及びプログラム
CN116071520A (zh) 一种数字孪生水务仿真模拟测试方法
JP2011089784A (ja) 物体方向推定装置
US9727145B2 (en) Detecting device and detecting method
KR101188296B1 (ko) 스트랩다운 이중 모드 영상탐색기의 가중치 기반 표적 결정 방법 및 이를 이용한 가중치 기반 표적 결정 시스템
JP2017033556A (ja) 画像処理方法及び電子機器
JP2012008657A (ja) 物体形状生成装置及び方法
JP2009187204A (ja) 画像処理装置
JP2015045919A (ja) 画像認識方法及びロボット
JP6393495B2 (ja) 画像処理装置および物体認識方法
CN108629786B (zh) 图像边缘检测方法及装置
CN115220636A (zh) 虚拟操作方法、装置、电子设备及可读存储介质
JP2022185872A (ja) 画像処理装置、画像処理方法、撮像装置
JP5397103B2 (ja) 顔位置検出装置、顔位置検出方法及びプログラム
US20170039698A1 (en) Pattern outline extraction device, pattern outline extraction method, and computer program product
JP6116916B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130826

LAPS Cancellation because of no payment of annual fees