JP6869672B2 - 物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム - Google Patents

物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム Download PDF

Info

Publication number
JP6869672B2
JP6869672B2 JP2016179154A JP2016179154A JP6869672B2 JP 6869672 B2 JP6869672 B2 JP 6869672B2 JP 2016179154 A JP2016179154 A JP 2016179154A JP 2016179154 A JP2016179154 A JP 2016179154A JP 6869672 B2 JP6869672 B2 JP 6869672B2
Authority
JP
Japan
Prior art keywords
frame
feature points
recognized
feature point
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016179154A
Other languages
English (en)
Other versions
JP2018045405A (ja
Inventor
ウィドド アリ
ウィドド アリ
浩史 土井
浩史 土井
福田 弘之
弘之 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2016179154A priority Critical patent/JP6869672B2/ja
Publication of JP2018045405A publication Critical patent/JP2018045405A/ja
Application granted granted Critical
Publication of JP6869672B2 publication Critical patent/JP6869672B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、連続撮影により得られた撮影画像において物体を追従する物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラムに関する。
近年、ドアミラーやルームミラーの代わりにカメラとディスプレイを用いた電子ミラーシステムを搭載した自動車が開発されている。カメラは、例えば車両の側部又は後部に取り付けられ、車両の側方ないし後方の他の車両等を撮影し、ディスプレイに表示する。ドライバは、ドアミラーやルームミラーの代わりにこのディスプレイを視認することで、自車両の周囲の状況を把握できる。
この電子ミラーシステムを用いて、自車両の周囲の他の車両や歩行者を検知し、ドライバに警報を発し、あるいはドライブアシスト(自動ブレーキ、車線変更の制限等)を作動させるシステムも開発されている。車両や歩行者を検知するためには、設置されたカメラから撮影され得る車両や人物のサンプル画像を多数用意して、機械学習によってこれらのサンプル画像を学習しておく必要がある。
しかしながら、自車両と他の車両等との位置関係によって、カメラから撮影され得る車両や人物の見え方(大きさ、角度等)は様々であり、これらの種々の見え方に対応するために、多くのサンプル画像を学習する必要がある。
一方、いったん対象の物体(車両等)を検出した後の後続フレームにおいて、検出した物体を追従することで、当該物体を認識する技術が知られている。
しかしながら、物体を追従する際に、物体の見え方の変化や部分的な隠れ(オクルージョン)によって追従が失敗することがある。
本発明は、上記の問題点に鑑みてなされたものであり、追従対象物体の見え方の変化や部分的な隠れが生じた場合の追従の継続性を向上させることを目的とする。
本発明の一態様の物体追従システムは、車両に設置され、前記車両の外部を連続的に撮影して撮影画像を生成するカメラと、前記撮影画像において認識対象の物体を追従する物体追従装置とを備えた物体追従システムであって、前記物体追従装置は、前記撮影画像の第1フレームから前記物体を検出する物体検出部と、前記第1フレームから前記物体の特徴点を抽出する特徴点抽出部と、前記第1フレームの次の第2フレームにおいて、前記物体を追従する追従処理部とを備え、前記追従処理部は、前記第2フレームにおいて特徴点を抽出し、前記第1フレームの特徴点を前記第2フレームの特徴点と照合して対応特徴点を求めることで、前記物体を追従し、かつ、前記第2フレームの次の第3フレームのために、前記第2フレームにおいて新たな特徴点を追加する。
この構成により、第2フレームにおいて、単に特徴点を抽出して第1フレームの特徴点と照合して対応特徴点を求めるだけでなく、新たな特徴点を追加するので、認識対象の見え方が変化したり、部分隠れが生じたりしても、第3フレームにおいて認識対象を追従しやすくなる。
前記追従処理部は、前記第2フレームの特徴点についてブロック照合を行うことで、前記第1フレームの特徴点の近傍にある前記第2フレームの特徴点を前記対応特徴点としてよい。
この構成により、位置が大きくずれているが偶然に対応すると判定されてしまった対応特徴点(誤対応特徴点)をアウトライアとして除去することで、対応特徴点の精度を向上できる。
前記追従処理部は、前記第1フレームにて検出された物体を含むように前記第2フレームに設定された注目領域にて前記特徴点を抽出してよい。
この構成により、物体の追従に必要な特徴点を適切に抽出できる。
前記追従処理部は、前記第2フレームの前記対応特徴点に基づいて、前記第3フレームのために前記注目領域を移動し、移動された前記注目領域から前記第3フレームのために追加する特徴点を抽出してよい。
この構成により、追加すべき特徴点を適切に抽出することができる。
前記追従処理部は、前記第2フレームにおいて所定数の前記特徴点を抽出し、前記特徴点として抽出されたが前記対応特徴点とされなかった前記特徴点を補う数の新たな前記特徴点を前記第3フレームのために追加してよい。
この構成により、フレームが進んで認識対象の見え方が変化するごとに、新たに次のフレームのための特徴点を追加して、常に所定数の特徴点を用意するので、比較的長く追従を持続することが可能となる。
本発明の一態様の物体追従装置は、車両に設置されたカメラにて前記車両の外部を連続的に撮影して生成された撮影画像を取得し、前記撮影画像において認識対象の物体を追従する物体追従装置であって、前記撮影画像の第1フレームから前記物体を検出する物体検出部と、前記第1フレームから前記物体の特徴点を抽出する特徴点抽出部と、前記第1フレームの次の第2フレームにおいて特徴点を抽出し、前記第1フレームの特徴点を前記第2フレームの特徴点と照合して対応特徴点を求めることで、前記物体を追従し、かつ、前記第2フレームの次の第3フレームのために、前記第2フレームにおいて新たな特徴点を追加する。
この構成によっても、第2フレームにおいて、単に特徴点を抽出して第1フレームの特徴点と照合して対応特徴点を求めるだけでなく、新たな特徴点を追加するので、認識対象の見え方が変化したり、部分隠れが生じたりしても、第3フレームにおいて認識対象を追従しやすくなる。
本発明の一態様の物体追従方法は、車両に設置されたカメラで、前記車両の外部を連続的に撮影して撮影画像を生成するステップと、前記撮影画像の第1フレームから認識対象の物体を検出するステップと、前記第1フレームから前記物体の特徴点を抽出するステップと、前記第1フレームの次の第2フレームにおいて特徴点を抽出するステップと、前記第1フレームの特徴点を前記第2フレームの特徴点と照合して対応特徴点を求めることで、前記物体を追従するステップと、前記第2フレームの次の第3フレームのために、前記第2フレームにおいて新たな特徴点を追加するステップとを含む。
この構成によっても、第2フレームにおいて、単に特徴点を抽出して第1フレームの特徴点と照合して対応特徴点を求めるだけでなく、新たな特徴点を追加するので、認識対象の見え方が変化したり、部分隠れが生じたりしても、第3フレームにおいて認識対象を追従しやすくなる。
本発明の一態様の物体追従プログラムは、車両に設置されたカメラにて前記車両の外部を連続的に撮影して生成された撮影画像を取得し、前記撮影画像において認識対象の物体を追従する物体追従装置のコンピュータを、前記撮影画像の第1フレームから前記物体を検出する物体検出部、前記第1フレームから前記物体の特徴点を抽出する特徴点抽出部、及び前記第1フレームの次の第2フレームにおいて特徴点を抽出し、前記第1フレームの特徴点を前記第2フレームの特徴点と照合して対応特徴点を求めることで、前記物体を追従し、かつ、前記第2フレームの次の第3フレームのために、前記第2フレームにおいて新たな特徴点を追加する追従処理部として機能させる。
この構成によっても、第2フレームにおいて、単に特徴点を抽出して第1フレームの特徴点と照合して対応特徴点を求めるだけでなく、新たな特徴点を追加するので、認識対象の見え方が変化したり、部分隠れが生じたりしても、第3フレームにおいて認識対象を追従しやすくなる。
本発明は、第2フレームにおいて、単に特徴点を抽出して第1フレームの特徴点と照合して対応特徴点を求めるだけでなく、新たな特徴点を追加するので、認識対象の見え方が変化したり、部分隠れが生じたりしても、第3フレームにおいて認識対象を追従しやすくなる。
本発明の実施の形態の物体追従システムの構成を示すブロック図 本発明の実施の形態の車両の右側のドアに設置されたカメラで撮影された画像の例を示す図 本発明の実施の形態の車両の右側のドアに設置されたカメラで撮影された画像の他の例を示す図 本発明の実施の形態の物体追従装置における処理を示すフロー図 本発明の実施の形態の物体追従装置における処理例を示すフロー図 本発明の実施の形態の特徴点の抽出処理の例を示す図 本発明の実施の形態の物体検出結果(検出された物体の位置と大きさ)とROIとの関係の例を示す図 本発明の実施の形態の設定されたROIから抽出された特徴点の例を示す図 本発明の実施の形態の照合の処理を示す図 本発明の実施の形態の現フレーム(フレームt+1)から画像領域を切り出す処理を示す図 本発明の実施の形態のブロック照合の処理を示す図 本発明の実施の形態のマッチングスコアと正誤判定との関係の例を示す表 (a)本発明の実施の形態の第1の手法で次フレームのためのROIを設定する処理を示す図 (b)本発明の実施の形態の第2の手法で次フレームのためのROIを設定する処理を示す図 (c)本発明の実施の形態の第3の手法で次フレームのためのROIを設定する処理を示す図 本発明の実施の形態の新たな特徴点の追加の処理を示す図
以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。
図1は、本実施の形態の物体追従システムの構成を示すブロック図である。物体追従システム1は、カメラ10と物体追従装置20とからなる。カメラ10は、車両に設置されて、車両の外部を撮影する。カメラ10は、車両の左右の側方ないし後方を撮影するように運転席及び助手席のドアに設置されてよく、車両の後方を撮影するように車両の後部に設置されてよい。カメラ10は、連続的に撮影をして画像を生成し、生成した画像(撮影画像)を物体追従装置20に供給する。また、撮影画像は、図示しないディスプレイに送られて、ディスプレイで表示されてよい。このディスプレイは、例えばドライバが確認できるように車両内の適切な位置に設置される。
図2は、車両の右側のドアに設置されたカメラ10で撮影された画像の例を示す図である。このカメラ10は、自車両の右側方から右斜め後ろにかけての範囲を撮影可能であり、撮影画像には自車両501の右側後方部分も映り込んでいる。図2の例では、自車両の走行車線よりも右側の車線を自車両よりも速い速度で走行する他車両502が撮影されている。すなわち、フレームt−m(時刻t−m)では、自車両501の右側後方の遠方を走行しており撮影画像において小さく映っていた他車両502は、フレームt−n(時刻t−n)(m>n)では自車両501に近づいてきており、フレームt(時刻t)では、自車両501の右斜め後ろにまで達している。
図3は、車両の右側のドアに設置されたカメラ10で撮影された画像の他の例を示す図である。図3の例では、フレームt(時刻t)でほぼ全体が映っていた他車両501がフレームt+1(時刻t+1)では、他車両501の前方部分は見切れてしまって撮影画像には映っていない(部分隠れの一種)。
連続するフレームの撮影画像において、図2及び図3のように変化する他車両502をフレームごとに、機械学習を用いた従来の物体検出の手法によって検出することも可能であるが、本実施の形態では、前のフレームの物体認識の結果を利用して物体を認識するという物体追従の手法を用い、初期フレーム及び追従ができなくなったときに従来の物体検出を行う。
物体追従装置20は、記憶装置、RAM、ROM、演算処理装置等を備えたコンピュータによって構成される。演算処理装置が記憶装置に記憶された物体追従プログラムを読み出して実行することで、図1に示すように、物体追従装置20に、物体検出部21、特徴点抽出部22、及び追従処理部23が構成される。物体追従装置20からは撮影画像から物体を認識した結果である物体認識結果が出力される。
物体認識結果を入力としてさらに情報処理が行われ、種々のドライブアシストが行われてよい。例えば、物体認識結果において、他の車両が認識されたときに、撮影画像に対して認識された他の車両を囲む枠を重畳した画像を生成して、これをディスプレイに表示してよい。また、認識された他の車両の撮影画像内の位置及び大きさに応じて、車線変更のためのハンドリングを制限してもよい。さらに、複数フレームの物体認識結果を時系列に処理することで、他の車両と自車両との相対速度を求め、更に、衝突余裕時間(Time To Collision)を求めて、必要に応じて警報を発し、あるいは自動ブレーキを作動させてもよい。本実施の形態では、上述のように種々の応用が可能な物体認識結果を得るための物体追従システム1を説明する。
物体検出部21は、撮影画像から、認識対象としてあらかじめ設定された特定の対象である物体を検出する。認識対象としては、例えば、歩行者、他の車両(自転車、オートバイ、自動車等)が挙げられる。特徴点抽出部22は、撮影画像のうちの、物体検出部21にて検出された物体を囲む矩形領域から特徴点を抽出する。追従処理部23は、連続するフレームとして得られる撮影画像において、前のフレームにおける物体認識結果を利用して、同一の認識対象を検出することにより、複数のフレームにわたって同一の対象を認識する追従処理を行う。
追従処理部23において追従が成功したフレームの追従結果、及び追従処理部23において追従ができないフレームについて物体検出部21において検出が成功したフレームの検出結果は、物体認識結果として物体追従装置20から出力される。
図4は、物体追従装置における処理を示すフロー図であり、図5は、物体追従装置における処理例を示すフロー図である。物体処理装置20が図4に示す物体追従処理を実行するために、カメラ10は所定のフレームレートで連続して画像を撮影して、順次撮影画像を物体追従装置20に送信し、物体追従装置20は、カメラ10から撮影画像を取得する。本実施の形態では、ステップS301〜S312の処理は、カメラ10で撮影画像が得られるごとに(フレームごとに)実行されるが、所定フレーム間隔で(例えば3フレームおきに)以下の処理を行ってもよい。
処理がスタートすると、物体追従装置20は、カメラ10から撮影画像を取得し、最新のフレームを現フレーム(処理対象のフレーム)とする(ステップS301)。物体追従装置20は、現フレームが初期フレーム、すなわち、処理がスタートしてから最初のフレームであるか否かを判断する(ステップS302)。
初期フレーム(フレームt)である場合は(ステップS302でYES)、物体検出部21が撮影画像から認識対象である物体を検出する(ステップS303、ステップS410)。物体検出部21は、従来の機械学習の手法によって認識対象である物体を検出する。
物体追従装置20は、物体検出部21にて物体の検出に成功したか否かを判断する(ステップS304)。物体の検出に成功した場合には(ステップS304でYES)、特徴点抽出部22が、検出された物体を囲む矩形領域から特徴点を抽出する(ステップS305、ステップS420)。特徴点を抽出する手法としては、ハリスコーナー検出法等の従来の手法を用いることができる。
具体的には、特徴点抽出部22は、従来の手法によって矩形領域から特徴点を抽出し(ステップS421)、さらに、抽出した複数の特徴点を強度によってソートして、上位N個(例えば、N=30)の特徴点を選択する(ステップS422)。図6は、特徴点の抽出処理の例を示す図である。図6の上段は、従来の手法によって抽出された複数の特徴点(ステップS421)の例を示しており、下段はそれらの特徴点から選択された強度の大きい上位N個の特徴点(ステップS422)の例を示している。
特徴点抽出部22にて特徴点を抽出すると、物体追従装置20は、追従可能フラグを「1」(追従可)に設定し(ステップS306)、ステップS301に戻って次のフレームの撮影画像を取得する。物体の検出が成功しなかった場合には(ステップS304でNO)、追従可能フラグを「0」(追従不可)に設定して(ステップS307)、ステップS301に戻って次のフレームの撮影画像を取得する。
第2フレーム(フレームt+1)以降は(ステップS302にてNO)、追従可能であるか否かを追従フラグによって確認し(ステップS308)、追従不可、すなわち追従フラグが「0」である場合は(ステップS308でNO)、初期フレームと同様に物体の検出を行い(ステップS303)、追従可能、すなわち追従フラグが「1」である場合は(ステップS308でYES)、追従処理部23で物体の追従を行う(ステップS309、ステップS430)。以下、追従処理部23における物体の追従処理(ステップS309、ステップS430)を詳細に説明する。
追従処理S430では、まず、撮影画像に対してROI(Region of Interest:注目領域)が設定される(ステップS431)。前フレームが初期フレームであり、又は前フレームで追従フラグが「0」(追従不可)であった場合には、ROIが設定されていないので、ROI設定は物体検出結果に基づいて行う。追従処理部23には、予め物体検出結果(検出した物体を囲む枠の位置及び大きさ)とROIとの関係が規定されており、追従処理部23はこれに従って、物体検出結果に基づいてROIを設定する。
図7は、物体検出結果(検出された物体の位置と大きさ)とROIとの関係の例を示す図である。図7に示すように、ROI602は、物体を囲む枠(検出物体枠)601の全体を含む位置及び大きさに設定される。また、本実施の形態では、道路が平面であることを考慮して、ROI602の形状は上下方向に比べて左右方向が長い矩形とされる。なお、このROIの設定(ステップS431)は省略して、撮影画像の全領域を後続の処理の対象としてよい。
次に、追従処理部23は、設定されたROIから特徴点を抽出する(ステップS432)。ここでの特徴点抽出処理もステップS305と同様に、従来の手法を用いることができる。図8は、設定されたROIから抽出された特徴点の例を示す図である。上述のように、ROI602は、検出物体枠の全体を含み、かつ、検出物体枠以外の部分も含んでいるが、図8に示すように、特徴点は、検出物体枠の外側からも抽出される。
次に、追従処理部23は、前フレーム(フレームt)で抽出された特徴点(ステップS420)と、現フレーム(フレームt+1)のROIから抽出された特徴点とを照合する(ステップS433)。図9は、特徴点の照合の処理を示す図である。照合では、前フレームの各特徴点について、それに対応する現フレームの特徴点を探索する。
特徴点の照合には従来の手法を用いることができる。例えば、各特徴点について、バイナリコードで表現可能な局所特徴量を求めて、前フレーム(フレームt)の特徴点の局所特徴量と現フレーム(フレームt+1)の特徴点の局所特徴量とのハミング距離が所定の閾値以下の組み合わせについて、対応する特徴点であると決定することができる(安倍満、吉田悠一、“高速かつメモリ消費量の少ない局所特徴量 CARD: Compact And Real-time Descriptors”、デンソーテクニカルレビュー Vol. 18 2013)。
次に、追従処理部23は、照合された特徴点(即ち、前フレームの特徴点及びそれと対応すると決定された現フレームの特徴点、以下「対応特徴点」という。)のうちの現フレームの対応特徴点について、それを中心とした矩形の画像領域(パッチ)を切り出す(ステップS434)。本実施の形態では、正方形(m[ピクセル]×m[ピクセル])の画像領域を切り出す。また、本実施の形態では、m=5とする。
図10は、現フレーム(フレームt+1)から画像領域を切り出す処理を示す図である。図10の上段は、現フレーム(フレームt+1)における対応特徴点を示しており、下段は、上段の撮影画像の枠内を拡大して表示したものであり、各対応特徴点を中心として切出された画像領域(切出画像領域)を示している。
次に、追従処理部23は、各対応特徴点の切出画像領域を用いて前フレーム(フレームt)でブロック照合を行う(ステップS435)。このブロック照合のために、前フレームにおいて、対応特徴点を中心とする探索画像領域を設定する。本実施の形態では、前フレームの対応特徴点を中心とする正方形(k[ピクセル]×k[ピクセル])の領域を探索画像領域として設定する。また、本実施の形態では、k=37とする。
追従処理部23は、前フレームに設定された探索画像領域において、現フレームの切出画像領域をスライドさせながらブロック照合を行う。ブロック照合の手法としては、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、NCC(Normalized Cross-Correlation:正規化相互相関)等の従来のテンプレートマッチングの手法を用いることができる。
追従処理部23は、照合(マッチング)の結果(マッチングスコア)が所定の閾値以上である場合には、切出画像領域に対応する画像領域があると判断する。本実施の形態では、NCCを採用する。NCCでは、出力値(マッチングスコア)は0.0〜1.0で得られる。
図11は、ブロック照合の処理を示す図である。図11において、現フレームの特徴点P21と前フレームの特徴点P11とは互いに対応する特徴点である。追従処理部23は、図11に示すように、現フレームにおける対応特徴点P21を中心として切り出された切出し画像領域A21を、前フレームの探索画像領域A11においてスライドさせながら照合を行う。この探索画像領域A11は、現フレームにおける対応特徴点P21に対応する前フレームの対応特徴点P11の位置を中心として、切出画像領域A21よりも広い領域として設定される。
次に、追従処理部23は、ブロック照合の結果(マッチングスコア)が所定の閾値未満である対応特徴点の組を誤対応と判断して、その対応特徴点を削除する(ステップS436)。ブロック照合の結果が所定の閾値以上である場合は、それらの対応特徴点の組を正対応と判断する。現フレームの対応特徴点P21と前フレームの対応特徴点P11とが撮影画像内で大きく離れている場合には、このブロック照合の結果が低くなり、誤対応であることが分かる。
換言すれば、現フレームにおいて、前フレームの対応特徴点P11の位置の近傍にある対応特徴点P21を正対応の対応特徴点(正対応特徴点)と判定する。本実施の形態では、NCCの出力値が、0.5未満である場合には、その対応特徴点を誤対応の対応特徴点(誤対応特徴点)と判断して削除し、0.5以上である場合には、その対応特徴点を正対応特徴点と判断して維持する。
図12は、マッチングスコアと正誤判定との関係の例を示す表である。図12の例では、現フレームの座標(100,150)にある対応特徴点は、マッチングスコア(NCCの出力値)が0.5であるので、正対応特徴点と判定され、現フレームの座標(105,140)にある対応特徴点は、マッチングスコアが0.48であるので、誤対応特徴点と判定され、現フレームの座標(90,120)にある対応特徴点は、マッチングスコアが0.3であるので、誤対応特徴点と判定され、現フレームの座標(112,134)にある対応特徴点は、マッチングスコアが0.8であるので、正対応特徴点と判定されている。
次に、追従処理部23は、複数の対象特徴点のブロック照合の判定結果に基づいて、追従の成否を判定する(ステップS437)。この処理では、追従処理部23は、誤対応特徴点の数が、全対応特徴点の数Nの1/2以下であれば、追従成功と判定して追従フラグを「1」(追従可)にし(ステップS311)、誤対応特徴点の数がN/2より多い場合は追従失敗と判定して追従フラグを「0」(追従不可)にする(ステップS307)。本実施の形態では、N=30であるので、追従処理部23は、誤対応特徴点の数が、15以下であれば追従成功と判定し、16以上であれば追従失敗と判定する。
次に、追従処理部23は、正対応特徴点に基づいて次フレーム(フレームt+2)のROIを設定する(ステップS438)。次フレームのROIの設定方法としては、以下のいずれかを用いることができる。
(1)現フレーム(フレームt+1)の正対応特徴点の位置情報を平均化して、新たに設定するROIの基準位置(例えば中心)とする。
(2)前フレーム(フレームt)の正対応特徴点から現フレーム(t+1)の対応する正対応特徴点に向かうベクトル(オプティカルフロー)を各正対応特徴点の組について求めて、その平均ベクトルを求め、現フレームのROIを当該平均ベクトルだけ移動させて、新たに設定するROIとする。
(3)(1)の位置情報を平均した位置から、(2)の平均ベクトルだけ移動させた位置を新たに設定するROIの基準位置(例えば中心)とする。
なお、(1)〜(3)のいずれにおいても、ROIのサイズは現フレームのROIのサイズと同じとすることができるが、ROIのサイズを可変にしてもよい。具体的には、ROIのサイズは、オプティカルフローの向き情報に基づいて変更してよい。例えば、オプティカルフローの向きがROIの外側に向いている場合には、サイズを、例えば1.1倍に拡大し、オプティカルフローの向きがROIの内側に向いている場合には、サイズを、例えば0.9倍に縮小する等の方法でROIのサイズを変更することができる。
図13(a)は、上記(1)の手法で次フレームのためのROIを設定する処理を示す図である。次フレームのROI1202は、正対応特徴点の位置情報の平均(座標)P0を中心とする位置に設定され、この結果、現フレームのROI1201は次フレームのROI1202の位置まで移動する。
図13(b)は、上記(2)の手法で次フレームのためのROIを設定する処理を示す図である。各正対応特徴点のオプティカルフローV1201が求められ、現フレームのROI1203がこのオプティカルフローV1201だけ平行移動して、次フレームのためのROI1204とされる。この結果、現フレームのROI1203は、次フレームのROI1204の位置まで移動する。
図13(c)は、上記(3)の手法で次フレームのためのROIを設定する処理を示す図である。正対応特徴点の位置情報の平均(座標)P0が求められ、このP0を各正対応特徴点のオプティカルフローV1201で移動させ、移動後の点P0´が次フレームのROI1206の中心とされる。この結果、現フレームのROI1205は、次フレームのROI1206の位置まで移動する。
次に、追従処理部23は、新たに設定された次フレーム用のROI内から、正対応特徴点と合わせてN個になるように、新たな特徴点を抽出する(ステップS439)。特徴点を抽出する手法はステップS421と同様に従来の手法を用いることができる。追従処理部23は、従来の手法によって抽出された特徴点の中から、現フレームですでに対応特徴点とされた特徴点を除いて、現フレームの正対応特徴点と合わせてN個になるまで、強度の大きい方から順に追加する特徴点として選択していく。
図14は、新たな特徴点の追加の処理を示す図である。次フレームのROIは左側にずれているので、図14に示すように、新たな特徴点は、概ね正対応特徴点の右側に追加されている。
物体追従装置20は、次のフレームの撮影画像を取得して(ステップS301)、上記と同様の処理(ステップS432〜ステップS439)を繰り返す。ただし、次フレーム(フレームt+2)のROIはすでに設定されているので、ステップS431は繰り返す必要はない。
以上のように、本実施の形態の物体追従装置20は、単に特徴点を抽出して前フレームの特徴点と照合して対応特徴点を求めるだけでなく(ステップS432〜S433)、新たな特徴点を追加するので(ステップS439)、次フレームにおいて認識対象の物体の見え方が変化したり、部分隠れが生じたりしても、認識対象を追従しやすくなる。すなわち、このような新たな特徴点の追加が行われない場合には、フレームごとに認識対象の見え方の変化や部分隠れによって、徐々に対応特徴点の数が減少していってしまい、すぐに追従に失敗してしまうが、本実施の形態の物体追従装置によれば、フレームが進んで認識対象の見え方が変化するごとに、新たに次のフレームのための特徴点を追加して、常にN個の特徴点を用意するので、比較的長く追従を持続することが可能となる。
さらに、上記の実施の形態では、ブロック照合を行うことで対応特徴点の中から誤対応特徴点を削除するので(ステップS434〜S436)、位置が大きくずれているが偶然に対応すると判定されてしまった対応特徴点(誤対応特徴点)をアウトライアとして除去し、前フレーム(フレームt)の特徴点の近傍にある現フレーム(t+1)の特徴点のみを正対応特徴点として残すので、対応特徴点の精度を向上できる。
また、上記の実施の形態では、正対応特徴点に基づいて次フレームのための新たなROIを設定した上で(ステップS438)、この新たなROIから次フレームのために追加する特徴点を抽出するので、追加する特徴点を適切に抽出することができる。
なお、上記の実施の形態に対して種々の変形が可能であり、本発明は上記の実施の形態に限定されるものではない。例えば、上記の実施の形態では、ブロック照合により対応特徴点の中からアウトライアを除去したが、この処理を省略してもよい。また、ROIを大きく設定することで、ROIの移動をしないようにしてもよい。
本発明は、第2フレームにおいて、単に特徴点を抽出して第1フレームの特徴点と照合して対応特徴点を求めるだけでなく、新たな特徴点を追加するので、認識対象の見え方が変化したり、部分隠れが生じたりしても、第3フレームにおいて認識対象を追従しやすくない、物体追従システム等として有用である。
1 物体追従システム
10 カメラ
20 物体追従装置
21 物体検出部
22 特徴点抽出部
23 追従処理部

Claims (7)

  1. 車両に設置され、前記車両の外部を連続的に撮影して撮影画像を生成するカメラと、
    前記撮影画像において認識対象の物体を追従する物体追従装置と、
    を備えた物体追従システムであって、
    前記物体追従装置は、
    前記撮影画像の第1フレームから前記認識対象の物体を検出する物体検出部と、
    前記第1フレームから前記物体検出部にて検出された前記認識対象の物体の特徴点を抽出する特徴点抽出部と、
    前記第1フレームの次の第2フレームにおいて、前記認識対象の物体を追従する追従処理部と、
    を備え、
    前記追従処理部は、前記第2フレームにおいて特徴点を抽出し、前記第1フレームの特徴点を前記第2フレームの特徴点と照合して対応特徴点を求めることで、前記認識対象の物体を追従し、かつ、前記第2フレームの次の第3フレームのために、前記第2フレームにおいて新たな特徴点を追加し、
    前記追従処理部は、前記第1フレームにて検出された前記認識対象の物体を含むように前記第2フレームに設定された注目領域にて前記特徴点を抽出する、物体追従システム。
  2. 前記追従処理部は、前記第2フレームの特徴点についてブロック照合を行うことで、前記第1フレームの特徴点の近傍にある前記第2フレームの特徴点を前記対応特徴点とする、請求項1に記載の物体追従システム。
  3. 前記追従処理部は、前記第2フレームの前記対応特徴点に基づいて、前記第3フレームのために前記注目領域を移動し、移動された前記注目領域から前記第3フレームのために追加する特徴点を抽出する、請求項1に記載の物体追従システム。
  4. 前記追従処理部は、前記第2フレームにおいて所定数の前記特徴点を抽出し、前記特徴点として抽出されたが前記対応特徴点とされなかった前記特徴点を補う数の新たな前記特徴点を前記第3フレームのために追加する、請求項3に記載の物体追従システム。
  5. 車両に設置されたカメラにて車両の外部を連続的に撮影して生成された撮影画像を取得し、前記撮影画像において認識対象の物体を追従する物体追従装置であって、
    前記撮影画像の第1フレームから前記認識対象の物体を検出する物体検出部と、
    前記第1フレームから前記物体検出部にて検出された前記認識対象の物体の特徴点を抽出する特徴点抽出部と、
    前記第1フレームの次の第2フレームにおいて特徴点を抽出し、前記第1フレームの特徴点を前記第2フレームの特徴点と照合して対応特徴点を求めることで、前記認識対象の物体を追従し、かつ、前記第2フレームの次の第3フレームのために、前記第2フレームにおいて新たな特徴点を追加し、前記第1フレームにて検出された前記認識対象の物体を含むように前記第2フレームに設定された注目領域にて前記特徴点を抽出する追従処理部と、
    を備えた、物体追従装置。
  6. 車両に設置されたカメラで、車両の外部を連続的に撮影して撮影画像を生成するステップと、
    前記撮影画像の第1フレームから認識対象の物体を検出するステップと、
    前記第1フレームから前記認識対象の物体を検出ステップにて検出された前記認識対象の物体の特徴点を抽出するステップと、
    前記第1フレームの次の第2フレームにおいて特徴点を抽出するステップと、
    前記第1フレームの特徴点を前記第2フレームの特徴点と照合して対応特徴点を求めることで、前記認識対象の物体を追従するステップと、
    前記第2フレームの次の第3フレームのために、前記第2フレームにおいて新たな特徴点を追加するステップと、
    を含み、
    前記特徴点を抽出するステップは、前記第1フレームにて検出された前記認識対象の物体を含むように前記第2フレームに設定された注目領域にて前記特徴点を抽出する、物体追従方法。
  7. 車両に設置されたカメラにて車両の外部を連続的に撮影して生成された撮影画像を取得し、前記撮影画像において認識対象の物体を追従する物体追従装置のコンピュータを、
    前記撮影画像の第1フレームから前記認識対象の物体を検出する物体検出部、
    前記第1フレームから前記物体検出部にて検出された前記認識対象の物体の特徴点を抽出する特徴点抽出部、及び
    前記第1フレームの次の第2フレームにおいて特徴点を抽出し、前記第1フレームの特徴点を前記第2フレームの特徴点と照合して対応特徴点を求めることで、前記認識対象の物体を追従し、かつ、前記第2フレームの次の第3フレームのために、前記第2フレームにおいて新たな特徴点を追加し、前記第1フレームにて検出された前記認識対象の物体を含むように前記第2フレームに設定された注目領域にて前記特徴点を抽出する追従処理部、
    として機能させる物体追従プログラム。
JP2016179154A 2016-09-14 2016-09-14 物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム Active JP6869672B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016179154A JP6869672B2 (ja) 2016-09-14 2016-09-14 物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016179154A JP6869672B2 (ja) 2016-09-14 2016-09-14 物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム

Publications (2)

Publication Number Publication Date
JP2018045405A JP2018045405A (ja) 2018-03-22
JP6869672B2 true JP6869672B2 (ja) 2021-05-12

Family

ID=61693100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016179154A Active JP6869672B2 (ja) 2016-09-14 2016-09-14 物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム

Country Status (1)

Country Link
JP (1) JP6869672B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020080535A1 (ja) * 2018-10-18 2020-04-23 国立研究開発法人科学技術振興機構 対象追跡方法、対象追跡システムおよび対象追跡プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2667885B2 (ja) * 1988-11-01 1997-10-27 住友重機械工業株式会社 移動物体の自動追尾装置
JP2003115052A (ja) * 2001-10-09 2003-04-18 National Institute Of Advanced Industrial & Technology 画像処理方法及び画像処理装置
JP4025556B2 (ja) * 2002-02-28 2007-12-19 日本電信電話株式会社 特徴点追跡画像決定装置、特徴点追跡画像決定方法、この方法のプログラム、およびこのプログラムを記録した記録媒体
JP2006318345A (ja) * 2005-05-16 2006-11-24 Sony Corp 物体追跡方法、物体追跡方法のプログラム、物体追跡方法のプログラムを記録した記録媒体及び物体追跡装置
JP5394952B2 (ja) * 2010-03-03 2014-01-22 セコム株式会社 移動物体追跡装置
JP2015230515A (ja) * 2014-06-03 2015-12-21 株式会社ニコン 被写体追尾装置およびカメラ
JP2016012226A (ja) * 2014-06-27 2016-01-21 トヨタ自動車株式会社 対象物認識装置

Also Published As

Publication number Publication date
JP2018045405A (ja) 2018-03-22

Similar Documents

Publication Publication Date Title
US8994823B2 (en) Object detection apparatus and storage medium storing object detection program
US8958600B2 (en) Monocular 3D pose estimation and tracking by detection
CN110659543B (zh) 基于手势识别的车辆控制方法、系统及车辆
Keller et al. The benefits of dense stereo for pedestrian detection
US8005266B2 (en) Vehicle surroundings monitoring apparatus
US20150161796A1 (en) Method and device for recognizing pedestrian and vehicle supporting the same
US10192444B2 (en) Forward collision warning system and method
JP2016148962A (ja) 物体検知装置
JP2011257984A (ja) 対象物検出装置及びプログラム
JP5894201B2 (ja) 境界線認識装置
KR20090098167A (ko) 거리센서를 이용한 차선인식 방법 및 그 시스템
KR20150002038A (ko) 하라이크 특징과 아다브스트에 기반한 칼만 필터와 클러스터링 알고리즘을 이용하여 실시간으로 차량을 인식 및 추적하는 방법
WO2016059643A1 (en) System and method for pedestrian detection
CN114219829A (zh) 车辆跟踪方法、计算机设备及存储装置
JP6869672B2 (ja) 物体追従システム、物体追従装置、物体追従方法、及び物体追従プログラム
JP2008226163A (ja) 車両の安全装置
JP2012118683A (ja) 歩行者認識装置
JP2004259215A (ja) 顔検出システムとその方法
JP2010072947A (ja) 障害物検出装置
KR20140104516A (ko) 차선 인식 방법 및 장치
JP4772622B2 (ja) 周辺監視システム
KR20170138842A (ko) 템플릿 매칭 기반의 차량 추적 시스템 및 방법
JP5829155B2 (ja) 歩行者検出装置及びプログラム
Park et al. TLD based vehicle tracking system for AR-HUD using HOG and online SVM in EHMI
KR102267256B1 (ko) 장애물 검출 방법, 장치 및 그를 컴퓨터 판독 가능한 기록매체

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200430

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200515

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200519

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20200605

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20200609

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200908

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210302

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210406

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210414

R150 Certificate of patent or registration of utility model

Ref document number: 6869672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250