JP2010039617A - 対象物追跡装置及びプログラム - Google Patents

対象物追跡装置及びプログラム Download PDF

Info

Publication number
JP2010039617A
JP2010039617A JP2008199584A JP2008199584A JP2010039617A JP 2010039617 A JP2010039617 A JP 2010039617A JP 2008199584 A JP2008199584 A JP 2008199584A JP 2008199584 A JP2008199584 A JP 2008199584A JP 2010039617 A JP2010039617 A JP 2010039617A
Authority
JP
Japan
Prior art keywords
image
area
tracking
points
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008199584A
Other languages
English (en)
Other versions
JP5048609B2 (ja
Inventor
Koichiro Yamaguchi
晃一郎 山口
Akihiro Watanabe
章弘 渡邉
Tatsuya Shiraishi
達也 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2008199584A priority Critical patent/JP5048609B2/ja
Publication of JP2010039617A publication Critical patent/JP2010039617A/ja
Application granted granted Critical
Publication of JP5048609B2 publication Critical patent/JP5048609B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】追跡対象物が部分的に変形する場合であっても、簡易な処理で、安定して追跡することができるようにする。
【解決手段】撮像装置12によって、自車両前方を撮像し、対象物検出部22によって、第1の撮像画像から対象物領域を検出する。特徴点抽出部24によって、第1の撮像画像について検出された対象物領域及び第2の撮像画像の各々から、複数の特徴点を抽出する。そして、対応点検索部26によって、特徴点抽出部24によって第1の撮像画像から抽出された特徴点の各々に対応する特徴点を、第2の撮像画像から各々検索する。対象物領域推定28によって、第1の撮像画像における特徴点の各々に対する、対象物領域内の中心位置までの距離、方向、及び第2の撮像画像における対応する特徴点の各々に基づいて、第2の撮像画像における対象物領域の中心位置を推定し、第2の撮像画像における対象物領域を推定する。
【選択図】図1

Description

本発明は、対象物追跡装置及びプログラムに係り、特に、追跡対象物を表わす領域を追跡する対象物追跡装置及びプログラムに関する。
従来より、検出された対象物領域を小領域に分割し、個々の小領域ごとに画像間で照合を行って、追跡を行う移動体追跡のための画像処理方法が知られている(特許文献1)。また、対象物の運動モデルを用いて複数の追跡候補位置を生成し、照合することで追跡を行う対象物追跡装置が知られている(特許文献2)。
特開2006−178669号公報 特開2007−328746号公報
しかしながら、上記の特許文献1に記載の技術では、部分的に変形が起こる物体を、安定して追跡するためには、分割する小領域を小さくする必要があるが、小領域を小さくするほど、照合に誤りが発生してしまうと共に、照合における計算量が増大してしまう、という問題がある。
また、上記の特許文献2に記載の技術では、対象物が部分的に変形する場合、照合に誤りが発生してしまうため、追跡することができない、という問題がある。
本発明は、上記の問題点を解決するためになされたもので、追跡対象物が部分的に変形する場合であっても、簡易な処理で、安定して追跡することができる対象物追跡装置及びプログラムを提供することを目的とする。
上記の目的を達成するために本発明に係る対象物追跡装置は、所定領域を撮像する撮像手段と、前記撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する特徴点抽出手段と、前記特徴点抽出手段によって抽出された前記特徴点の各々に対応する点を、前記第1の画像と異なるタイミングで前記撮像手段によって撮像された第2の画像から各々検索する検索手段と、前記第1の画像における前記特徴点の各々に対する、前記追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における前記検索手段によって検索された点の各々に基づいて、前記第2の画像における前記特定位置を推定する特定位置推定手段と、前記特定位置推定手段によって推定された前記第2の画像における前記特定位置に基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する領域推定手段とを含んで構成されている。
また、本発明に係るプログラムは、コンピュータを、所定領域を撮像する撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する特徴点抽出手段、前記特徴点抽出手段によって抽出された前記特徴点の各々に対応する点を、前記第1の画像と異なるタイミングで前記撮像手段によって撮像された第2の画像から各々検索する検索手段、前記第1の画像における前記特徴点の各々に対する、前記追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における前記検索手段によって検索された点の各々に基づいて、前記第2の画像における前記特定位置を推定する特定位置推定手段、及び前記特定位置推定手段によって推定された前記第2の画像における前記特定位置に基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する領域推定手段として機能させるためのプログラムである。
本発明によれば、撮像手段によって、所定領域を撮像し、特徴点抽出手段によって、撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する。そして、検索手段によって、特徴点抽出手段によって抽出された特徴点の各々に対応する点を、第1の画像と異なるタイミングで撮像手段によって撮像された第2の画像から各々検索する。
特定位置推定手段によって、第1の画像における特徴点の各々に対する、追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における検索手段によって検索された点の各々に基づいて、第2の画像における特定位置を推定する。そして、領域推定手段によって、特定位置推定手段によって推定された第2の画像における特定位置に基づいて、第2の画像における追跡対象物を表わす領域を推定する。
このように、第1の画像における特徴点の各々に対する、追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における対応する点の各々に基づいて、第2の画像における追跡対象物を表わす領域内の特定位置を推定して、第2の画像における追跡対象物を表わす領域を推定することにより、追跡対象物が部分的に変形する場合であっても、簡易な処理で、安定して追跡対象物を追跡することができる。
本発明に係る特定位置推定手段は、第2の画像において、検索手段によって検索された点の各々と、該点から対応する特徴点に対する相対位置となる位置とを通る複数の直線から形成される各交点について、他の交点との距離の合計値又は平均値を算出し、算出した距離の合計値又は平均値が所定値以上となる複数の交点を形成する共通の直線上の前記検索された点を抽出し、点が抽出された場合、抽出された点以外の検索された点の各々と、該点に対応する特徴点に対する相対位置とに基づいて、第2の画像における特定位置を推定することができる。これによって、他の部分と異なる動作をした部分に存在する点を除外して、追跡対象物の領域内の特定位置を推定することにより、追跡対象物が部分的に変形する場合であっても、第2の画像における追跡対象物の領域を精度よく推定することができる。
本発明に係る対象物追跡装置は、第1の画像における追跡対象物を表わす領域の大きさ、第1の画像における特徴点の各々と特定位置との距離、及び第2の画像における検索手段によって検索された点の各々と推定された特定位置との距離に基づいて、第2の画像における追跡対象物を表わす領域の大きさを推定する大きさ推定手段を更に含み、領域推定手段は、特定位置推定手段によって推定された第2の画像における特定位置、及び大きさ推定手段によって推定された検出対象物を表わす領域の大きさに基づいて、第2の画像における追跡対象物を表わす領域を推定することができる。
本発明に係る対象物追跡装置は、第2の画像から追跡対象物を表わす領域を検出する領域検出手段と、領域検出手段によって検出された追跡対象物を表わす領域、及び領域推定手段によって推定された追跡対象物を表わす領域に基づいて、第2の画像における追跡対象物を表わす領域を補正する領域補正手段と、を更に含むことができる。これによって、検出された追跡対象物を表わす領域を用いて、推定された追跡対象物を表わす領域を補正することにより、第2の画像における追跡対象物の領域を精度よく推定することができる。
本発明に係る対象物追跡装置は、第1の画像から追跡対象物を表わす領域を検出する領域検出手段を更に含み、特徴点抽出手段は、領域検出手段によって検出された追跡対象物を表わす領域から、複数の特徴点を抽出することができる。
本発明に係る特徴点抽出手段は、追跡対象物を表わす領域が前回推定された第2の画像を、第1の画像とし、前回推定された追跡対象物を表わす領域から、複数の特徴点を抽出することができる。
本発明に係る特徴点抽出手段は、追跡対象物を表わす領域が前回推定された第2の画像を、第1の画像とし、前回補正された追跡対象物を表わす領域から、複数の特徴点を抽出することができる。
上記の追跡対象物を、部分的に変形可能な物体とすることができる。
以上説明したように、本発明の対象物追跡装置及びプログラムによれば、第1の画像における特徴点の各々に対する、追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における対応する点の各々に基づいて、第2の画像における追跡対象物を表わす領域内の特定位置を推定し、第2の画像における追跡対象物を表わす領域を推定することにより、追跡対象物が部分的に変形する場合であっても、簡易な処理で、安定して追跡対象物を追跡することができる、という効果が得られる。
以下、図面を参照して本発明の実施の形態を詳細に説明する。
図1に示すように、本実施の形態に係る対象物追跡装置10は、車両(図示省略)に搭載され、かつ、自車両前方を連続に撮像して撮像画像を生成する撮像装置12と、撮像装置12から得られる撮像画像について、追跡対象物としての歩行者を表わす対象物領域を追跡して、表示装置16に追跡結果を表示させるコンピュータ14とを備えている。
撮像装置12は、自車両の前方を撮像し、画像の画像信号を生成する単眼のカメラで構成される撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。また、表示装置16は、自車両に搭載されているディスプレイから構成されている。
コンピュータ14は、CPU、後述する追跡処理ルーチンを実行するためのプログラムを記憶したROM、データ等を記憶するRAM、及びこれらを接続するバスを含んで構成されている。このコンピュータ14をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像装置12から連続して出力される撮像画像を取得する画像入力部20と、画像入力部20によって取得された撮像画像から、歩行者を表わす対象物領域を検出する対象物検出部22と、画像入力部20によって取得された複数の撮像画像の各々から、画像上で追跡しやすい特徴点を複数抽出する特徴点抽出部24と、特徴点抽出部24により得られた2つの画像の各々における特徴点から、2つの画像間で対応する点を検索する対応点検索部26と、対応点検索部26で得られた対応する特徴点の各々、及び一方の撮像画像における対象物領域を入力として、他方の撮像画像における対象物領域を推定する対象物領域推定部28と、対象物検出部22により他方の撮像画像について検出された対象物領域を用いて、推定された対象物領域を補正する対象物領域補正部30と、対象物領域補正部30の補正結果を表示装置16に表示させる表示制御部32とを備えている。
画像入力部20は、異なるタイミングで撮像された2つの撮像画像を撮像装置12から取得する。なお、以下では、2つの撮像画像のうち、先に撮像された撮像画像を第1の撮像画像とし、後に撮像された撮像画像を第2の撮像画像として説明する。
対象物検出部22は、画像入力部20によって取得された第1の撮像画像、及び第2の撮像画像の各々から、パターン認識により、歩行者を表わす対象物領域を検出する。対象物検出部22には、学習により得られた歩行者を表わす領域の画像特徴量のパターンが記憶されている。なお、対象物領域の検出方法については、他の既存の検出方法を用いてもよく、例えば、ミリ波レーダ、レーザレーダなどの他のセンサによる検出結果や、時系列画像又はステレオカメラによる撮像画像から立体物を検出した検出結果を用いて、歩行者を表わす対象物領域を検出するようにしてもよい。
特徴点抽出部24は、撮像装置12から取得した第1の撮像画像における対象物領域内から特徴点を抽出すると共に、撮像装置12から取得した第2の撮像画像から、特徴点を抽出する。特徴点とは、周囲の点と区別でき、異なる画像間で対応関係を求めることが容易な点のことを指す。特徴点は、2次元的に濃淡変化の勾配値が大きくなる画素を検出する方法(例えばHarrisオペレータなど)を用いて、自動的に抽出される。Harrisオペレータを用いる方法では、以下に説明するように、特徴点を抽出する。まず、画像の点(u,v)の輝度をI(u,v)として、以下の(1)式によって、行列Mを計算する。
Figure 2010039617
ただし、I,Iはそれぞれ水平方向、垂直方向の微分、Gσは標準偏差σのガウス分布による平滑化を表す。
そして、上記(1)式で計算された行列Mの固有値λ、λを用いて、以下の(2)式によりコーナー強度を計算する。
Figure 2010039617
ただし、kは予め設定される定数であって、0.04〜0.06の値が一般に用いられる。Harrisオペレータを用いる方法では、このコーナー強度がしきい値以上でかつ極大となる点を選択し、選択された点を特徴点として抽出する。
対応点検索部26は、特徴点抽出部24において抽出された第1の撮像画像の対象物領域内の特徴点に対応する点を、第2の撮像画像において抽出された特徴点から検索して、特徴点の対応付けを行う。
2つの撮像画像間での特徴点の対応付けでは、特徴点周辺に設定した小領域での輝度分布が似ている点の組を選択し、選択された点の組を対応している点とする。2つの特徴点が似ているかどうかの判定にはSSD(Sum of Squared Differences)などの値を用いればよい。
例えば、第1の撮像画像Iの対象物領域内の特徴点p=(x,y)について、第2の撮像画像Iの特徴点p'=(x’,y’)の各々との組み合わせをペアとして、以下の(3)式を各々計算する。
Figure 2010039617
ただし、rは、小領域の大きさを決定する変数であり、予め定められている。
そして、上記(3)式によって計算される値が最小となったときの第2の撮像画像の特徴点を検索し、第1の撮像画像の対象物領域内の特徴点に対応する点とする。
上記の計算を、第1の撮像画像の対象物領域内の特徴点の各々について行って、第1の撮像画像の対象物領域内の特徴点の各々に対応する点を、第2の撮像画像の特徴点から検索する。
また、対応点検索部26は、特徴点抽出部24において2つの撮像画像の各々から抽出された特徴点について、2つの撮像画像間で対応する点を少なくとも3組検索する。
ここで、本実施の形態の原理について説明する。時系列画像において、対象物を追跡する場合、画像間でマッチングをとることで同一の物体である領域を探索することが可能となるが、人などの部分的に変形が発生する対象物を追跡する場合、画像間で対応する領域を求めることができない場合が発生する。また、対象物の運動モデルを用いて、対象物領域の位置、大きさを推定することも可能であるが、撮像装置または対象物の運動に変化が生じた場合には、対象物の追跡が困難となる。
これに対して、画像間において、対象物領域内の複数の特徴点をそれぞれ追跡することにより、部分的に変形がある対象物に対しても、安定して追跡を行うことが可能となる。
そこで、本実施の形態では、対象物領域推定部28によって、対象物検出部22により得られた第1の撮像画像における対象物領域、及び対応点検索部26により得られた、第1の撮像画像の対象物領域内の特徴点と第2の撮像画像の特徴点との対応関係を用いて、第2の撮像画像における歩行者を表わす対象物領域を推定する。
第2の撮像画像における対象物領域を推定する方法について以下に説明する。まず、第1の撮像画像で検出された対象物領域について、図2(A)に示すように、対象物領域の幅w、高さh、及び中心位置を各々求める。次に、図2(B)に示すように、第1の撮像画像の対象物領域内から抽出された特徴点pi(i=1,・・・,nであり、nは抽出された特徴点の数である。)に対して、中心位置との距離di、及び中心位置への方向θiを算出する。
また、第1の撮像画像の特徴点piに対応する点が、第2の撮像画像の特徴点p’iであるとすると、図3(A)に示すように、第2の撮像画像での各特徴点p’i(i=1,・・・,n)から、θi方向へ直線を引くことにより、特徴点p’iと、特徴点p’iに対して、対応する特徴点piに対する中心位置の相対位置となる位置とを通る直線を引く。なお、上記図3(A)では、特徴点p6に対応する点が検索されなかった場合を例にしており、このように第2の撮像画像において対応点が検索されなかった点については、直線を引く処理を行わないものとする。
次に、各特徴点p’iから引いた各直線に最も近くなる点を求め、第2の撮像画像における対象物領域の中心位置の推定値とする。このとき、追跡対象物が部分的に変形すると、変形した部分にある特徴点の動きは、追跡対象物全体の動きとは異なるため、変形した部分にある特徴点を、中心位置の推定処理において用いないように除外する。
ここで、除外する特徴点を特定する方法について説明する。まず、第2の撮像画像での対応点である特徴点の各々について引かれた複数の直線から形成される各交点について、他の交点との距離の合計値を算出し、算出された距離の合計値が閾値以上となる交点を抽出する。なお、上記の閾値については、例えば、他の交点との距離の合計値の分散値と所定係数とを乗算した値を求めて、閾値として設定すればよい。
距離の合計値が閾値以上となる交点が複数抽出された場合には、第2の撮像画像での対応点である特徴点から、抽出された複数の交点を形成する共通の直線上の特徴点を特定し、除外する特徴点とする。図3(A)に示すような第2の撮像画像では、特徴点p’1からp’4のうちのペアの組み合わせの各々から引かれた2本の直線によって形成される交点の各々は、ほぼ同じ位置となるが、特徴点p’5と他の特徴点とのペアの各々とから引かれた2本の直線によって形成される交点は、他の交点と離れた位置に存在するため、距離の合計値が閾値以上となる複数の交点を形成する共通の直線上の特徴点p’5が、変形が起こった部分の特徴点であると判断され、中心位置の推定処理にこの特徴点が用いられないように除外される。
そして、図3(B)に示すように、除外された特徴点以外の第2の撮像画像での対応点の各々から引かれた直線の各々から近い点を、中心位置として推定する。
上記のように、第2の撮像画像における対象物領域の中心位置が推定されると、次に、図4(A)に示すように、第2の撮像画像において、各特徴点p’iと推定された中心位置との距離d’iを計算する。このとき、中心位置の推定処理で除外された特徴点については、中心位置との距離の計算を行わない。
そして、推定された中心位置との距離d’iが計算された各特徴点(対応点)に対して、対応する第1の撮像画像における特徴点から中心位置までの距離との比d’i/diを計算し、計算された比の平均値を、第1の撮像画像の対象物領域に対する第2の撮像画像の対象物領域の拡大率αとする。
次に、第2の撮像画像において、図4(B)に示すように、幅α×w、高さα×hを、第2の撮像画像における対象物領域の大きさとして推定し、推定された中心位置を中心とし、かつ、推定された大きさを領域の大きさとする領域を、対象物領域として推定する。
対象物領域推定部28は、上記に説明した方法により、第2の撮像画像における対象物領域を推定する。
対象物領域補正部30は、第2の撮像画像に対して対象物検出部22を適用して検出した対象物領域を用いて、対象物領域推定部28によって推定された第2の撮像画像における対象物領域を補正する。
対象物領域の補正は、検出された対象物領域と、推定された対象物領域とが重なりを持つ場合に、それらの対象物領域の平均あるいは重み付き平均を計算することにより行い、計算された対象物領域を、対象物領域の補正値とする。なお、検出された対象物領域と、推定された対象物領域とが重なりを持つ場合に、補正を行う場合を例に説明したが、これに限定されるものではなく、検出された対象物領域の位置及び大きさが、推定された対象物領域の位置及び大きさと近いと判断される場合に、補正を行うようにしてもよい。
また、重み付き平均を用いて補正する場合には、歩行者を表わす対象物領域の追跡時間が長いほど、推定された対象物領域の重みを大きくし、あるいは、検出された対象物領域の信頼度が高いほど、検出された対象物領域の重みを大きくすればよい。
対象物領域補正部30によって補正された第2の撮像画像の対象物領域は、次の対象物領域の推定における特徴点抽出部24の入力とされる。また、第2の撮像画像は、次の推定における第1の撮像画像とされ、次に撮像された撮像画像を第2の撮像画像として、対象物領域を推定することにより、時系列的に連続して、歩行者を表わす対象物領域の追跡を行う。
表示制御部32は、補正された対象物領域の推定結果を、第2の撮像画像と共に表示装置16に表示させる。
次に、本実施の形態に係る対象物追跡装置10の作用について説明する。なお、対象物追跡装置10を搭載した車両の走行中に、前方に存在する歩行者を追跡する場合を例に説明する。
撮像装置12によって、自車両前方の連続撮像が開始されると、コンピュータ14において、図5に示す追跡処理ルーチンが実行される。
まず、ステップ100において、撮像装置12から、第1の撮像画像及び第2の撮像画像として、2つの撮像画像を順に取得する。そして、ステップ102において、上記ステップ100で取得した第1の撮像画像から、パターン認識により、歩行者を表わす対象物領域を検出する。
次のステップ104では、第1の撮像画像における対象物領域内から、特徴点を複数抽出し、ステップ106において、第2の撮像画像から、特徴点を複数抽出する。そして、ステップ108において、上記ステップ104で抽出された複数の特徴点の各々に対応する点を、上記ステップ106で抽出された複数の特徴点の中から検索する。
ステップ110では、第1の撮像画像について上記ステップ102又は後述するステップ128で求められた対象物領域の中心位置、幅、及び高さを計測する。そして、ステップ112において、第1の撮像画像の対象物領域内の特徴点であって、かつ、上記ステップ108で対応する点が検索された特徴点の各々について、特徴点に対する中心位置の相対位置として、上記ステップ110で計測された対象物領域の中心位置までの距離、及び中心位置への方向を算出する。
そして、ステップ114において、上記ステップ108で検索された第2の撮像画像における対応する特徴点の各々から、上記ステップ112で対応する特徴点について算出された中心位置への方向に延びる直線を引く。このように引かれた複数の直線によって、複数の交点が形成される。
次のステップ116では、上記ステップ114で生成された複数の直線によって形成される各交点について、他の交点との距離の合計値を算出する。ステップ118では、上記ステップ116で算出された距離の合計値が、閾値以上となる交点を抽出し、交点が複数抽出された場合には、複数の交点に共通する直線上の対応点を特定することにより、離れた位置に存在する複数の交点を形成する共通の直線上の特徴点であって、かつ、上記ステップ108で検索された対応する特徴点を特定し、特定された特徴点を除外対象とする。
そして、ステップ120において、上記ステップ108で検索された対応する特徴点であって、かつ、上記ステップ118で除外対象とされた特徴点以外の特徴点から引かれた各直線に近い位置を、第2の撮像画像における対象物領域の中心位置として推定する。次のステップ122では、上記ステップ108で検索された対応する特徴点であって、かつ、上記ステップ118で除外された特徴点以外の特徴点の各々と、上記ステップ120で推定された中心位置との距離を各々算出する。
そして、ステップ124において、上記ステップ112で算出された特徴点と中心位置との距離と、上記ステップ122で算出された特徴点と中心位置との距離との比を、対応する特徴点のペアの各々について求め、求められた比の平均値を、対象物領域の大きさの拡大率とし、上記ステップ110で計測された第1の撮像画像の対象物領域の幅及び高さと、この拡大率とに基づいて、第2の撮像画像における対象物領域の幅及び高さを推定する。そして、推定された第2の撮像画像における対象物領域の幅及び高さと、上記ステップ120で推定された中心位置とに基づいて、第2の撮像画像における対象物領域を推定する。
ステップ126では、第2の撮像画像について、パターン認識により、歩行者を表わす対象物領域を検出し、ステップ128において、上記ステップ126で検出された対象物領域を用いて、上記ステップ124で推定された対象物領域を補正する。
そして、ステップ130において、第2の撮像画像と共に、上記ステップ128で補正された対象物領域を表示装置16に表示させる。次のステップ132では、第2の撮像画像を、次の対象物領域の推定における第1の撮像画像とすると共に、上記ステップ128で補正された対象物領域を、第1の撮像画像の対象物領域とする。そして、ステップ134において、撮像装置12から、次の撮像画像を取得し、次の推定における第2の撮像画像として、ステップ104へ戻り、上記ステップ104〜ステップ128により、新たに取得された第2の撮像画像における対象物領域を推定する。
上記のように、ステップ104〜ステップ134を繰り返すことにより、連続して撮像された撮像画像において、歩行者を表わす対象物領域を追跡する。
以上説明したように、本実施の形態に係る対象物追跡装置によれば、第1の撮像画像における特徴点の各々に対する対象物領域内の中心位置までの距離、方向、及び第2の撮像画像における対応する点の各々に基づいて、第2の撮像画像における対象物領域内の中心位置を推定して、第2の撮像画像における対象物領域を推定することにより、追跡対象物が部分的に変形する場合であっても、簡易な処理で、安定して追跡対象物を追跡することができる。
また、第2の撮像画像において、他の部分と異なる動作をした部分に存在する特徴点を除外して、対象物領域内の中心位置を推定することにより、追跡対象物が部分的に変形する場合であっても、第2の撮像画像における追跡対象物の領域を精度よく推定することができる。
また、パターン認識により第2の撮像画像から検出された対象物領域を用いて、第2の撮像画像において推定された対象物領域を補正することにより、第2の撮像画像における追跡対象物の領域をより精度よく推定することができる。
なお、上記の実施の形態では、他の交点との距離の合計値が、閾値以上となる交点を抽出することにより、他の交点と離れた位置に存在する交点を抽出する場合を例に説明したが、これに限定されるものではなく、他の交点との距離の平均値が、閾値以上となる交点を抽出することにより、他の交点と離れた位置に存在する交点を抽出するようにしてもよい。
また、追跡対象物を歩行者とした場合を例に説明したが、これに限定されるものではなく、歩行者以外の部分的に変形可能な物体を、追跡対象物としてもよい。
また、対象物領域の中心位置を推定する場合を例に説明したが、これに限定されるものではなく、対象物領域内の中心位置以外の特定位置を推定するようにしてもよい。この場合には、第1の撮像画像における特徴点の各々に対する対象物領域内の特定位置までの距離及び特定位置への方向を求めるようにすればよい。
また、第1の撮像画像について、検出又は前回補正された対象物領域から、特徴点を抽出する場合を例に説明したが、これに限定されるものではなく、第1の撮像画像全体から特徴点を抽出した後に、抽出された特徴点の中から、検出又は前回補正された対象物領域内の特徴点を抽出するようにしてもよい。
本発明の実施の形態に係る対象物追跡装置を示すブロック図である。 (A)第1の撮像画像から検出された対象物領域と中心位置とを示すイメージ図、及び(B)第1の撮像画像から抽出された特徴点を示すイメージ図である。 (A)第2の撮像画像において対応する特徴点と、特徴点から引いた直線とを示すイメージ図、及び(B)第2の撮像画像において推定された中心位置を示すイメージ図である。 (A)第2の撮像画像において、対応する特徴点と推定された中心位置との距離を示すイメージ図、及び(B)第2の撮像画像において推定された対象物領域を示すイメージ図である。 本発明の実施の形態に係る対象物追跡装置のコンピュータにおける追跡処理ルーチンの内容を示すフローチャートである。
符号の説明
10 対象物追跡装置
12 撮像装置
14 コンピュータ
22 対象物検出部
24 特徴点抽出部
26 対応点検索部
28 対象物領域推定部
30 対象物領域補正部

Claims (9)

  1. 所定領域を撮像する撮像手段と、
    前記撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する特徴点抽出手段と、
    前記特徴点抽出手段によって抽出された前記特徴点の各々に対応する点を、前記第1の画像と異なるタイミングで前記撮像手段によって撮像された第2の画像から各々検索する検索手段と、
    前記第1の画像における前記特徴点の各々に対する、前記追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における前記検索手段によって検索された点の各々に基づいて、前記第2の画像における前記特定位置を推定する特定位置推定手段と、
    前記特定位置推定手段によって推定された前記第2の画像における前記特定位置に基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する領域推定手段と、
    を含む対象物追跡装置。
  2. 前記特定位置推定手段は、前記第2の画像において、前記検索手段によって検索された点の各々と、該点から対応する前記特徴点に対する前記相対位置となる位置とを通る複数の直線から形成される各交点について、他の交点との距離の合計値又は平均値を算出し、前記算出した距離の合計値又は平均値が所定値以上となる複数の交点を形成する共通の直線上の前記検索された点を抽出し、前記点が抽出された場合、前記抽出された点以外の前記検索された点の各々と、該点に対応する前記特徴点に対する前記相対位置とに基づいて、前記第2の画像における前記特定位置を推定する請求項1記載の対象物追跡装置。
  3. 前記第1の画像における前記追跡対象物を表わす領域の大きさ、前記第1の画像における前記特徴点の各々と前記特定位置との距離、及び第2の画像における前記検索手段によって検索された点の各々と前記推定された前記特定位置との距離に基づいて、前記第2の画像における前記追跡対象物を表わす領域の大きさを推定する大きさ推定手段を更に含み、
    前記領域推定手段は、前記特定位置推定手段によって推定された前記第2の画像における前記特定位置、及び前記大きさ推定手段によって推定された前記検出対象物を表わす領域の大きさに基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する請求項1又は2記載の対象物追跡装置。
  4. 前記第2の画像から前記追跡対象物を表わす領域を検出する領域検出手段と、
    前記領域検出手段によって検出された前記追跡対象物を表わす領域、及び前記領域推定手段によって推定された前記追跡対象物を表わす領域に基づいて、前記第2の画像における前記追跡対象物を表わす領域を補正する領域補正手段と、
    を更に含む請求項1〜請求項3の何れか1項記載の対象物追跡装置。
  5. 前記第1の画像から前記追跡対象物を表わす領域を検出する領域検出手段を更に含み、
    前記特徴点抽出手段は、前記領域検出手段によって検出された前記追跡対象物を表わす領域から、複数の特徴点を抽出する請求項1〜請求項4の何れか1項記載の対象物追跡装置。
  6. 前記特徴点抽出手段は、前記追跡対象物を表わす領域が前回推定された第2の画像を、第1の画像とし、前回推定された前記追跡対象物を表わす領域から、複数の特徴点を抽出する請求項1〜請求項4の何れか1項記載の対象物追跡装置。
  7. 前記特徴点抽出手段は、前記追跡対象物を表わす領域が前回推定された第2の画像を、第1の画像とし、前回補正された前記追跡対象物を表わす領域から、複数の特徴点を抽出する請求項4記載の対象物追跡装置。
  8. 前記追跡対象物を、部分的に変形可能な物体とした請求項1〜請求項7の何れか1項記載の対象物追跡装置。
  9. コンピュータを、
    所定領域を撮像する撮像手段によって撮像された第1の画像について求められた追跡対象物を表わす領域から、複数の特徴点を抽出する特徴点抽出手段、
    前記特徴点抽出手段によって抽出された前記特徴点の各々に対応する点を、前記第1の画像と異なるタイミングで前記撮像手段によって撮像された第2の画像から各々検索する検索手段、
    前記第1の画像における前記特徴点の各々に対する、前記追跡対象物を表わす領域内の特定位置の相対位置、及び第2の画像における前記検索手段によって検索された点の各々に基づいて、前記第2の画像における前記特定位置を推定する特定位置推定手段、及び
    前記特定位置推定手段によって推定された前記第2の画像における前記特定位置に基づいて、前記第2の画像における前記追跡対象物を表わす領域を推定する領域推定手段
    として機能させるためのプログラム。
JP2008199584A 2008-08-01 2008-08-01 対象物追跡装置及びプログラム Expired - Fee Related JP5048609B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008199584A JP5048609B2 (ja) 2008-08-01 2008-08-01 対象物追跡装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008199584A JP5048609B2 (ja) 2008-08-01 2008-08-01 対象物追跡装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2010039617A true JP2010039617A (ja) 2010-02-18
JP5048609B2 JP5048609B2 (ja) 2012-10-17

Family

ID=42012124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008199584A Expired - Fee Related JP5048609B2 (ja) 2008-08-01 2008-08-01 対象物追跡装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5048609B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2874101A2 (en) 2013-11-13 2015-05-20 Fujitsu Limited Tracking device, tracking method and program
US9785836B2 (en) 2010-05-28 2017-10-10 Qualcomm Incorporated Dataset creation for tracking targets with dynamically changing portions
CN109543610A (zh) * 2018-11-22 2019-03-29 中国科学院长春光学精密机械与物理研究所 车辆检测跟踪方法、装置、设备及存储介质
JP2021022315A (ja) * 2019-07-30 2021-02-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10949983B2 (en) 2015-12-18 2021-03-16 Ricoh Company, Ltd. Image processing apparatus, image processing system, image processing method, and computer-readable recording medium
US11407390B2 (en) * 2016-10-19 2022-08-09 Denso Corporation Vehicle control apparatus and vehicle control method
JP7466760B2 (ja) 2020-09-28 2024-04-12 エヌイーシー ラボラトリーズ アメリカ インク 時空間推論および位置特定のためのマルチホップトランスフォーマー

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05103249A (ja) * 1991-10-07 1993-04-23 Fujitsu Ltd 相関追尾装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05103249A (ja) * 1991-10-07 1993-04-23 Fujitsu Ltd 相関追尾装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785836B2 (en) 2010-05-28 2017-10-10 Qualcomm Incorporated Dataset creation for tracking targets with dynamically changing portions
EP2874101A2 (en) 2013-11-13 2015-05-20 Fujitsu Limited Tracking device, tracking method and program
US9734395B2 (en) 2013-11-13 2017-08-15 Fujitsu Limited Tracking device and tracking method
US10949983B2 (en) 2015-12-18 2021-03-16 Ricoh Company, Ltd. Image processing apparatus, image processing system, image processing method, and computer-readable recording medium
US11407390B2 (en) * 2016-10-19 2022-08-09 Denso Corporation Vehicle control apparatus and vehicle control method
CN109543610A (zh) * 2018-11-22 2019-03-29 中国科学院长春光学精密机械与物理研究所 车辆检测跟踪方法、装置、设备及存储介质
CN109543610B (zh) * 2018-11-22 2022-11-11 中国科学院长春光学精密机械与物理研究所 车辆检测跟踪方法、装置、设备及存储介质
JP2021022315A (ja) * 2019-07-30 2021-02-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7438684B2 (ja) 2019-07-30 2024-02-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7466760B2 (ja) 2020-09-28 2024-04-12 エヌイーシー ラボラトリーズ アメリカ インク 時空間推論および位置特定のためのマルチホップトランスフォーマー

Also Published As

Publication number Publication date
JP5048609B2 (ja) 2012-10-17

Similar Documents

Publication Publication Date Title
KR101449295B1 (ko) 주차구획 추적 장치 및 방법
JP5048609B2 (ja) 対象物追跡装置及びプログラム
JP4687563B2 (ja) 車両用レーンマーク認識装置
US20160364619A1 (en) Vehicle-Surroundings Recognition Device
CN107305632B (zh) 基于单目计算机视觉技术的目标对象距离测量方法与系统
JP5075672B2 (ja) 対象物検出装置及び方法
JP5166102B2 (ja) 画像処理装置及びその方法
JP2016029564A (ja) 対象検出方法及び対象検出装置
US10255673B2 (en) Apparatus and method for detecting object in image, and apparatus and method for computer-aided diagnosis
JP5756709B2 (ja) 身長推定装置、身長推定方法、及び身長推定プログラム
JP4797846B2 (ja) 区画線検出装置及び車線検出装置
JP4937029B2 (ja) 物体検出装置及びプログラム
US11049268B2 (en) Superimposing position correction device and superimposing position correction method
US20220366570A1 (en) Object tracking device and object tracking method
JP2014134856A (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP2008288684A (ja) 人物検出装置及びプログラム
JP7145770B2 (ja) 車間距離測定装置、誤差モデル生成装置および学習モデル生成装置とこれらの方法およびプログラム
JP2006090957A (ja) 移動体の周囲物体検出装置及び移動体の周囲物体検出方法
JP2007241477A (ja) 画像処理装置
JP6977337B2 (ja) 部位認識方法、装置、プログラム、及び撮像制御システム
JP4523915B2 (ja) 輪郭抽出装置、輪郭抽出方法及び輪郭抽出プログラム
JP5365408B2 (ja) 移動体認識装置、移動体認識方法及びプログラム
JP2017033556A (ja) 画像処理方法及び電子機器
JP2019179289A (ja) 処理装置、及びプログラム
US11875518B2 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120717

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5048609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees