JP4725490B2 - 自動追尾方法 - Google Patents

自動追尾方法 Download PDF

Info

Publication number
JP4725490B2
JP4725490B2 JP2006293079A JP2006293079A JP4725490B2 JP 4725490 B2 JP4725490 B2 JP 4725490B2 JP 2006293079 A JP2006293079 A JP 2006293079A JP 2006293079 A JP2006293079 A JP 2006293079A JP 4725490 B2 JP4725490 B2 JP 4725490B2
Authority
JP
Japan
Prior art keywords
range
moving
tracking target
search range
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006293079A
Other languages
English (en)
Other versions
JP2008112210A (ja
Inventor
聡 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Electric Works Co Ltd
Original Assignee
Panasonic Corp
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Works Ltd filed Critical Panasonic Corp
Priority to JP2006293079A priority Critical patent/JP4725490B2/ja
Priority to EP07015988A priority patent/EP1916538A3/en
Priority to TW096130528A priority patent/TWI375173B/zh
Priority to CN2007101425988A priority patent/CN101170683B/zh
Priority to US11/896,345 priority patent/US8194134B2/en
Publication of JP2008112210A publication Critical patent/JP2008112210A/ja
Application granted granted Critical
Publication of JP4725490B2 publication Critical patent/JP4725490B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、撮影した画像中の特定の物体を自動的に追尾する自動追尾装置に用いられる自動追尾方法に関するものである。
近年、その利便性から、追尾対象及びその周辺の範囲を撮像した画像を利用する自動追尾装置が多くの分野で利用されており、このような自動追尾装置では、追尾対象を自動追尾する方法として、テンプレートマッチング法を利用した自動追尾方法が用いられている(例えば、特許文献1)。
上述したようなテンプレートマッチング法を利用した自動追尾方法は、テンプレートと呼ばれる所定の大きさに切り出した画像データを、撮像手段等で撮像した画像上で順次移動させ、移動させたそれぞれの位置での画像データとの相関演算を行うことで、最も相関の高い位置を探し出し、その位置を追尾対象の移動体の新たな位置とする処理を繰り返し行うことで、追尾対象を追尾する方法である。
特開平9−265538号公報(図1〜図3参照)
しかしながら、上述したようなテンプレートマッチング法を利用した自動追尾方法では、テンプレートマッチングを行う際に、撮像手段で得られた画像全体に対してテンプレートとの相関値が演算されるので、相関値の演算に時間がかかり、これにより追尾対象を検出するための処理時間が長くなってしまうという問題があった。
そこで、追尾対象の移動体の位置を中心とした所定範囲を探索範囲と定め、この探索範囲内においてテンプレートマッチングを行う方法が考えられるが、不用意に探索範囲を狭めてしまうと、追尾対象の移動体が探索範囲内に含まれなくなって、追尾対象を逃してしまうおそれがあった。
本発明は上述の点に鑑みて為されたもので、その目的は、追尾対象を逃すことなく処理時間を短縮できる自動追尾方法を提供することにある。
上記の課題を解決するために、請求項1の発明では、撮像手段で撮像した画像群から時間的な変化を元に移動体を検出する移動体検出手段と、前記撮像手段で撮像した画像を元に作成された追尾対象の移動体のテンプレートが記憶されるテンプレート記憶手段と、過去の画像における追尾対象の移動体の位置を参照して今回の画像における追尾対象の移動体の位置を予測する位置予測手段と、前記テンプレートを用いたテンプレートマッチングによって今回の画像から追尾対象の移動体の検出を行うテンプレートマッチング手段とを備える自動追尾装置に用いられる自動追尾方法であって、位置予測手段は、前回の画像における追尾対象の移動体の位置と前々回の画像における追尾対象の移動体の位置を元にして追尾対象の移動体の移動ベクトルを算出する移動ベクトル算出過程と、前回の画像における追尾対象の移動体の位置と前記移動ベクトルとを元に今回の画像における追尾対象の移動体の位置を予測する位置予測過程と、今回の画像から前記移動体検出手段により検出した移動体のうち前記予測位置を含む予測移動範囲と重複する移動体を全て囲う最小範囲を元にして今回の画像における追尾対象の移動体の探索範囲を設定する探索範囲設定過程とを実行し、テンプレートマッチング手段は、前記探索範囲内において前記テンプレートを用いてテンプレートマッチングを行うことを特徴とする。
請求項1の発明によれば、今回の画像から前記移動体検出手段により検出した移動体のうち、前回及び前々回の画像における追尾対象の移動体の位置を元に算出した移動ベクトルを用いて予測した今回の画像における移動体の位置を含む予測移動範囲と重複する移動体を全て囲う最小範囲を元にしてテンプレートマッチングにより追尾対象の移動体を探索する際の探索範囲を設定しているので、従来のように撮像手段で得られた画像全体を探索範囲とする場合に比べて、処理時間を短縮できるという効果を奏し、しかも追尾対象の移動体であると予測される移動体は、全て探索範囲内に含まれることになるから、追尾対象の移動体を逃してしまうことがないという効果を奏する。また、今回の画像において追尾対象の移動体が複数の移動体に分かれて検出されてしまった場合でも、追尾対象の移動体を除外してしまうことがなくなるから、追尾精度を向上できるという効果を奏する。
請求項2の発明では、請求項1の発明において、位置予測手段は、探索範囲設定過程において、前記移動ベクトルから算出した追尾対象の移動体の移動速度及び前記予測位置を基準として設定した範囲を制限範囲として用い当該制限範囲と前記最小範囲が重複する範囲を探索範囲として設定することを特徴とする。
請求項2の発明によれば、今回の画像から前記移動体検出手段により検出した移動体のうち、前回及び前々回の画像における追尾対象の移動体の位置を元に算出した移動ベクトルを用いて予測した今回の画像における追尾対象の移動体の位置を含む予測移動範囲と重複する移動体を全て囲う最小範囲と、移動ベクトルから算出した追尾対象の移動体の移動速度及び前記予測位置を基準として設定した範囲及び前記予測位置を基準として設定した範囲からなる制限範囲とで重複する範囲を、テンプレートマッチングにより追尾対象の移動体の探索範囲としているので、従来のように撮像手段で得られた画像全体を探索範囲とする場合に比べて、処理時間を短縮できるという効果を奏し、しかも追尾対象の移動体であると予測される移動体は、全て探索範囲内に含まれることになるから、追尾対象の移動体を逃してしまうことがないという効果を奏する。また、ノイズ等による探索範囲の広域化を効率的に抑制できるという効果を奏する。さらに、今回の画像において追尾対象の移動体が複数の移動体に分かれて検出されてしまった場合でも、追尾対象の移動体を除外してしまうことがなくなるから、追尾精度を向上できるという効果を奏する。
請求項3の発明では、請求項1の発明において、位置予測手段は、探索範囲設定過程において、追尾対象の移動体のテンプレートのサイズ及び前記予測位置を基準として設定した範囲を制限範囲として用い当該制限範囲と前記最小範囲が重複する範囲を探索範囲として設定することを特徴とする。
請求項3の発明によれば、今回の画像から前記移動体検出手段により検出した移動体のうち、前回及び前々回の画像における追尾対象の移動体の位置を元に算出した移動ベクトルを用いて予測した今回の画像における追尾対象の移動体の位置を含む予測移動範囲と重複する移動体を全て囲う最小範囲と、追尾対象の移動体のテンプレートのサイズ及び前記予測位置を基準として設定した範囲からなる制限範囲とで重複する範囲を、テンプレートマッチングにより追尾対象の移動体を探索範囲としているので、従来のように撮像手段で得られた画像全体を探索範囲とする場合に比べて、処理時間を短縮できるという効果を奏し、しかも追尾対象の移動体であると予測される移動体は、全て探索範囲内に含まれることになるから、追尾対象の移動体を逃してしまうことがないという効果を奏する。また、ノイズ等による探索範囲の広域化を効率的に抑制できるという効果を奏する。さらに、今回の画像において追尾対象の移動体が複数の移動体に分かれて検出されてしまった場合でも、追尾対象の移動体を除外してしまうことがなくなり、追尾精度を向上できるという効果を奏する。
請求項4の発明では、請求項1〜3のいずれか1項の発明において、位置予測手段は、探索範囲設定過程を実行した後に、前記探索範囲内において前記移動体検出手段で検出した移動体の表示に使用されている移動画素が集中している範囲を制限探索範囲として設定する探索範囲制限過程を実行し、テンプレートマッチング手段は、前記制限探索範囲内において前記テンプレートを用いてテンプレートマッチングを行うことを特徴とする。
請求項4の発明によれば、探索範囲設定過程により得られた探索範囲内において移動体検出手段で検出した移動体の移動画素が集中している範囲を、テンプレートマッチングにより追尾対象の移動体を探索する際の探索範囲としているので、従来のように撮像手段で得られた画像全体を探索範囲とする場合に比べて、処理時間を短縮できるという効果を奏し、しかも追尾対象の移動体であると予測される移動体は、全て探索範囲内に含まれることになるから、追尾対象の移動体を逃してしまうことがないという効果を奏する。また、ノイズ等による探索範囲の広域化を効率的に抑制できるという効果を奏し、その上、探索範囲を追尾対象の移動体のサイズに近付けることができるという効果を奏する。さらに、今回の画像において追尾対象の移動体が複数の移動体に分かれて検出されてしまった場合でも、追尾対象の移動体を除外してしまうことがなくなるから、追尾精度を向上できるという効果を奏する。
請求項5の発明では、請求項4の発明において、前記探索範囲内において前記移動画素のX軸の一画素列における分布をY軸方向に積算してなるX軸分布データ及びY軸の一画素列における前記移動画素の分布をX軸方向に積算してなるY軸分布データを作成する分布データ作成過程と、X軸分布データにおいて前記移動画素数が所定の閾値以上となる領域及びY軸分布データにおいて前記移動画素数が所定の閾値以上となる領域からなる範囲を前記探索範囲内において前記移動画素が集中している範囲とする分布分析過程とを有していることを特徴とする。
請求項5の発明によれば、探索範囲設定過程により得られた探索範囲内において移動体検出手段で検出した移動体の移動画素が集中している範囲を、テンプレートマッチングにより追尾対象の移動体を探索する際の探索範囲としているので、従来のように撮像手段で得られた画像全体を探索範囲とする場合に比べて、処理時間を短縮できるという効果を奏し、しかも追尾対象の移動体であると予測される移動体は、全て探索範囲内に含まれることになるから、追尾対象の移動体を逃してしまうことがないという効果を奏する。また、ノイズ等による探索範囲の広域化を効率的に抑制できるという効果を奏し、その上、探索範囲を追尾対象の移動体のサイズに近付けることができるという効果を奏する。さらに、今回の画像において追尾対象の移動体が複数の移動体に分かれて検出されてしまった場合でも、追尾対象の移動体を除外してしまうことがなくなるから、追尾精度を向上できるという効果を奏する。
請求項6の発明では、請求項5の発明において、分布分析過程は、X軸分布データにおいて前記移動画素数が所定の閾値以上となる領域とY軸分布データにおいて前記移動画素数が所定の閾値以上となる領域とを選出した際に、X軸分布データとY軸分布データの少なくとも一方に前記領域が複数存在する場合は、前記複数の領域のうち前記予測位置に最も近い領域を一方において前記移動画素数が所定の閾値以上となる領域として採用することを特徴とする。
請求項6の発明によれば、探索範囲内において移動体の移動画素が集中している範囲が複数現れても、予測位置に最も近い範囲を採用することで追尾対象ではない移動体を探索範囲から除外することができるから、さらなる処理時間の短縮を図ることができるという効果を奏する。
請求項7の発明では、請求項5の発明において、分布分析過程は、X軸分布データにおいて前記移動画素数が所定の閾値以上となる領域とY軸分布データにおいて前記移動画素数が所定の閾値以上となる領域とを選出した際に、X軸分布データとY軸分布データの一方に前記領域が複数存在する場合は、他方の軸の一画素列における前記移動画素の分布を前記複数の領域のうち追尾対象の移動体の予測位置に最も近い領域の分だけ積算してなる2次分布データを生成し、前記最も近い領域を一方において前記移動画素数が所定の閾値以上となる領域として採用し、前記2次分布データにおいて前記移動画素数が所定の閾値以上となる領域を他方において前記移動画素数が所定の閾値以上となる領域として採用することを特徴とする。
請求項7の発明によれば、探索範囲内において移動体の移動画素が集中している範囲が複数現れても、予測位置に最も近い範囲を採用することで追尾対象ではない移動体を探索範囲から除外することができるから、さらなる処理時間の短縮を図ることができるという効果を奏する。
本発明は、今回の画像から前記移動体検出手段により検出した移動体のうち、前回及び前々回の画像における追尾対象の移動体の位置を元に算出した移動ベクトルを用いて予測した今回の画像における移動体の位置を含む予測移動範囲と重複する移動体を全て囲う最小範囲を元にしてテンプレートマッチングにより追尾対象の移動体を探索する際の探索範囲を設定しているので、従来のように撮像手段で得られた画像全体を探索範囲とする場合に比べて、処理時間を短縮できるという効果を奏し、しかも追尾対象の移動体であると予測される移動体は、全て探索範囲内に含まれることになるから、追尾対象の移動体を逃してしまうことがないという効果を奏する。また、今回の画像において追尾対象の移動体が複数の移動体に分かれて検出されてしまった場合でも、追尾対象の移動体を除外してしまうことがなくなるから、追尾精度を向上できるという効果を奏する。
(実施形態1)
本実施形態の自動追尾方法を適用した自動追尾装置は、図1(a)に示すように、撮像手段1と、撮像手段1で撮像した画像をA/D変換するA/D変換手段2と、撮像手段1で撮像した画像群が記憶される画像記憶手段3と、画像記憶手段3に記憶された画像群から時間的な変化を元に移動体を検出する移動体検出手段4と、撮像手段1の画像を元に作成された追尾対象の移動体のテンプレートが記憶されるテンプレート記憶手段5と、過去の画像における追尾対象の移動体の位置を参照して今回の画像(すなわち追尾対象の移動体の検出が行われる画像)における追尾対象の移動体の位置を予測する位置予測手段60を有する制御手段6と、前記テンプレートを用いたテンプレートマッチングによって今回の画像から追尾対象の移動体の検出を行うテンプレートマッチング手段7と、今回の画像からテンプレートマッチング手段7で検出した追尾対象の移動体の画像を切り出す(抽出する)切出手段8と、切出手段8により切り出した追尾対象の移動体の画像を新たなテンプレートとしてテンプレート記憶手段5に記憶させるテンプレート更新手段9と、切出手段8により切り出した追尾対象の移動体の画像等を表示する画像表示手段10とを備えている。
撮像手段1は、例えば、所定領域を時系列で連続して撮像する撮像素子(図示せず)を備え、画像(画像データ)をアナログ信号として出力するカメラ装置である。尚、撮像手段1としては、一般的なCMOSカメラのようにデバイス自体が画像をデジタル信号として出力するものを用いてもよく、この場合はA/D変換手段2を設けなくてもよい。
A/D変換手段2は、撮像手段1が出力するアナログ信号をデジタル信号に変換するためのものであり、A/D変換手段2により変換されたデジタル信号は、画像記憶手段3に出力され、画像記憶手段3で記憶される。
画像記憶手段3は、RAM等の記憶装置であり、撮像手段1で撮像した画像等を記憶するために用いられる。撮像手段1で撮像した画像は、例えばX軸方向(横方向)の画素数がmであり、Y軸方向(縦方向)の画素数がnであるような(但し、m,nはともに整数)、すなわち解像度がm×nの画像として画像記憶手段3に記憶される。ここで、画像記憶手段3に記憶させる画像の情報としては、移動体検出手段4で移動体を検出する点のみを考慮すれば、モノクロの濃淡画像で十分であるが、画像表示手段10にて画像表示を行うため、色情報も記憶するようにしている。尚、以下の説明では、図1(b)における右方向をX軸の正方向、図1(b)における上方向をY軸の正方向と規定する。
移動体検出手段4は、撮像手段1により得られた画像群(時系列順に並んだ画像群)を元にして、各画像における移動体の検出を行うものであって、例えば、輪郭抽出手段と、移動輪郭抽出手段と、移動領域検出手段とを有している。
輪郭抽出手段は、例えば、撮像手段1より得られるモノクロの濃淡画像を元に、一般的に知られたSOBELフィルタ(SOBELオペレータ)等を使用して微分処理して輪郭(エッジ)の抽出を行うことで、画像記憶手段3に記憶されている画像から輪郭画像(エッジ画像)を作成するように構成されている。移動輪郭抽出手段は、輪郭抽出手段により作成された輪郭画像を用いて論理合成を行い、移動体の輪郭のみを抽出した画像(移動輪郭画像)を作成するように構成されている。移動領域検出手段は、移動輪郭抽出手段で作成した画像をラベリングして移動体に相当する領域(以下、「移動領域」と称する)を検出するように構成されている。ここで、移動領域は、移動体の輪郭に外接する矩形状の領域で表すようにしてあり、このようにすれば、データ量が減って計算が容易となる。
したがって、以上述べた移動体検出手段4によれば、例えば、図1(b)に示すように、今回の画像、すなわち追尾対象の移動体を検出する対象となる画像において、移動体の輪郭に外接する移動領域M1〜M4がラベリングされた移動輪郭画像Dが得られる。尚、上記の例では、輪郭画像を用いて移動体を検出する例について述べたが、濃淡画像の時間的変化によって移動体を検出するようにしてもよいし、その他の様々な周知の方法を用いるようにしてもよい。
テンプレート記憶手段5は、RAM等の記憶装置であり、テンプレートマッチング手段7において使用するテンプレートを記憶するために用いられる。
制御手段6は、テンプレートマッチング手段7と切出手段8とテンプレート更新手段9の動作を制御するためのものであって、例えばCPU等を備えるマイクロコンピュータ(マイコン)からなり、追尾対象指定手段と、位置予測手段60と、追尾対象表示手段とを有している。また、制御手段6には、追尾対象指定手段で用いられるコンソール等が設けられる。
追尾対象指定手段は、追尾対象の移動体を指定する前の初期状態において、画像表示手段10に表示される撮像手段1の画像から追尾対象の移動体を選択するためのものであり、切出手段8を制御して画像記憶手段3に記憶されている画像を切出処理等することなく画像表示手段10に出力するように構成されている。また、追尾対象指定手段は、コンソール等のユーザインターフェースからの入力によって撮像手段1の画像から追尾対象の移動体を指定することができるように構成されている。尚、コンソール等により画像の所定領域を指定する構成は、周知のものを採用できるから説明を省略する。
そして、撮像手段1の画像から追尾対象の移動体が指定された際には、切出手段8を制御して、前記撮像手段1の画像から追尾対象の移動体の画像を取得し、この画像をテンプレート更新手段9によりテンプレートとしてテンプレート記憶手段5に記憶させるように構成されている。
また、制御手段6では、このような追尾対象指定手段によらずに、移動体を検出した際には、自動的にその移動体の画像をテンプレートに設定し、以後、その移動体を追尾するように構成してもよい。このような構成は、従来周知のものであるから詳細な説明は省略する。
位置予測手段60は、過去の追尾対象の移動体の位置(前回の追尾対象の移動体の位置と、前々回の追尾対象の移動体の位置)を元にして追尾対象の移動体の位置を予測することで、処理時間(主にテンプレートマッチング手段7での処理時間)の短縮を図るためのものであり、本実施形態では、移動ベクトル算出過程と、位置予測過程と、探索範囲設定過程とを実行するように構成されている。
以下に、図1(b)に示す移動輪郭画像Dを参照して、移動ベクトル算出過程と、位置予測過程と、探索範囲設定過程とについて説明する。
移動ベクトル算出過程は、図1(b)に示すように、前回の画像における追尾対象の移動体の位置P2と、前々回の画像における追尾対象の移動体の位置P1を元にして、追尾対象の移動体の移動ベクトルLを算出する過程である。ここで、追尾対象の移動体の位置は、例えば、追尾対象の移動体を表示する画素群の重心位置の画素の座標を用いて表されており、前々回の画像における追尾対象の移動体の位置P1を画像上の座標(x,y)とし、前回の画像における追尾対象の移動体の位置P2を画像上の座標(x,y)とすれば、その移動ベクトルLは、(x−x,y−y)で表される。
位置予測過程は、位置P2と、移動ベクトルLとを元にして、今回の画像における追尾対象の移動体の位置(以下、「予測位置」と称する)P3の画像上の座標(x,y)を予測する過程である。本実施形態の位置予測過程では、撮像手段1で撮像される時系列順の画像間の時間のような短時間の間では追尾対象の移動体の移動ベクトルLがほとんど変化していないと仮定して、予測位置P3を、位置P2から移動ベクトルLだけ移動した位置と予測するように構成されている。つまり、図1(b)に示す予測位置P3の座標(x,y)は、(2x−x,2y−y)で与えられることになる。尚、予測位置P3の算出方法は、上記の方法に限られるものではなく、さらに様々な条件を考慮して算出するようにしてもよい。また、予測位置P3を算出する際に、前々回の位置P1と前回の位置P2に加えて、さらに過去の位置の履歴を参照して予測を行うようにしてもよく、またニューラルネットワーク等を用いて予測を行うようにしてもよい。
探索範囲設定過程は、図1(b)に示すように、移動輪郭画像Dから移動体検出手段4により検出した移動領域M1〜M4のうち、前記位置予測過程により得た予測位置P3を含む予測移動範囲F1と重複する移動領域M1,M3,M4を全て囲う最小範囲(換言すれば、予測移動範囲F1にかかる移動領域M1,M3,M4を統合した範囲)F2を、移動輪郭画像Dにおける追尾対象の移動体の探索範囲として設定するように構成されている。
ここで、予測移動範囲F1は、予測位置P3を中心とする所定サイズの矩形状の領域としている。尚、予測移動範囲F1は、上記のように単に予測位置P3を中心とする矩形状の領域とするものに限らず、追尾対象の移動体の移動方向を考慮して、所定サイズの矩形状の領域の中心から予測位置P3を偏移させるようにしてもよい。また、予測移動範囲F1は、矩形状ではなくその他の形状(円形状)としてもよいが、矩形状とするほうが演算処理を容易にできるため好ましい。
そして、最小範囲F2は、上記の予測移動範囲F1を用いて次のようにして決定される。まず、今回の画像から移動体検出手段4により検出した移動領域M1〜M4の中から、予測移動範囲F1と重複する部分を有するものを選出する。すなわち、移動領域M1〜M4に、予測移動範囲F1内の画素が含まれるか否かを判別し、予測移動範囲F1内の画素が含まれる移動領域を、追尾対象の移動体の候補として選出する。例えば、図1(b)に示す移動輪郭画像Dでは、移動体M2を除く移動領域M1,M3,M4が選出される。
この後に、上記のようにして選出された移動体M1,M3,M4を全て囲う最小範囲を求める。この最小範囲は、移動領域M1,M3.M4を構成する画素のうち、X軸の正方向において予測位置P3から最も離れている画素のX座標xと、X軸の負方向において予測位置P3から最も離れている画素のX座標xと、Y軸の正方向において予測位置P3から最も離れている画素のY座標yと、Y軸の負方向において予測位置P3から最も離れている画素のY座標yとを求めることで得ることができる。すなわち、前記最小範囲F2は、画素Q1=(x,y)と、画素Q2=(x,y)と、画素Q3=(x,y)と、画素Q4=(x,y)の4つの画素を頂点とする矩形状の範囲として得られる。ここで、最小範囲とは、厳密な意味で最小を要求しているものではなく、おおよそ最小とみなせる程度に小さければ、ノイズ等を考慮して多少の幅を持たせるようにしたものであってもよい。
最後に、このようにして得られた最小範囲F2が、今回の画像における追尾対象の移動体の探索範囲として設定され、この探索範囲の情報は、テンプレートマッチング手段7に出力される。
追尾対象表示手段は、テンプレートマッチング手段7から受け取ったテンプレートマッチングの結果を元に、移動輪郭画像Dにおいて最も相関値が高い位置を、追尾対象の移動体の位置として採用し、この位置を中心とする所定範囲の領域(例えば移動領域)の画像を、切出手段8により切り出して(場合によっては切り出して拡大して)、テンプレート更新手段9に出力させるように構成されている。また、追尾対象表示手段は、移動輪郭画像Dの元になった画像における上記追尾対象の移動体の位置を中心とする所定範囲の領域(例えば移動領域)の画像を切出手段8により切り出して拡大した後に、画像表示手段10に出力させ、画像表示手段10に色情報を付して表示させるように構成されている。
テンプレートマッチング手段7は、テンプレート記憶手段5に記憶されているテンプレートを用いてテンプレートマッチングを行うとともに、テンプレートマッチングの結果(相関値の情報)を制御手段6に出力するように構成されている。このテンプレートマッチング手段7においてテンプレートのマッチング対象となる画像は、位置予測手段60により最小範囲F2からなる探索範囲が設定されていれば、移動輪郭画像Dにおける探索範囲内の画像が用いられる。すなわち、本実施形態の位置予測手段60では、過去の追尾対象の移動体の位置データを必要とするので、位置データが足りない場合は、移動輪郭画像全体に対してテンプレートマッチングを行う。
切出手段8は、画像記憶手段3に記憶されている画像(撮像手段1より得られた画像)又は移動体検出手段4により生成された移動輪郭画像の一部を切り出し(抽出し)、画像表示手段10又はテンプレート更新手段9に出力するように構成されている。
テンプレート更新手段9は、制御手段6より入力された画像を、次のテンプレートマッチングを行う際のテンプレートとして用いるために、テンプレート記憶手段5に記憶されているテンプレートを制御手段6より入力された画像に更新するように構成されている。
画像表示手段10は、例えば、液晶ディスプレイ(LCD)等の画像表示装置であり、切出手段8から入力された画像の表示を行うように構成されている。
次に、本実施形態の自動追尾装置の動作について、図1(b)を参照して説明する。まず、追尾対象が設定される前の初期状態では、撮像手段1により得られる画像が、画像記憶手段3に記憶されるとともに、画像表示手段10に表示される。すなわち、初期状態では、撮像手段1で得られる画像が、そのまま画像表示手段10に表示される。
この初期状態において、コンソールを用いて画像表示手段10に表示される画像から追尾対象が指定されると、制御手段6の追尾対象指定手段により切出手段8が制御されて、撮像手段1の画像から追尾対象の移動体の画像が切り出され、このようにして切り出された追尾対象の移動体の画像がテンプレート更新手段9によりテンプレートとしてテンプレート記憶手段5に記憶される。
テンプレートマッチング手段7では、テンプレート記憶手段5に記憶されたテンプレートを用いてテンプレートマッチングが行われる。ここで、制御手段6で追尾対象が指定された直後は、過去の追尾対象の移動体の位置データが足りないため、撮像手段1より得た画像全体に対してテンプレートマッチングが行われ、この結果が制御手段6に出力される。
制御手段6では、テンプレートマッチング手段7より得た結果を元に、画像(テンプレートマッチングが行われた画像)において最も相関値が高い位置を、追尾対象の移動体の位置として採用し、この位置を中心とする所定範囲の領域の画像を、切出手段8により拡大して切り出し、切り出した画像を、テンプレート更新手段9に送ってテンプレート記憶手段5に記憶されているテンプレートを更新させるとともに、切出手段8から画像表示手段10に出力させて、画像表示手段10により表示させる。
このようにして追尾対象の移動体の位置データが蓄積されて、過去2回の位置データが与えられると、テンプレートマッチング手段7でテンプレートマッチングを行う範囲を縮小すべく、位置予測手段60により最小範囲F2からなる探索範囲が設定される。尚、最小範囲F2の設定方法については上述した通りであるから説明を省略する。
そして、探索範囲が設定された際には、テンプレートマッチング手段7では、位置予測手段60で設定される探索範囲内において、テンプレート記憶手段5に記憶されたテンプレートを用いてテンプレートマッチングが行われ、この結果が制御手段6に出力される。
制御手段6では、テンプレートマッチング手段7から受け取ったテンプレートマッチングの結果を元に、移動輪郭画像Dにおいて最も相関値が高い位置を、追尾対象の移動体の位置として採用し、この位置を中心とする所定範囲の領域(例えば移動領域)の画像を、切出手段8により切り出して(場合によっては切り出して拡大して)、テンプレート更新手段9に出力させる。また、移動輪郭画像Dの元になった画像における上記追尾対象の移動体の位置を中心とする所定範囲の領域(例えば移動領域)の画像を切出手段8により切り出して拡大した後に、画像表示手段10に出力させ、画像表示手段10に色情報を付して表示させる。
以後、画像毎に探索範囲が設定されるとともに、更新されたテンプレートを用いてのテンプレートマッチングが繰り返し行われ、これにより追尾対象の移動体の追尾が継続されていくことになる。
以上述べた本実施形態の自動追尾方法によれば、今回の画像から移動体検出手段4により検出した移動体(移動領域)M1〜M4のうち、前回及び前々回の画像における追尾対象の移動体の位置P2,P1を元に算出した移動ベクトルLを用いて予測した今回の画像における追尾対象の移動体の予測位置P3を含む予測移動範囲F1と重複する移動体(移動領域)M1,M3,M4を全て囲う最小範囲F2を、テンプレートマッチングにより追尾対象を探索する際の探索範囲としているので、従来のように撮像手段1で得られた画像全体を探索範囲とする場合に比べて、処理時間を短縮できるという効果を奏する。
しかも、予測位置P3を含む予測移動範囲F1と重複する移動体(移動領域)M1,M3,M4を全て囲う最小範囲F2を探索範囲とすることによって、追尾対象の移動体であると予測される移動体は、全て探索範囲内に含まれることになるから、追尾対象の移動体を逃してしまうことがないという効果を奏する。また、今回の画像において追尾対象が複数の移動体に分かれて検出されてしまった場合でも、追尾対象に関係する移動体を除外してしまうことがなくなり、追尾精度を向上できるという効果を奏する。
(実施形態2)
本実施形態の自動追尾方法は、上記実施形態1の自動追尾方法と同様に、図1(a)に示すような自動追尾装置に用いられるものであるが、主として位置予測手段60で実行する探索範囲設定過程が実施形態1と異なっている。尚、その他の構成は実施形態1と同様であるから同様の構成については説明を省略する。
以下に、図2(a)に示す移動輪郭画像Dを参照して、本実施形態の探索範囲設定過程について説明する。
探索範囲設定過程は、最小範囲F2を算出するまでは上記実施形態1と同様であるが、移動ベクトルLから追尾対象の移動体の移動速度を算出し予測位置P3を含む移動速度の実数倍(本実施形態ではa倍、但しaは実数)の範囲を制限範囲F3として用い、制限範囲F3と最小範囲F2が重複する範囲からなる制限探索範囲F4を探索範囲として設定する点で異なっている。
制限範囲F3は、移動ベクトルLと予測位置P3を用いて次のようにして決定される。まず、追尾対象の移動体の移動速度を算出する。ここで、撮像手段1より得られる画像群の時間間隔が一定であることを考慮すると、移動速度は移動ベクトルLの大きさ(ノルム)に正比例することになる。したがって本実施形態では、移動速度は移動ベクトルLの大きさVで代用する。尚、移動輪郭画像D上の座標は整数で与えるようにしているから、Vの小数点以下は四捨五入や切捨て等によって除去する。
この後に、予測位置P3を中心とする移動速度Vの実数倍の範囲を求める。この範囲は、例えば移動輪郭画像D上において、画素R1=(x−a・V,y+a・V)と、画素R2=(x+a・V,y+a・V)と、画素R3=(x−a・V,y−a・V)と、画素R4=(x+a・V,y−a・V)の4つの画素R1〜R4を頂点とする矩形状の範囲としている。ここで、aの値は、制限範囲F3によって追尾対象の移動体が移動しうる上限の範囲を与えるような値とすることが好ましい。ところで、aの値は、所定値に固定するようにしてもよいが、移動ベクトルLの大きさVが大きくなった際には、追尾対象の移動体の予測位置が拡散するために予測位置精度が悪くなるので、例えば移動ベクトルLの大きさVに正比例して変化するようにしてもよく、このようにすれば、移動ベクトルLの大きさVが大きいほどaの値が大きく(制限範囲F3が広く)なるから、予測位置精度の悪化にも対応することができる。尚、aの値はX軸方向とY軸方向とで倍率を異なる値に設定するようにしてもよい。
尚、上記の例は、制限範囲F3として、予測位置P3を中心とする移動速度のa倍の範囲を用いたものであるが、制限範囲F3を設定する際には、予測位置P3を制限範囲F3の中心とせずに、移動ベクトルの向きを考慮して偏移させたものであってもよい。また尚、制限範囲F3の範囲の形状も矩形状に限らず、円形状等にしてもよいが、矩形状とするほうが演算処理を容易にできるため好ましい。
制限探索範囲F4は、上記のようにして得られた制限範囲F3と、最小範囲F2とが重複する範囲として与えられる。具体的には、制限範囲F3の4つの画素R1〜R4の各X,Y座標と、最小範囲F2の4つの画素Q1〜Q4の各X,Y座標とから、X軸の正方向及び負方向のそれぞれにおいて予測位置P3に最も近いX座標x,xと、Y軸の正方向及び負方向のそれぞれにおいて予測位置P3に最も近いY座標y,yとを選出することで、制限探索範囲F4を得ることができる。すなわち、制限探索範囲F4は、画素S1=(x,y)=(x,y+a・V)と、画素S2=(x,y)=(x+a・V,y+a・V)と、画素S3=(x,y)=(x,y−a・V)と、画素S4=(x,y)=(x+a・V,y−a・V)の4つの画素S1〜S4を頂点とする矩形状の範囲として得られる。
このように本実施形態の自動追尾方法では、位置予測手段60の探索範囲設定過程において、探索範囲を最小範囲F2ではなく、最小範囲F2を制限範囲F3で制限した範囲である制限探索範囲F4を探索範囲として設定するようにしているのである。したがって、本実施形態におけるテンプレートマッチング手段7では、制限探索範囲F4からなる探索範囲内においてテンプレートを用いてテンプレートマッチングが行われる。
以上述べたように、本実施形態の自動追尾方法によれば、実施形態1と同様の効果を奏する上に、最小範囲F2と、移動ベクトルLから算出した追尾対象の移動体の移動速度及び予測位置P3を基準として設定した範囲からなる制限範囲F3とが重複する範囲からなる制限探索範囲F4を、テンプレートマッチングにより追尾対象を探索する際の範囲としているので、実施形態1に比べて処理時間をさらに短縮できるという効果を奏する。
ところで、実施形態1の自動追尾方法では、移動体検出手段4により移動領域の検出を行った際にノイズ等によって移動領域が広がってしまう場合があり、ノイズ等によって広がった移動領域が予測移動範囲F1と重複する部分を有するものであると、最小範囲F2にもノイズ等の影響が及んで、最小範囲F2も広がってしまう(すなわち探索範囲が広がってしまう)おそれがあった。これに対して本実施形態の自動追尾方法では、最小範囲F2を制限範囲F3によって制限してなる制限探索範囲F4を探索範囲として用いるようにしているので、上記のようなノイズ等によって最小範囲F2が広げられてしまった場合でも、制限範囲F3によってノイズによる不必要な探索範囲の広域化が抑制されるから、ノイズ等による探索範囲の広域化を効率的に抑制できるという効果を奏する。
以上述べた本実施形態の自動追尾方法では、予測位置P3を中心とした移動速度Vの実数倍の範囲を、制限範囲F3として用いているが、例えば図2(b)に示すように、追尾対象の移動体のテンプレートのサイズ及び予測位置P3を基準として設定した範囲を、制限範囲F5として用い、制限範囲F5と最小範囲F2が重複する範囲からなる制限探索範囲F6を探索範囲として設定するようにしてもよい。
制限範囲F5は、例えば、予測位置P3を中心とするテンプレートのサイズの実数倍(本実施形態ではb倍、但しbは実数)の範囲として設定される。ここで、テンプレートのサイズが、Tx×Tyであるとすれば、制限範囲F5は、移動輪郭画像D上において、画素R11=(x−b・Tx/2,y+b・Ty/2)と、画素R12=(x+b・Tx/2,y+b・Ty/2)と、画素R13=(x−b・Tx/2,y−b・Ty/2)と、画素R14=(x+b・Tx/2,y−b・Ty/2)の4つの画素R11〜R14を頂点とする矩形状の範囲としている。ここで、bの値は、制限範囲F5によって追尾対象の移動体が移動しうる上限の範囲を与えるような値とすることが好ましい。ところで、bの値は、所定値に固定するようにしてもよいが、移動ベクトルLの大きさVが大きくなった際には、追尾対象の移動体の予測位置が拡散するために予測位置精度が悪くなるので、例えば移動ベクトルLの大きさVに正比例して変化するようにしてもよく、このようにすれば、移動ベクトルLの大きさVが大きいほどbの値が大きく(制限範囲F5が広く)なるから、予測位置精度の悪化にも対応することができる。尚、bの値はX軸方向とY軸方向とで倍率を異なる値に設定するようにしてもよい。
尚、上記の例は、制限範囲F5として、予測位置P3を中心とするテンプレートのサイズのb倍の範囲を用いたものであるが、制限範囲F5を設定する際には、予測位置P3を制限範囲F5の中心とせずに、移動ベクトルの向きを考慮して偏移させたものであってもよい。また尚、制限範囲F5の範囲の形状も矩形状に限らず、円形状等にしてもよいが、矩形状とするほうが演算処理を容易にできるため好ましい。
制限探索範囲F6は、上記のようにして得られた制限範囲F5と、最小範囲F2とが重複する範囲として与えられる。具体的には、制限範囲F5の4つの画素R11〜R14の各X,Y座標と、最小範囲F2の4つの画素Q1〜Q4の各X,Y座標とから、X軸の正方向及び負方向のそれぞれにおいて予測位置P3に最も近いX座標x,xと、Y軸の正方向及び負方向のそれぞれにおいて予測位置P3に最も近いY座標y,yとを選出することで、制限探索範囲F6を得ることができる。すなわち、制限探索範囲F6は、画素S11=(x,y)=(x,y+b・Ty/2)と、画素S12=(x,y)=(x+b・Tx/2,y+b・Ty/2)と、画素S13=(x,y)=(x,y−b・Ty/2)と、画素S14=(x,y)=(x+b・Tx/2,y−b・Ty/2)の4つの画素S11〜S14を頂点とする矩形状の範囲として得られる。
このようにすれば、最小範囲F2と、追尾対象の移動体のテンプレートのサイズ及び予測位置P3を基準として設定した範囲からなる制限範囲F5とが重複する範囲からなる制限探索範囲F6を、テンプレートマッチングにより追尾対象を探索する際の探索範囲としているので、上述したように制限探索範囲F4を探索範囲として用いた場合と同様の効果を奏する。
尚、本実施形態の自動追尾方法では、最小範囲F2を制限範囲F3によって制限してなる制限探索範囲F4、又は最小範囲F2を制限範囲F5によって制限してなる制限探索範囲F6をテンプレートマッチングにより追尾対象を探索する際の探索範囲としているが、最小範囲F2を算出せずに、制限範囲F3、又は制限範囲F5をテンプレートマッチングにより追尾対象を探索する際の探索範囲としてもよい。
このようにした場合であっても、前回及び前々回の画像における追尾対象の移動体の位置P2,P1を元に算出した移動ベクトルLを用いて予測した今回の画像における追尾対象の移動体の予測位置P3と、追尾対象の移動体の移動速度、又は追尾対象の移動体のテンプレートのサイズとを基準にして設定した範囲内でテンプレートマッチングが行われるから、従来のように撮像手段1で得られた画像全体を探索範囲とする場合に比べて処理時間を短縮できるという効果が得られる。
(実施形態3)
本実施形態の自動追尾方法は、上記実施形態1の自動追尾方法と同様に、図1(a)に示すような自動追尾装置に用いられるものであるが、主として位置予測手段60で実行する過程が実施形態1の自動追尾方法と異なっている。尚、その他の構成は実施形態1と同様であるから同様の構成については説明を省略する。
本実施形態の自動追尾方法における位置予測手段60は、探索範囲設定過程を実行した後に、探索範囲設定過程で設定された探索範囲内において移動体検出手段4で検出した移動体の表示に使用されている画素(本実施形態の場合、移動領域のエッジの表示に使用されている画素)である移動画素が集中している範囲を制限探索範囲として設定する探索範囲制限過程を実行する点で実施形態1と異なっている。また、本実施形態の自動追尾方法におけるテンプレートマッチング手段7は、探索範囲制限過程により設定された制限探索範囲内においてテンプレートを用いてテンプレートマッチングを行うように構成されている。
以下に、図3(a)に示す移動輪郭画像D1を参照して探索範囲制限過程について説明する。尚、図3(a)に示す移動輪郭画像D1は、説明の簡略化のために実際とは白黒を反転させて示している。この点は後述する図4(a)に示す移動輪郭画像D2においても同様である。また以下の説明では、図3(a)に示すように移動体検出手段4により移動領域M11〜M14が検出され、実施形態1で述べた探索範囲設定過程により探索範囲F10が設定されているとする。
探索範囲制限過程は、探索範囲F10内において移動体検出手段4で検出した移動領域の移動画素が集中している範囲F11を制限探索範囲として設定する過程であり、分布データ作成過程と、分布分析過程とを有している。
分布データ作成過程は、図3(b)に示すようなX軸分布データと図3(c)に示すようなY軸分布データとを作成する過程であり、各軸分布データは次のようにして作成される。すなわち、X軸分布データは、各X座標上における移動画素の数を表す分布データであり、探索範囲F10内において移動体検出手段4で検出した移動領域M11〜M14の移動画素のX軸の一画素列における分布をY軸方向に積算することで作成される。また、Y軸分布データは、各Y座標上における移動画素の数を表す分布データであり、探索範囲F10内において移動体検出手段4で検出した移動領域M11〜M14の移動画素のY軸の一画素列における分布をX軸方向に積算することで作成される。
分布分析過程は、分布データ作成過程により作成された各軸分布データを元に探索範囲F10内において移動領域の移動画素が集中している範囲(すなわち制限探索範囲)F11を求める過程である。
ここで、上記移動画素が集中している範囲F11は、例えば図3(b)に示すようにX軸分布データにおいて移動画素数が所定の閾値Thx以上となる領域Axと、図3(c)に示すようにY軸分布データにおいて移動画素数が所定の閾値Thy以上となる領域Ayからなる移動輪郭画像D1上の範囲として与えられる。ここで、移動画素数が所定の閾値以上となる領域は、ノイズや誤差等を考慮して移動画素数が所定の閾値未満となる座標が所定数以上連続しなければ一の領域であると判断するように設定してあり、これによって上記領域が細切れに現れてしまうことを防止している。
このように本実施形態の自動追尾方法における位置予測手段60では、探索範囲F10を移動領域の移動画素の分布を元にして制限した範囲F11である制限探索範囲を得るようにしているのである。そして、これに対応してテンプレートマッチング手段7では、テンプレートのマッチング対象となる画像を、探索範囲F10ではなく制限探索範囲(範囲F11)内の画像としている。
したがって、本実施形態の自動追尾方法によれば、上記実施形態1と同様の効果を奏する。その上、探索範囲F10において移動体検出手段4で検出した移動領域M11〜M14の移動画素が集中している範囲F11である制限探索範囲を、テンプレートマッチングにより追尾対象を探索する際の範囲としているので、実施形態1に比べて処理時間をさらに短縮できるという効果を奏する。また、ノイズ等による探索範囲F10の広域化を効率的に抑制できるという効果を奏する。加えて、テンプレートマッチングする際の範囲(すなわち制限探索範囲)を追尾対象の移動体のサイズに近付けることができるという効果を奏する。
さらに、ノイズ等によって探索範囲F10が広げられてしまった場合でも、制限探索範囲によってノイズによる不必要な探索範囲F10の広域化が抑制されるから、上記実施形態2と同様にノイズ等による探索範囲F10の広域化を効率的に抑制できるという効果を奏する。
尚、上記の例では各軸分布データを所定の閾値を用いているが、この他の方法としては、所定範囲内の移動画素数をカウントする画素密度フィルタを用いるようにしてもよい。
ところで、図3(a)に示す移動輪郭画像D1では、X軸分布データにおいて移動画素数が所定の閾値Thx以上となる領域が領域Axだけであり、Y軸分布データにおいても移動画素数が所定の閾値Thy以上となる領域が領域Ayだけであるから、制限探索範囲も1つとなっているが、当然ながら、各軸分布データにおいて移動画素数が所定の閾値以上となる領域が複数現れる場合もある。
例えば、図4(a)に示すように、移動体検出手段4により移動領域M21,M22が得られた移動輪郭画像D2では、探索範囲設定過程により設定された探索範囲F20内において、X軸分布データに、図4(b)に示すように移動画素数が所定の閾値Thx以上となる領域が領域Ax1と領域Ax2の2つ存在している。尚、Y軸分布データには、図4(c)に示すように、移動画素数が所定の閾値Thy以上となる領域が領域Ayのみとなっている。
このような場合、上述した分布分析過程では、領域Ax1と領域Ayからなる制限探索範囲F21と、領域Ax2と領域Ayからなる制限探索範囲F22とが得られることになり、テンプレートマッチング手段7では、両制限探索範囲F21,F22においてテンプレートマッチングが行われることになる。
ここで、移動領域M21が、追尾対象の移動体と何ら関係のない移動体を示すものであるとすれば、移動領域M21によって生じた制限探索範囲F21をテンプレートマッチングすることは時間の無駄になる。
そこで、このような追尾対象の移動体と関係のない移動領域M21に起因する制限探索範囲F21を排除するために、上記の分布分析過程時に、X軸分布データにおいて移動画素数が所定の閾値Thx以上となる領域とY軸分布データにおいて移動画素数が所定の閾値Thy以上となる領域とを選出した際に、X軸分布データとY軸分布データの少なくとも一方に領域が複数存在する場合は、複数の領域のうち追尾対象の移動体の予測位置P3に最も近い領域を一方において移動画素数が所定の閾値以上となる領域として採用するようにしている。例えば、領域毎に予測位置P3に最も近い画素と予測位置P3との距離を算出し、距離が最も短い領域を予測位置P3に最も近い領域として採用するのである。
図4(a)に示す場合では、X軸分布データに図4(b)に示すように、移動画素数が所定の閾値Thx以上となる領域が領域Ax1,Ax2の2つあるが、領域Ax2には予測位置P3のX座標が含まれるため、領域Ax2が予測位置P3に最も近い領域であるとされ、この領域Ax2のみがX軸分布データにおいて移動画素数が所定の閾値Thx以上となる領域として採用されることになる。
その結果、分布分析過程では領域Ax2と領域Ayからなる制限探索範囲F22のみがテンプレートマッチング手段7によるマッチング対象となる。
このようにすれば、探索範囲F20内において移動領域が集中している範囲が複数現れても、予測位置P3に最も近い範囲を残すことで追尾対象ではない移動体を除外することができ、さらなる処理時間の短縮を図ることができるという効果を奏する。
或いは、上記の分布分析過程において次のような処理を行うようにしてもよい。すなわち、X軸分布データにおいて移動画素数が所定の閾値Thx以上となる領域とY軸分布データにおいて移動画素数が所定の閾値Thy以上となる領域とを選出した際に、X軸分布データとY軸分布データの一方に前記領域が複数存在する場合は、他方の軸の一画素列における前記移動画素の分布を前記複数の領域のうち追尾対象の移動体の予測位置に最も近い領域の分だけ積算してなる2次分布データを生成し、前記最も近い領域を一方において前記移動画素数が所定の閾値以上となる領域として採用し、前記2次分布データにおいて前記移動画素数が所定の閾値以上となる領域を他方において前記移動画素数が所定の閾値以上となる領域として採用するような処理を行うようにしてもよい。
以下に、図4(a)〜(c)に示す例を用いて詳細に説明すると、上述したようにX軸分布データにおいて、2つの領域Ax1,Ax2から予測位置P3に最も近い領域Ax2のみを選出した際には、Y軸分布データを算出し直して2次分布データを求めるようにするのである。ここで、2次分布データは、Y軸の一画素列における移動画素の分布をX軸分布データの領域Ax2の分だけ積算することで得られる。つまり、この2次分布データでは、主に移動領域M21の移動画素が省かれる(図4(c)に点線で示す部分が省かれる)ことになる。そして、この2次分布データにおいて、移動画素数が所定の閾値Thy以上となる領域Byは、図4(c)に示すように領域Ayよりも狭い範囲となり、この領域Byと領域Ax2を用いることで、図4(a)に示すように制限探索範囲F22よりもさらに縮小された制限探索範囲F23を得ることができる。
したがって、このようにすれば、探索範囲F20内において移動領域が集中している範囲が複数現れても、予測位置P3に最も近い範囲を残すことで、追尾対象ではない移動体を除外することができ、さらなる処理時間の短縮を図ることができるという効果を奏する。また、制限探索範囲F23を追尾対象の移動体のサイズに近付けることができるという効果を奏する。
尚、本実施形態の自動追尾方法の思想を実施形態2に適用するようにしてもよい。すなわち、実施形態1で述べたように最小範囲を探索範囲とするのではなく、実施形態2で述べたように最小範囲を、移動ベクトルから算出した追尾対象の移動体の移動速度及び前記予測位置を基準として設定した範囲、又は追尾対象の移動体のテンプレートのサイズ及び前記予測位置を基準として設定した範囲からなる制限範囲で制限した範囲を探索範囲として採用するようにしてもよい。このようにすればさらなる処理時間の短縮を図ることができるという効果を奏する。
(a)は実施形態1の自動追尾装置のブロック構成示す説明図、(b)は実施形態1の自動追尾方法の概略説明図である。 (a)は実施形態2の自動追尾方法の概略説明図、(b)は実施形態2の自動追尾方法の他例の概略説明図である。 (a)は実施形態3の自動追尾方法の概略説明図、(b)はX軸分布データを示すグラフ、(c)はY軸分布データを示すグラフである。 (a)は実施形態3の自動追尾方法の他例の概略説明図、(b)はX軸分布データを示すグラフ、(c)はY軸分布データを示すグラフである。
符号の説明
1 撮像手段
3 画像記憶手段
4 移動体検出手段
60 位置予測手段
7 テンプレートマッチング手段
L 移動ベクトル
F1 予測移動範囲
F2 最小範囲
M1〜M4 移動領域

Claims (7)

  1. 撮像手段で撮像した画像群から時間的な変化を元に移動体を検出する移動体検出手段と、前記撮像手段で撮像した画像を元に作成された追尾対象の移動体のテンプレートが記憶されるテンプレート記憶手段と、過去の画像における追尾対象の移動体の位置を参照して今回の画像における追尾対象の移動体の位置を予測する位置予測手段と、前記テンプレートを用いたテンプレートマッチングによって今回の画像から追尾対象の移動体の検出を行うテンプレートマッチング手段とを備える自動追尾装置に用いられる自動追尾方法であって、位置予測手段は、前回の画像における追尾対象の移動体の位置と前々回の画像における追尾対象の移動体の位置を元にして追尾対象の移動体の移動ベクトルを算出する移動ベクトル算出過程と、前回の画像における追尾対象の移動体の位置と前記移動ベクトルとを元に今回の画像における追尾対象の移動体の位置を予測する位置予測過程と、今回の画像から前記移動体検出手段により検出した移動体のうち前記予測位置を含む予測移動範囲と重複する移動体を全て囲う最小範囲を元にして今回の画像における追尾対象の移動体の探索範囲を設定する探索範囲設定過程とを実行し、テンプレートマッチング手段は、前記探索範囲内において前記テンプレートを用いてテンプレートマッチングを行うことを特徴とする自動追尾方法。
  2. 位置予測手段は、探索範囲設定過程において、前記移動ベクトルから算出した追尾対象の移動体の移動速度及び前記予測位置を基準として設定した範囲を制限範囲として用い当該制限範囲と前記最小範囲が重複する範囲を探索範囲として設定することを特徴とする請求項1記載の自動追尾方法。
  3. 位置予測手段は、探索範囲設定過程において、追尾対象の移動体のテンプレートのサイズ及び前記予測位置を基準として設定した範囲を制限範囲として用い当該制限範囲と前記最小範囲が重複する範囲を探索範囲として設定することを特徴とする請求項1記載の自動追尾方法。
  4. 位置予測手段は、探索範囲設定過程を実行した後に、前記探索範囲内において前記移動体検出手段で検出した移動体の表示に使用されている移動画素が集中している範囲を制限探索範囲として設定する探索範囲制限過程を実行し、テンプレートマッチング手段は、前記制限探索範囲内において前記テンプレートを用いてテンプレートマッチングを行うことを特徴とする請求項1〜3のいずれか1項に記載の自動追尾方法。
  5. 前記探索範囲内において前記移動画素のX軸の一画素列における分布をY軸方向に積算してなるX軸分布データ及びY軸の一画素列における前記移動画素の分布をX軸方向に積算してなるY軸分布データを作成する分布データ作成過程と、X軸分布データにおいて前記移動画素数が所定の閾値以上となる領域及びY軸分布データにおいて前記移動画素数が所定の閾値以上となる領域からなる範囲を前記探索範囲内において前記移動画素が集中している範囲とする分布分析過程とを有していることを特徴とする請求項4記載の自動追尾方法。
  6. 分布分析過程は、X軸分布データにおいて前記移動画素数が所定の閾値以上となる領域とY軸分布データにおいて前記移動画素数が所定の閾値以上となる領域とを選出した際に、X軸分布データとY軸分布データの少なくとも一方に前記領域が複数存在する場合は、前記複数の領域のうち前記予測位置に最も近い領域を一方において前記移動画素数が所定の閾値以上となる領域として採用することを特徴とする請求項5記載の自動追尾方法。
  7. 分布分析過程は、X軸分布データにおいて前記移動画素数が所定の閾値以上となる領域とY軸分布データにおいて前記移動画素数が所定の閾値以上となる領域とを選出した際に、X軸分布データとY軸分布データの一方に前記領域が複数存在する場合は、他方の軸の一画素列における前記移動画素の分布を前記複数の領域のうち追尾対象の移動体の予測位置に最も近い領域の分だけ積算してなる2次分布データを生成し、前記最も近い領域を一方において前記移動画素数が所定の閾値以上となる領域として採用し、前記2次分布データにおいて前記移動画素数が所定の閾値以上となる領域を他方において前記移動画素数が所定の閾値以上となる領域として採用することを特徴とする請求項5記載の自動追尾方法。
JP2006293079A 2006-10-27 2006-10-27 自動追尾方法 Expired - Fee Related JP4725490B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2006293079A JP4725490B2 (ja) 2006-10-27 2006-10-27 自動追尾方法
EP07015988A EP1916538A3 (en) 2006-10-27 2007-08-14 Target moving object tracking device
TW096130528A TWI375173B (en) 2006-10-27 2007-08-17 Target moving object tracking device
CN2007101425988A CN101170683B (zh) 2006-10-27 2007-08-29 目标移动对象跟踪设备
US11/896,345 US8194134B2 (en) 2006-10-27 2007-08-31 Target moving object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006293079A JP4725490B2 (ja) 2006-10-27 2006-10-27 自動追尾方法

Publications (2)

Publication Number Publication Date
JP2008112210A JP2008112210A (ja) 2008-05-15
JP4725490B2 true JP4725490B2 (ja) 2011-07-13

Family

ID=39444713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006293079A Expired - Fee Related JP4725490B2 (ja) 2006-10-27 2006-10-27 自動追尾方法

Country Status (1)

Country Link
JP (1) JP4725490B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5451593B2 (ja) * 2008-06-09 2014-03-26 パナソニック株式会社 撮像装置、撮像方法
JP4926163B2 (ja) * 2008-12-18 2012-05-09 日本電信電話株式会社 移動対象検出装置、移動対象検出方法及び移動対象検出プログラム
JP4819866B2 (ja) * 2008-12-26 2011-11-24 日本電信電話株式会社 画像追跡装置、画像追跡方法および画像追跡プログラム
JP2011253381A (ja) * 2010-06-02 2011-12-15 Toshiba Corp 目標追跡装置及び目標追跡方法
CN102714696B (zh) * 2010-11-11 2016-03-02 松下电器(美国)知识产权公司 图像处理装置、图像处理方法及摄影装置
JP5709255B2 (ja) * 2011-04-05 2015-04-30 株式会社日立国際電気 画像処理方法および監視装置
JP5792091B2 (ja) * 2012-02-16 2015-10-07 富士通テン株式会社 物体検出装置及び物体検出方法
JP2014027580A (ja) * 2012-07-30 2014-02-06 Jvc Kenwood Corp 撮像装置、及び画像処理方法
JP6488647B2 (ja) * 2014-09-26 2019-03-27 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
US10664705B2 (en) 2014-09-26 2020-05-26 Nec Corporation Object tracking apparatus, object tracking system, object tracking method, display control device, object detection device, and computer-readable medium
JP6750385B2 (ja) * 2016-08-10 2020-09-02 富士通株式会社 画像処理プログラム、画像処理方法および画像処理装置
JP6972757B2 (ja) 2017-08-10 2021-11-24 富士通株式会社 制御プログラム、制御方法、及び情報処理装置
JP6972756B2 (ja) 2017-08-10 2021-11-24 富士通株式会社 制御プログラム、制御方法、及び情報処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6166486A (ja) * 1984-09-10 1986-04-05 Matsushita Electric Works Ltd 静止画像伝送方式
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object

Also Published As

Publication number Publication date
JP2008112210A (ja) 2008-05-15

Similar Documents

Publication Publication Date Title
JP4725490B2 (ja) 自動追尾方法
US7999846B2 (en) Image processing apparatus, image processing system, and recording medium for programs therefor
JP6501501B2 (ja) 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP4915655B2 (ja) 自動追尾装置
US9367732B2 (en) Information processing device, information processing method, and recording medium
JP6620878B2 (ja) ガス漏れ位置推定装置、ガス漏れ位置推定方法及びガス漏れ位置推定プログラム
JP6314251B2 (ja) 操作入力装置、操作入力方法及びプログラム
JP4724638B2 (ja) オブジェクト検出方法
JP2012022632A (ja) 情報処理装置およびその制御方法
CN112773272B (zh) 移动方向确定方法、装置、扫地机器人和存储介质
CN109543534B (zh) 一种目标跟踪中目标丢失重检的方法及装置
KR20140056790A (ko) 영상 인식 장치 및 그 방법
JP4801934B2 (ja) 移動物体検出装置
US20220207290A1 (en) Apparatus for processing labeled data to be used in learning of discriminator, method of controlling the apparatus, and non-transitory computer-readable recording medium
US9400929B2 (en) Object detection device and method for detecting an object by performing a raster scan on a scan window
JP2005134966A (ja) 顔画像候補領域検索方法及び検索システム並びに検索プログラム
JP2018092354A (ja) 物体検出装置および物体検出方法
JP2010238008A (ja) 映像特徴抽出装置、及びプログラム
JP4041060B2 (ja) 画像処理装置、画像処理方法
JP5834253B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2007011696A (ja) 映像検索装置及び映像検索方法
JP5397103B2 (ja) 顔位置検出装置、顔位置検出方法及びプログラム
JP2004110543A (ja) 顔画像処理装置及びプログラム
JP2020047190A (ja) 画像処理方法、コンピュータプログラムおよび記録媒体
JP2008102589A (ja) 動画像処理装置および動画像処理方法ならびに動画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090420

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110307

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110328

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees