JP3481430B2 - 移動体追跡装置 - Google Patents

移動体追跡装置

Info

Publication number
JP3481430B2
JP3481430B2 JP24732597A JP24732597A JP3481430B2 JP 3481430 B2 JP3481430 B2 JP 3481430B2 JP 24732597 A JP24732597 A JP 24732597A JP 24732597 A JP24732597 A JP 24732597A JP 3481430 B2 JP3481430 B2 JP 3481430B2
Authority
JP
Japan
Prior art keywords
template
image
differential
unit
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24732597A
Other languages
English (en)
Other versions
JPH1186004A (ja
Inventor
潤 脇谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP24732597A priority Critical patent/JP3481430B2/ja
Priority to US09/017,313 priority patent/US6031568A/en
Priority to DE69828346T priority patent/DE69828346T2/de
Priority to EP98101910A priority patent/EP0902396B1/en
Publication of JPH1186004A publication Critical patent/JPH1186004A/ja
Application granted granted Critical
Publication of JP3481430B2 publication Critical patent/JP3481430B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、1つ以上の移動
を含むシーンが撮影されてなる、順次連続する複数のフ
レームからなる原画像を入力し、その原画像中に映し出
された被追跡用移動体を追跡する移動体追跡装置にに関
する。
【0002】
【従来の技術】例えば広いフィールドでサッカーゲーム
を行っている様子を撮影して得た動画像上で、そのサッ
カーゲームを行っている複数の選手の中から指定された
特定の選手をリタルタイムで追跡することができるよう
な装置の出現が望まれている。従来より、例えば上記の
選手などのような被追跡用移動体(ターゲット)を追跡
した結果を動画像中に表示する装置は既に何種類か存在
している。しかし、それらの装置は、撮影済の動画像を
ソフトウェアでオフラインで処理する装置であり、処理
時間が非常に長く、動画像を撮影しその場で特定の選手
を追跡するというリアルタイム性が要求される場合には
全く役に立たないものである。また、上記のようなサッ
カーゲームにおける特定の選手を追跡するような場面に
おいては、その選手は、走ったり止まったり、あるいは
向きを変えたり、さらには転倒したりなど、撮影された
画像上で大きく変形するため、従来の装置では、オフラ
イン処理であっても、その目標とする選手の追跡が直ぐ
に不能となり、自動追跡不能の区間をオペレータがマニ
ュアルでつなぐ必要があり、十分な自動化が実現できて
いないという問題もある。
【0003】近年、リアルタイム性を重視する移動体追
跡手法として、相関演算に基づくテンプレートマッチン
グによる手法が開発されてきている。この手法では、画
像上の、追跡のための探索領域を局所領域に限定するこ
とで計算量を減らし、また計算原理上、処理の並列化が
可能であるため、リアルタイム処理を可能としている。
しかしながら、この手法は、テンプレートをあらかじめ
作成しておき、そのあらかじめ作成されたテンプレート
との相関演算を行なうだけのものであるため、上記のサ
ッカゲームの選手のように画像上大きく変形するような
ターゲットに対してはそのターゲットをすぐに見失って
しまうという弱点があり、リアルタイム性は向上してい
るものの追跡性能の面で満足できるものではない。
【0004】また、追跡のための情報として何を採用す
るかという点に関しては、色情報を用いて動きベクトル
を求めるのがよいという提案(特開平8−130675
号公報参照)、通常の観察に供するような画像ではな
く、その画像を空間的に微分した微分画像を用いて相関
演算を行なうのがよいという提案(特開昭60−209
104号公報参照)、追跡しているターゲットの過去の
動きの情報から次の動きを予測するのがよいという提案
(特開昭60−195682号公報参照)等、従来より
種々の提案がなされているが、何れの提案もリアルタイ
ム性と、実用上十分な追跡性能とを両立させるという要
求を満足するものではない。
【0005】
【発明が解決しようとする課題】 本発明は、上記事情に
鑑み、リアルタイム性と追跡性能の向上が図られた移動
体追跡装置を提供することを目的とする。
【0006】
【課題を解決するための手段】上記目的を達成する本発
明の移動体追跡装置は、1つ以上の移動体を含むシーン
が撮影されてなる、順次連続する複数のフレームからな
る原画像を入力し、その原画像に映し出された移動体の
中から選択された被追跡用移動体を追跡する移動体追跡
装置において、原画像を構成する色分解画像に映し出さ
れた被追跡用移動体と対比される色テンプレートと、色
分解画像との第1の相関値の分布を求める第1の相関値
分布演算部と、原画像を空間的微分することにより微分
画像を求める微分処理部と、微分画像に映し出された被
追跡用移動体と対比される微分テンプレートと、微分画
像との第2の相関値の分布を求める第2の相関値分布演
算部と、被追跡用移動体の過去の動きに基づいて、該被
追跡用の移動体が存在する蓋然性をあらわす動き予測値
の分布を求める動き予測値分布演算部と、上記第1の相
関値、上記第2の相関値、および上記動き予測値を統合
して評価値を求めることにより、被追跡用の移動体の存
在位置を表わす評価値の分布を求める評価値分布演算部
と、評価値分布演算部で求められた評価値の分布に基づ
いて、被追跡用移動体の存在位置を検出する位置検出部
とを備えたことを特徴とする。
【0007】ここで、本発明にいう「原画像を構成する
色分解画像」は、明度だけの情報を有する白黒画像のと
きは、いわば1色分の画像しかないため、その色分解画
像は原画像そのものであり、原画像が、例えばR(レッ
ド)、G(グリーン)、B(ブルー)、それぞれの画像
からなる場合は、それら各色の画像それぞれが色分解画
像である。本発明では、色分解画像が複数存在すると
き、ある1色分の色分解画像のみを採用してもよく、複
数色分の色分解画像それぞれを採用してもよい。複数色
分の色分解画像を採用するときは、色テンプレートも、
各色分解画像それぞれとの対比用に複数色分用意され
る。
【0008】また、上記第1の相関値分布演算部、第2
の相関値分布演算部で求められる第1の相関値、第2の
相関値は、数学的な意味における相関演算により求めら
れる相関値である必要はなく、テンプレートと一部領域
との近似の度合いを指標する値であればよい。ここで
は、近似の度合いを指標する値を「相関値」と称し、そ
の相関値を求める演算を「相関演算」と称する。
【0009】上記第1の相関値分布演算部では、例え
ば、色テンプレートと、色分解画像から切り出された、
色テンプレートの寸法と同一寸法の一部領域との近似の
度合いを表わす第1の相関値を求めて求めた第1の相関
値をその一部領域内の1つの画素に対応づける操作を、
その色分解画像からの一部領域の切り出し位置を順次変
更しながら順次実行することにより、原画像の全領域も
しくは一部領域からなる所定の探索領域内の第1の相関
値の分布が求められ、上記第2の相関値分布演算部で
は、例えば、微分テンプレートと、微分画像から切り出
された、微分テンプレートの寸法と同一寸法の一部領域
との近似の度合いを表わす第2の相関値を求めて求めた
第2の相関値をその一部領域内の1つの画素に対応づけ
る操作を、微分画像からの一部領域の切り出し位置を順
次変更しながら順次実行することにより、上記探索領域
内の第2の相関値の分布が求められる。
【0010】さらに、本発明にいう探索領域は、原画像
の全域であってもよく一部領域であってもよいが、原画
像の寸法、および被追跡用移動体(ターゲット)の寸法
や動きの速さ等を考慮し、できるだけ局所的な領域に制
限する方が、演算量の低減という観点から好ましい。前
述したように、従来より、ターゲットの追跡にあたっ
て、色情報を採用すると言う提案、画像を微分するとい
う提案、ターゲットの過去の動きに基づいてターゲット
の動きを予測するという提案のいずれもが存在する。し
かしながら、これらをどのように組み合わせると、リア
ルタイム性を確保することができ、かつ追跡性能を向上
させることができるか、という点が重要である。
【0011】本発明は、色分解画像と色テンプレートと
の相関演算により、第1の相関値の分布(以下、この第
1の相関値の分布を「色空間ディストーションマップ」
と称することがある)を求め、かつ微分画像と微分テン
プレートとの相関演算により第2の相関値の分布(以
下、この第2の相関値の分布を「微分空間ディストーシ
ョンマップ」と称することがある)を求め、本発明では
このように相関演算を基調として、2つのディストーシ
ョンマップを求めるとともに、さらに、ターゲットの過
去の動きに基づいてターゲットの動きを予測し、その動
きの予測を動き予測値の分布(以下、この動き予測値の
分布を「動き予測値マップ」と称することがある)を求
めるものであり、このように、3つの手法による結果を
同一の探索領域における3つの分布(マップ)の形式に
揃えたことに本発明の特徴の1つがあり、このように3
つの分布(マップ)の形式に揃えたことから、それら3
つの分布の統合、すなわち3つの手法による追跡結果の
統合が容易となり、リアルタイム性を確保した上で、そ
れら3つの手法による追跡結果を統合した追跡性能の高
い自動追跡が可能となる。
【0012】ここで、上記本発明の移動体追跡装置にお
いて、上記評価値分布演算部が、第1の相関値の分布の
信頼性を評価する信頼性評価部を含み、信頼性が低いと
判定された第1の相関値の分布を、評価値の分布を求め
る処理から除外した上で、評価値の分布を求めるもので
あることが好ましい。あるいは、上記評価値分布演算部
は、第1の相関値の分布の信頼性および第2の相関値の
分布の信頼性の双方を評価する信頼性評価部を含み、信
頼性が低いと判定された第1の相関値の分布、および信
頼性が低いと判定された第2の相関値の分布を、評価値
の分布を求める処理から除外した上で、評価値の分布を
求めるものであってもよい。
【0013】ターゲットの変形等によりターゲットの位
置がうまく捉えられていない相関値の分布(ディストー
ションマップ)が求められることがある。そこで、例え
ばしきい値処理等の手法により、そのディストーション
マップの信頼性を評価し、信頼性の低いディストーショ
ンマップを総合評価用の‘評価値の分布’を求めるため
の統合化から除外すると、信頼性の高い‘評価値の分
布’が求められ、追跡性能の一層の向上が図られる。
【0014】なお、信頼性の低いディストーションマッ
プが求められる可能性は色空間ディストーションマップ
の方が微分空間ディストーションマップよりも格段に高
く、従って上記の信頼性評価部は、色空間ディストーシ
ョンマップと微分空間ディストーションマップの双方に
ついて信頼性を評価することがより好ましいものの、時
間的な制約あるいは回路規模上の制約があるときは、色
空間ディストーションマップのみの信頼性を評価するも
のであってもよい。
【0015】また、本発明の移動体追跡装置において、
上記色テンプレートが、順次更新されるテンポラリテン
プレートを含むものであって、色分解画像内の、位置検
出部で検出された、被追跡用移動体の存在位置を含む画
像領域を、そのテンポラリテンプレートに統合すること
により、テンポラリテンプレートを更新する色テンプレ
ート更新部を備えることが好ましい。
【0016】上述したように、微分空間ディストーショ
ンマップと比べ色空間ディストーションマップは信頼性
に劣る。これは、色分解画像上では、ターゲットを捕ら
えにくいことを意味する。そこで、色テンプレートの1
つとしてテンポラリテンプレートを用意し、そのテンポ
ラリテンプレートをそのときそのときの状況に応じて更
新することにより、現在の状況に合った色テンプレート
が構成され、色空間ディストーションマップの信頼性を
向上させることができる。
【0017】ここで、テンポラリテンプレートを更新す
るための構成として、上記評価値分布演算部が、第1の
相関値と第2の相関値とを各画素毎に統合して各画素毎
の統合化相関値を求めることにより統合化相関値の分布
を求める第1の統合化処理部と、その第1の統合化処理
部で求められた統合化相関値と、動き予測値演算部で求
められた動き予測値とを各画素毎に統合して各画素毎の
評価値を求めることにより評価値の分布を求める第2の
統合化処理部とを有し、テンプレート更新部が、上記統
合化相関値の分布に基づいて被追跡用移動体に近似した
物体の存在位置を、複数位置の検出を許容して検出する
近似物体検出部と、色分解画像内の、位置検出部で検出
された、被追跡用移動体の存在位置を含む第1の画像領
域とテンポラリテンプレートとの近似の度合いをあらわ
す第1の近似度、および上記第1の画像領域と、近似物
体検出部で検出された、近似物体の存在位置を含む第2
の画像領域との近似の度合いをあらわす第2の近似度を
求め、第1の近似度の方が第2の近似度よりも近似の度
合が大きいことをあらわしている場合に上記第1の画像
領域をテンポラリテンプレートに統合することにより、
テンポラリテンプレートを更新する評価・統合部とを有
するものであることが好ましい。
【0018】テンプレートは、ターゲットを精度良く検
出することができるものである必要があり、このために
は、ターゲットには強く反応し、ターゲットではないも
のには反応しにくいことが望まれる。そこで、上記の構
成を採用することにより、それまでのテンポラリテンプ
レートに近似した画像領域が求められたときのみ、その
画像領域を用いてテンポラリテンプレートが更新され、
ターゲットの現在の状態に適合した、かつ他の移動体等
との識別がより確実に行われるテンポラリテンプレート
が生成される。
【0019】また、上記本発明の第1の相関値分布演算
部および第2の相関値分布演算部に共用される、もしく
はこれら第1の相関値分布演算部および第2の相関値分
布演算部それぞれに配備された、2つの画像ないし画像
領域の、互いに対応する画素に割り当てられた画素値ど
うしの差分の絶対値を、それら2つの画像ないし画像領
域にわたって積算してなる相関値を求める相関器を備
え、微分処理部が、その相関器に、原画像を微分して微
分画像を求める微分演算のうちの一部の演算を実行させ
るものであることも好ましい態様である。
【0020】本発明の移動体追跡装置における第1の相
関値分布演算部および第2の相関値分布演算部における
相関演算アルゴリズムの好ましい態様の1つとして、2
つの画像ないし画像領域の互いに対応する画素に割り当
てられた画素値どうしの差分の絶対値を、それら2つの
画像ないし画像領域にわたって積算してなる相関値を求
める相関演算アルゴリズムを採用することができる。こ
のような相関演算アルゴリズムを採用すると、数学的な
意味における相関演算における掛け算が引き算に置き換
わり、相関値を極めて迅速に求めることができる。
【0021】このような相関器を備えた場合、後述する
ように、原画像から微分画像を求めるときの微分演算の
うちの一部の演算をその相関器に行わせることもでき
る。本発明の微分処理部では微分演算を行うにあたりそ
の微分演算を実行する独自のモジュールを構成してもよ
いが、上記の相関器を共用してもよい。その相関器を共
用すると、その分、回路規模が削減される。
【0022】また、本発明の移動体追跡装置において、
上記動き予測値分布演算部は、被追跡用移動体の、現時
点から次の時点までの間の動きを予測した予測動きベク
トルを求め、その予測動きベクトルがあらわす、次の時
点における被追跡用移動体の存在予測位置に最大の蓋然
性、その存在予測位置から離れるに従って低下した蓋然
性をあらわす動き予測値を、探索領域内の各画素に対応
づけるものであることが好ましい。
【0023】本発明の移動体追跡装置は、ターゲットの
過去の動きからそのターゲットの動きを予測するにあた
り、従来技術のように動きベクトルのみを求めるのでは
なく、動き予測値の分布(動き予測値マップ)を求める
ことに1つの特徴があるが、やはり、予測動きベクトル
があらわすターゲットの移動予測位置にターゲットが移
動する可能性が一番高い。そこで、予測動きベクトルを
求め、その予測動きベクトルが表わす、ターゲットの移
動予測位置に、その位置にターゲットが移動する蓋然性
として最大の蓋然性、そこから離れるに従って低下した
蓋然性をあらわす動き予測値マップを作成することによ
り、より確実な追跡が可能となる。
【0024】ここで、予測動きベクトルを求めるにあた
っては、上記動き予測値分布演算部が、現時点における
被追跡用移動体の存在予測位置をあらわす、過去の時点
で求められた予測動きベクトルと、位置検出部により上
記過去の時点と現時点との双方で検出された被追跡用移
動体の存在位置どうしの位置の相違から求められる被追
跡用移動体の実際の動きをあらわす動きベクトルとに基
づいて、被追跡用移動体の、現時点から次の時点までの
間の動きを予測した予測動きベクトルを求めるものであ
ることが好ましい。
【0025】このようなアルゴリズムにより求められる
予測動きベクトルは、過去のターゲットが実際に通った
軌跡の集大成の意味を持っている。そこで、上記のよう
に、ターゲットの過去の軌跡の集大成である予測動きベ
クトルとそのターゲトの直近の動きを表わす動きベクト
ルとに基づいて次の予測動きベクトルを求めることによ
り、そのターゲットの過去の動きも考慮された、より確
度の高い予測動きベクトルが求められ、ひいてはターゲ
ットの追跡性能が向上する。
【0026】また、予測動きベクトルを求めた後の動き
予測値マップを求めるにあたっては、動き予測値分布演
算部が、予測動きベクトルがあらわす被追跡用移動体の
存在予測位置を中心とした距離の関数としての動き予測
値を、探索領域内の各画素に対応づけるものであっても
よいが、上記動き予測値分布演算部が、予測動きベクト
ルがあらわす被追跡用移動体の存在予測位置を中心と
し、その予測動きベクトルの方向の距離に対する重みと
その方向に対し交わる方向の距離に対する重みとが異な
る重みをもつ、これら2つの距離の関数としての動き予
測値を、探索領域内の各画素に対応づけるものであるこ
とが、より好ましい。
【0027】通常は、ある速度で移動しているターゲッ
トは、次の時点でも同じ方向に進んでいる可能性が高
い。例えば、このような状況があてはまる状況において
は、例えば予測動きベクトルの方向に長軸を持つ楕円体
形状の動き予測値マップを作成することにより、より安
定的な追跡を行なうことができる。ただし、本発明の移
動体追跡装置では、予測動きベクトルの方向に長軸を持
っていることは必ずしも必要ではなく、例えば本発明の
移動体追跡装置をカーブの多い動きをするターゲットに
適用するときは、動き予測ベクトルの方向に対し交わる
方向に長軸を持っていることが好ましく、あるいは本発
明の移動体追跡装置を直進とカーブとのいずれが多いと
もいえない動きが予測されるターゲットに適用するとき
は、いずれの方向にも長軸、短軸を持たない等方な形状
の動き予測値マップを採用してもよい。
【0028】また、動き予測値マップを求めるにあた
り、動き予測値分布演算部が、予測動きベクトルの大き
さを変数とした関数としての動き予測値を、探索領域内
の各画素に対応づけるものであることも好ましい形態で
ある。例えばサッカーゲームにおけるある選手をターゲ
ットとしたとき、ターゲットの動きが早いと次の時点で
もその動きが継続されている可能性が高く、ターゲット
の動きが遅いと次の時点では別の動きに移行する可能性
が高まる。そこで、予測動きベクトルの大きさを考慮し
てターゲットの動きに追随した動き予測値マップを作成
することにより、ターゲットをより安定的に追跡するこ
とが可能となる。
【0029】尚、本発明において、予測動きベクトルの
方向と予測動きベクトルの大きさとの双方を考慮した動
き予測値マップを作成してもよいことはもちろんであ
る。また本発明の移動体追跡装置において、上記第2の
相関値分布演算部は、被追跡用移動体の追跡に先立って
指定された原画像上の所定位置と同一の、微分画像上の
所定位置を含む、その微分画像内の所定の画像領域を、
微分テンプレートとして設定するものであってもよい。
【0030】追跡に先立って原画像上のある初期のフレ
ーム上でターゲットが指定されると、微分画像内の、そ
のターゲットを含む画像領域をそのまま微分テンプレー
トとして設定することにより、以後、その設定された微
分テンプレートを用いてそのターゲットを追跡すること
ができる。あるいは、本発明の移動体追跡装置におい
て、上記第2の相関値分布演算部が、被追跡用移動体の
追跡に先立って指定された原画像上の所定位置と同一
の、微分画像上の所定位置を含む、その微分画像内の、
微分テンプレートの寸法よりも大きな寸法の画像領域内
で、被追跡用移動体として指定され得る移動体に対し共
通的に設定された共通テンプレートとの近似の度合の高
い、微分テンプレートの寸法と同一の一部領域を検出
し、その一部領域を微分テンプレートとして設定するも
のであることが好ましい。
【0031】原画像上でターゲットを指定する際に、特
に動画像上ではターゲットが動いていることも多く、そ
のターゲットを正確には指定しにくい場面もある。この
ような場合に、そのターゲットを含む、そのターゲット
に近似した移動体等のいずれにも反応するような共通テ
ンプレートを用意しておいて、あるターゲットを指定し
ようとしてそのターゲットの近傍が指定されると、その
指定された点を含む広めの領域の中からそのターゲット
を捜し、捜し出したターゲットを切りだして微分テンプ
レートを設定する。このように構成することにより、タ
ーゲットの指定位置に誤差があっても、正しい微分テン
プレートが設定される。
【0032】ここで、上記のように共通テンプレートを
用意しておいて、ターゲットの位置指定の誤差を許容す
るように構成した場合に、さらに、上記第2の相関値分
布演算部が、微分テンプレートを初回に設定した時点よ
りも後の1つ以上の各時点において、微分画像内の、位
置検出部で検出された、被追跡用移動体の存在位置を含
む画像領域を微分テンプレートに統合することにより、
微分テンプレートを更新する、被追跡用移動体の追跡を
開始した後の所定の初期段階で動作する微分テンプレー
ト更新部を備えることがさらに好ましい。
【0033】上記のように共通テンプレートを用いて微
分画像の一部領域を切りだし、その切り出した一部領域
を微分テンプレートとして設定するように構成した場
合、共通テンプレートはターゲットのみでなくかなり広
範な移動体等に反応するように作成されるため、上記の
ようにして切り出した一部領域にも多少の誤差を含む可
能性がある。そこで、上記微分テンプレート更新部を備
え、追跡を開始した後の初期の段階では微分テンプレー
トを更新するように構成すると、一層正確な微分テンプ
レートが設定され、ターゲットを一層安定的に追跡する
ことができる。
【0034】一方、色テンプレートに関しては、色テン
プレートが、固定された固定テンプレートを含むもので
あって、第1の相関値分布演算部が、微分テンプレート
が設定もしくは最終的に更新された時点における、色分
解画像内の、位置検出部で検出された被追跡用移動体の
存在位置を含む画像領域を固定テンプレートとして設定
するものであることが好ましい。
【0035】微分画像上の、微分テンプレートとして切
り出す一部領域が定まると、その微分画像上の一部領域
と同一の、色分解画像上の一部領域を色テンプレートと
して用いることができる。色テンプレートが順次更新さ
れるテンポラリテンプレートを含む場合については上述
したが、色テンプレートが、一度設定されあとは固定的
に用いられる固定テンプレートを含むものである場合、
微分テンプレートとして切り出す、微分画像上の一部領
域と同一の、色分解画像上の一部領域を切り出して固定
テンプレートとして用いることにより、正確な色テンプ
レートを設定することができる。
【0036】色テンプレートを設定するにあたっては、
色分解画像上で作用させる共通テンプレートを設定して
おいて色分解画像上で色テンプレートとして設定される
一部領域を検出するよりも、上記のように微分画像上で
検出した方が、一般的に高い検出精度を得ることができ
る。また、本発明の移動体追跡装置は、移動体を含むシ
ーンが撮影されてなる、複数のフレームからなる原画像
を順次連続して入力する入力手段、該複数のフレーム間
で該移動体の位置が異なる移動体を追跡し、該フレーム
内の移動体の位置を、上記連続して入力される時間で順
次出力する移動体追跡手段、および上記入力手段で入力
された原画像の、移動体追跡手段で追跡した移動体の位
置にマークを表示するためのマーク発生手段を備えた構
成としてもよい。
【0037】このようなマークを発生させることによ
り、ある移動体の存在や動きを注目させる動画像を得る
ことができる。
【0038】
【発明の実施の形態】以下、本発明の実施形態について
説明する。図1は本発明の移動体追跡装置の一実施形態
を含む自動追跡システムの模式図である。図1に示す自
動追跡システムでは、本発明の一実施形態としての移動
体追跡装置は、コンピュータシステム1の内部に実現さ
れている。
【0039】ビデオカメラ2は、サーボシステム3によ
り駆動され上下左右に向きが変更されるように構成され
ている。ビデオカメラ2での撮影により得られた画像
は、コンピュータシステム1に取り込まれ、コンピュー
タシステム1の内部では、その画像中に映し出されたあ
る移動物体(ターゲット)が検出され、そのターゲット
がビデオカメラ2での撮影により得られる画像内に常に
含まれるようにサーボシステム3を制御して、ビデオカ
メラ2の上下方向および左右方向の向きを変更させる。
【0040】ビデオカメラ2で得られた画像は、コンピ
ュータシステム1に取り込まれるほか、コンピュータシ
ステム1から出力された、画像上のターゲットの位置情
報とともに、他の機器、例えば図示しない放送用機器に
伝えられ、その放送用機器では、そのターゲットのみ目
立つように特別な色で表示するなどの画像処理を施し
て、最終的に電波で放映し、あるいは後の放映等のため
に録画される。
【0041】ここで、図1に示すコンピュータシステム
1は、本体部101、キーボード102、マウス10
3、およびCRT表示部104から構成されており、本
体部101には、プログラムを実行するCPU、プログ
ラムやデータを保存しておくためのハードディスク、ビ
デオカメラ2からの画像を内部に取り込んだりコンピュ
ータシステム1からサーボシステム3や他の機器に伝え
る信号を出力するためのI/Oボード、フロッピィディ
スクが装填され装填されたフロッピィディスクをアクセ
スするフロッピィディスクドライブ装置、および、この
コンピュータシステム1に特有なものとして、後述する
相関器が搭載されたボード等が内蔵されている。
【0042】図2は、図1に示すコンピュータシステム
内に構築された本発明の一実施形態としての移動体追跡
装置の機能構成図である。この移動体追跡装置に入力さ
れる原画像は、順次連続する一連の多数のフレームから
なる動画像であり、各フレームそれぞれについて以下の
処理が行われて、ある指定されたターゲットの位置が各
フレーム毎に検出され、これにより、そのターゲットの
自動追跡が行なわれる。ただし、以下の説明では、説明
の煩わしさを避けるため、特に明示的に表現する必要が
ないときは、各フレーム毎の画像と全体としての動画像
とを区別せずに単に原画像と称する。その原画像を構成
する分解画像やその原画像を微分して得た微分画像につ
いても同様である。
【0043】 ここでは各部の作用の説明は後にまわ
し、図2に示す移動体追跡装置の構成について説明す
る。この図2に示す移動体追跡装置は、色空間ディスト
ーションマップ作成部10、微分処理部20、微分空間
ディストーションマップ作成部30、評価値マップ作成
部40、最小位置検出部50、動き予測値マップ作成部
60、および、色テンプレート更新部70から構成され
ている
【0044】ここで、色空間ディストーションマップ作
成部10は本発明にいう第1の相関値分布演算部の一例
に相当し、微分処理部20は本発明にいう微分処理部の
一例に相当し、微分空間ディストーションマップ作成部
30は本発明にいう第2の相関値分布演算部に相当す
る。また、評価値マップ作成部40は、本発明にいう評
価値分布演算部の一例に相当し、最小値位置検出部50
は、本発明にいう位置検出部の一例に相当し、動き予測
値マップ作成部60は、本発明にいう動き予測値分布演
算部の一例に相当する。さらに、色テンプレート更新部
70は、本発明にいう色テンプレート更新部の一例に相
当する。以下、各部の内部構成について説明する。
【0045】尚、以下に説明する各種のテンプレートや
各種のマップは、いずれも二次元的な広がりを持つ、一
種の画像としての形態を有している。図2に示す移動体
追跡装置には、相関器80が備えられており、この相関
器80は、色空間ディストーションマップ作成部10、
微分処理部20、および微分空間ディストーションマッ
プ作成部30に共用されている。
【0046】この相関器80では、入力された2つの画
像(画像の一部領域やテンプレートを含む)の各画素に
対応づけられたデータをAxy,Bxyとしたとき、各画素
毎のデータの差分の絶対値をそれら2つの画像の全画素
にわたって積算した値dが求められる。すなわち、
【0047】
【数1】
【0048】の演算が実行される。ここでは、この演算
をSAD(Sum of Absolute Diff
erence)処理と称し、このSAD処理により得ら
れた値dをディストーション値と称する。このSAD処
理は、相関演算の一例であり、ディストーション値は本
発明にいう相関値の一例に相当する。このディストーシ
ョン値dは、その値が小さいほど、2つの画像
{Axy},{Bxy}の近似の度合いが大きいことを意味
している。
【0049】 色空間ディストーションマップ作成部1
0には、固定テンプレートとテンポラリテンプレートと
名づけられた2種類の色テンプレートが設定されてお
り、その色空間ディストーションマップ作成部10を構
成する演算部11では、相関器80を用いて、入力され
た原画像を構成する色分解画像と、固定テンプレートお
よびテンポラリテンプレートそれぞれとの間でSAD処
理が行われて色空間ディストーションマップが作成され
る。この色空間ディストーションマップは、本発明にい
う‘第1の相関値’の分布の一例である。詳細は後述す
る。以下の各部の説明においてもここでは概要のみ説明
し、詳細説明は後にまわす。
【0050】微分処理部20では、入力された原画像が
空間的に微分されて微分画像が作成される。この微分処
理部20には微分演算部21が備えられており、この微
分演算部21は、相関器80にその微分演算のうちの一
部の演算を分担させながら微分画像を生成する。微分空
間ディストーションマップ作成部30には、微分空間デ
ィストーションマップ作成用の微分テンプレートと、微
分テンプレート設定用の共通テンプレートが設定されて
おり、この微分空間ディストーションマップ作成部30
を構成する演算部31では、相関器80を用いて、入力
された微分画像と、微分テンプレートとの間のSAD処
理が行われ、本発明にいう‘第2の相関値の分布’の一
例である微分空間ディストーションマップが作成され
る。また、この演算部31では、微分テンプレート設定
時には、相関器80を用いて、入力された微分画像と共
通テンプレートとの間のSAD処理が行なわれ、その微
分画像中の、微分テンプレートとして設定すべき一部領
域が検出されてその一部領域が切り出され、その切り出
された一部領域が微分テンプレートとして設定される。
また、この微分空間ディストーションマップ作成部30
には、微分テンプレート更新部32が備えられており、
この微分テンプレート更新部32には、設定された微分
テンプレートと、微分画像と、最小値位置検出部50か
らの出力とが入力され、この微分テンプレート更新部3
2では、最小値位置検出部50からの出力に基づいて、
微分画像中の、追跡を開始した後の初期のターゲットが
映し出された一部領域が切り出され、この切り出された
一部領域が微分テンプレートにマージ(統合)されて新
たな微分テンプレートが作成され、それまで設定されて
いた微分テンプレートがその新たに作成された微分テン
プレートに更新される。この微分テンプレート更新部3
2は、本発明にいう微分テンプレート更新部の一例であ
り、この微分テンプレート更新部32による微分テンプ
レートの更新処理は、ターゲットの追跡を開始した初期
の段階でのみ行われ、その後は微分テンプレートは更新
されず、固定されたまま、その微分テンプレートが微分
空間ディストーションマップの作成に使用される。
【0051】評価値マップ作成部40は、信頼性評価部
41、重み付け加算部42、およびもう1つの重み付け
加算部43から構成されており、これらは、それぞれ、
本発明にいう信頼性評価部、第1の統合化処理部、およ
び第2の統合化処理部の各一例に相当する。信頼性評価
部41では、色空間ディストーションマップ作成部10
で作成された色空間ディストーションマップの信頼性お
よび微分空間ディストーションマップ作成部30で作成
された微分空間ディストーションマップの信頼性が評価
され、それぞれ所定の信頼性に達していると判定され
た、ディストーションマップ(色空間ディストーション
マップと微分空間ディストーションマップとの総称を、
ここではディストーションマップと称する)が重み付け
加算部42に向けて出力される。
【0052】重み付け加算部42には、通常は、信頼性
評価部41を経由した所定の信頼性に達している色空間
ディストーションマップと微分空間ディストーションマ
ップとの双方が入力され、それら2つのディストーショ
ンマップが、互いに対応する画素毎に重み付け加算され
て統合化ディストーションマップが作成される。この統
合化ディストーションマップは、本発明にいう‘統合化
相関値の分布’の一例である。尚、重み付け加算部42
における各ディストーションマップに対する重みは、あ
らかじめ固定的に定めておいてもよく、入力される原画
像の種類や性質に応じて切り替え可能に構成してもよ
い。この重み付け加算部42で作成された統合化ディス
トーションマップは、もう1つの重み付け加算部43
と、色テンプレート更新部70に入力される。色テンプ
レート更新部70については後述することとし、ここで
は、もう1つの重み付け加算部43について説明する。
この重み付け加算部43には統合化ディストーションマ
ップのほか、動き予測値マップ作成部60で作成された
動き予測値マップも入力され、この重み付け加算部43
では、それら統合化ディストーションマップと動き予測
値マップが互いに対応する画素毎に重み付け加算されて
評価値マップが作成される。この評価値マップは、本発
明にいう‘評価値の分布’の一例である。この重み付け
加算部43における統合化ディストーションマップおよ
び動き予測値マップに対する各重みは、重み付け加算部
42における重みと同様、あらかじめ固定的に定めてお
いてもよく、入力される原画像の種類や性質に応じて切
り換え可能に構成してもよい。
【0053】ここで、ディストーションマップを構成す
る各画素値は、前述したディストーション値dであり、
その値が小さいほどテンプレートとの近似の度合いが大
きいことを意味しており、動き予測値マップ作成部60
で作成される動き予測値マップを構成する各画素値、す
なわち動き予測値も、その値が小さいほどその画素の位
置にターゲットが存在する可能性が高くなるように値が
定められている。したがって評価値マップ作成部40で
作成される評価値マップは、2つのディストーションマ
ップと1つの動き予測値マップの各画素毎の重み付け加
算により得られたものであるから、その評価値マップ内
の最小値位置がターゲットが存在する位置をあらわして
ることになる。
【0054】上記の重み付け加算部43で作成された、
すなわち評価値マップ作成部40で作成された評価値マ
ップは、最小値位置検出部50に入力される。最小値位
置検出部50では、入力された評価値マップの中から最
小の評価値を持つ画素が検出され、その画素の位置情報
がターゲットの存在位置をあらわすターゲット位置情報
として出力される。
【0055】このターゲット位置情報は、例えば、図1
を参照して説明したように、カメラの向きの制御や、そ
のターゲットを特別に処理するために用いられる。動き
予測値マップ作成部60は、次フレーム予測動きベクト
ル計算部61と予測関数生成部62とから構成されてい
る。次フレーム予測動きベクトル計算部61には、最小
値位置検出部50で得られたターゲット位置情報が入力
され、その次フレーム予測動きベクトル計算部61で
は、次のフレームではそのターゲットがそのターゲット
位置情報があらわすターゲット位置からどの方向にどれ
だけ移動しているかを予測した予測動きベクトルが計算
により求められる。この求められた予測動きベクトル
は、予測関数生成部62に入力され、予測関数生成部6
2では、その予測動きベクトルで示される位置を中心と
して、ターゲットが次フレームでどの位置に移動するか
を確率的に予測した予測関数が生成され、この予測関数
に従って動き予測値マップ各画素毎の動き予測値の集合
が定められる。この動き予測値マップを構成する動き予
測値は、その値が小さいほど、ターゲットが次フレーム
でそこに移動している可能性が高いことを意味してお
り、次フレーム予測動きベクトル計算部61で求められ
た、予測動きベクトルにより指定される画素に最も値の
小さい動き予測値が割り当てられる。この動き予測値マ
ップは、本発明でいう‘動き予測値の分布’の一例に相
当する。
【0056】動き予測値マップ作成部60で作成された
動き予測値マップは、前述したように、重み付け加算部
43に入力され、もう1つの重み付け加算部42で生成
された統合化ディストーションマップとの間で重み付け
加算される。色テンプレート更新部70は、近似物体検
出部71と、評価・統合部72とからなる。これら近似
物体検出部71および評価・統合部72は、それぞれ、
本発明にいう近似物体検出部および評価・統合部の各一
例に相当する。また、本実施形態では、近似物体検出部
71は、極小値位置検出部71aと干渉物体監視部71
bとから構成されている。
【0057】評価値マップ作成部40を構成する重み付
け加算部42で生成された統合化ディストーションマッ
プは、前述したように、重み付け加算部43に入力され
るほか、色テンプレート更新部70にも入力される。こ
の色テンプレート更新部70に入力された統合化ディス
トーションマップは、この色テンプレート更新部70を
構成する近似物体検出部71をさらに構成している極小
値位置検出部71aに入力される。
【0058】極小値位置検出部71aでは、統合化ディ
ストーションマップの極小値の位置が検出される。この
極小値の位置は、そこにターゲットに近似した近似物体
が存在しているものと一応推定される、この極小値の位
置は、1つとは限らず複数検出され得る。この極小値位
置検出部71aでは真のターゲット自身も検出され得る
が、真のターゲットの位置は最小値位置検出部50で検
出されそのターゲット位置情報が評価・統合部72に入
力されて真のターゲットと近似物体とが区別されるた
め、極小値位置検出部71aで真のターゲットも含めて
検出されても問題はない。
【0059】干渉物体監視部71bでは、色空間ディス
トーションマップの極小値位置付近のディストーション
値の変化の様子に基づいて、極小値位置検出部71aで
検出された極小値位置に、ターゲットと近似した近似物
体(ここではこの近似物体を、ターゲットと干渉する
(ターゲットの位置検出の邪魔をする)物体という意味
で干渉物体とも称する)が存在するか否かを判定する。
【0060】 評価・統合部72には、干渉物体監視部
71bにより検出された干渉物体の位置情報および最小
値位置検出部50により検出されたターゲットの位置情
報が入力され、現在設定されているテンポラリテンプレ
ート、ターゲットの画像、干渉物体の画像が総合的に考
慮されてテンポラリテンプレートを更新するか否かが評
価され、テンポラリテンプレートを更新する旨の判定
されると、現在設定されているテンポラリテンプレー
トに、色分解画像から切り出された現在のターゲットの
画像がマージ(統合)され、これにより、テンポラリテ
ンプレートがそのマージされたテンポラリテンプレート
に更新される。
【0061】以上で、図2に示す移動体追跡装置を構成
する各部の概括的な説明を終了し、以下、各部の具体的
な動作について説明する。図3は、色空間ディストーシ
ョンマップ作成部10における色空間ディストーション
マップの作成過程の説明図である。色テンプレートを構
成する固定テンプレート、テンポラリテンプレートの設
定方法の説明はあとに譲り、ここでは、固定テンプレー
ト、テンポラリテンプレートとも既に設定されているも
のとして説明する。
【0062】本実施形態では、入力される原画像は、R
(レッド)、G(グリーン)、B(ブルー)の3色の、
すなわち3種類の色分解画像から構成されており、固定
テンプレート、テンポラリテンプレートは、いずれも、
R,G,Bの3種類の色分解画像それぞれに対応して3
種類ずつ設定される。したがってここでは、途中段階で
は、3種類の色分解画像と、各色別に設定された固定テ
ンプレートとの間のSAD処理により3つの色空間ディ
ストーションマップが作成され、さらに、3種類の色分
解画像と各色別に設定されたテンポラリテンプレートと
の間のSAD処理により3つの色空間ディストーション
マップが作成されるが、その後、このようにして作成さ
れた6つの色空間ディストーションマップが各画素毎に
平均され1つの色空間ディストーションマップに統合さ
れる。色空間ディストーションマップ作成部10から
は、このようにして1つに統合された色空間ディストー
ションマップが出力され、評価値マップ作成部40に入
力される。ただし、図3の説明にあたっては、代表的
に、1つの色分解画像と1つのテンプレートとのSAD
処理について説明する。
【0063】 動き予測値マップ作成部60を構成する
次フレーム予測動きベクトル計算部61で求められた予
測動きベクトルの情報に基づいて、ターゲットが次のフ
レームまでの間に移動しているであろう位置を中心とし
て色分解画像内に探索領域が設定され、その探索領域内
の各画素に対応して各ディストーション値が求められ
る。この演算を行なうために、色分解画像内に、その探
索領域よりも広い図3に示す切り出し領域が設定さ
れ、その切り出し領域の中から各一部領域P
,…,Pが順次切り出される。ここでは、先ず切
り出し領域の中の一番上かつ一番左の隅を1つの頂点
としてテンプレートと同一形状の一部領域Pが切り出
され、その切り出された一部領域Pとテンプレートと
の間で、相関器80によりSAD処理、すなわち前述の
(1)式に示す演算が実行され、1つのディストーショ
ン値dが求められ、この求められたディストーション値
が切り出され一部領域Pの中央の画素に対応づけられ
る。以下では、説明の都合上、SAD処理により求めら
れた値を画素に対応づける処理までを含めて、単にSA
D処理と称する。
【0064】 次に一番隅の一部領域Pからx方向に
一画素分ずれた一部領域Pが切り出され、この新たに
切り出された一部領域Pとテンプレートとの間でSA
D処理が実行される。これを繰り返し、切出し領域
一番右側まで達すると、一番左に戻り、今度はy方向に
一画素分ずれた一部領域が切り出され上記と同様のSA
D処理が実行され、さらにx方向に順次一画素分ずつず
れた一部領域が切り出されてはSAD処理が実行され
る。これがさらに繰り返され、最終的には、切出し領域
の一番下かつ一番右隅の領域Pが切り出されて、S
AD処理が実行される。
【0065】これらの一連のSAD処理により、探索領
域Pの各画素にそれぞれ対応づけられたディストーショ
ン値の二次元的なマップ、すなわち色空間ディストーシ
ョンマップが作成される。前述したように、色空間ディ
ストーションマップ作成部10では、上記のようにして
6つの色空間ディストーションマップが一旦作成され、
それら6つの色空間ディストーションマップが各画素毎
に平均されて1つの色空間ディストーションマップに統
合される。ただし、後述するように、固定テンプレート
は使用されずテンポラリテンプレートのみ使用される状
況もあり、そのときはテンポラリテンプレートのみを用
いて作成された3つの色空間ディストーションマップが
1つの色空間ディストーションマップに統合される。
【0066】図4は、微分処理部20における微分処理
の過程を示した説明図である。微分処理部20には原画
像が入力され、本実施形態では、先ずその原画像を構成
している3つ(R,G,B)の色分解画像から、色の情
報が捨象され、画像の明度(輝度、濃度)の情報のみを
持った、白黒の原画像が作成され、その白黒の原画像に
ついて空間微分が施されて、その白黒の原画像に対応す
る微分画像が生成される。以下では特に白黒画像である
ことは明記しない。
【0067】図4(A)は、画像をy方向に微分するy
方向微分フィルタの一例、図4(B)は、画像をx方向
に微分するx方向微分フィルタの一例を示した図であ
る。これらの微分フィルタを原画像の一部領域と重ね合
わせ、重ね合わされた原画像の画素の画素値とフィルタ
の画素の画素値とを重ね合わせた画素どうしで乗算し、
それらの乗算結果を、その重ね合わされた領域全域にわ
たって加算し、その加算結果を重ね合わされた領域の中
央の画素に対応づける演算を、その重ね合わされる領域
を順次変更しながら実行することにより、その原画像
が、y方向微分フィルタを用いたときはy方向に微分さ
れ、x方向微分フィルタを用いたときはx方向に微分さ
れる。
【0068】図2に示す微分処理部20では、これと同
じ演算を、相関器80を使用しながら行なう。すなわ
ち、ここでは、図4(A),(B)に示す微分フィルタ
は使用せずに、図4(C),(D)に示す2つのテンプ
レートを用い、図3を参照して説明した、SAD処理
(中央の画素への値の対応づけの処理を含む)が実行さ
れる。その後、微分演算部21において、以下に説明す
る演算により、原画像がy方向に微分されたy方向微分
画像、および原画像がx方向に微分されたx方向微分画
像が求められる。すなわち、図4(C)に示すテンプレ
ート1を用いたときのSAD処理により得られた画像の
各画素(x,y)の画素値をFs (x,y)、図4
(D)に示すテンプレート2を用いたときのSAD処理
により得られた画像の各画素(x,y)の画素値をFss
(x,y)、y方向微分画像の各画素(x,y)の画素
値をΔPy (x,y)、x方向微分画像の各画素(x,
y)の画素値をΔPx (x,y)、としたとき、微分制
御部21では、 ΔPy (x,y)=Fs (x,y+1)−Fs (x,y−1) …(2) ΔPx(x,y)=Fss(x+1,y)−Fss(x−1,y) …(3) が演算される。これらの演算は、図4(A),(B)に
示す微分フィルタを用いた微分演算と等価である。
【0069】微分演算部21では、各画素毎に、これら
2つの微分画像{ΔPy (x,y)},{ΔPx (x,
y)}の画素値のうちの大きい方の画素値が採用され、
1つの微分画像が作成される。微分空間ディストーショ
ンマップ作成部30では、図3に示す切り出し領域Dが
微分画像内に設定された切り出し領域であり、図3に示
すテンプレートが微分テンプレートであるという相違を
除き、色空間ディストーションマップ作成部10と同様
のSAD処理が実行されて微分空間ディストーションマ
ップが作成される。ただし、微分処理部20では1種類
の微分画像が作成されるため、微分空間ディストーショ
ンマップも一種類のみ作成される。この微分空間ディス
トーションマップ作成部30では、状況により、SAD
処理を実行するためのテンプレートとして共通テンプレ
ートが使用されることもある。
【0070】尚、ここでも、色空間ディストーションマ
ップ作成部10の説明と同様、微分テンプレートおよび
共通テンプレートは既に設定されているものとする。図
5は、評価値マップ作成部40を構成する信頼性評価部
41の動作説明図である。信頼性評価部41には、前述
したように、色空間ディストーションマップ作成部10
で作成された色空間ディストーションマップ(ここでは
これをD1 であらわす)と、微分空間ディストーション
マップ作成部30で作成された微分空間ディストーショ
ンマップ(ここではこれをD2 であらわす)が入力され
るが、この信頼性評価部41では、これら入力された2
つのディストーションマップD1 ,D2 が参照され(ス
テップ5_1))、それら2つのディストーションマッ
プD 1 ,D2 それぞれの最小値D1min,D2minが求めら
れる(ステップ5_2))。尚、図5においては、ディ
ストーションマップD1 ,D2 やそれらの最小値
1m in,D2minが、各フレーム毎に求められるもの、す
なわち時間tの関数であることを明示するために、D1
(t),D2 (t),D1min(t),D2min(t)と表
記している。
【0071】次いで、ステップ5_3において、それら
の最小値D1min,D2minが、あらかじめ設定された各し
きい値TH1,TH2と比較される。ここで、D1min
TH1であるということは、色空間ディストーションマ
ップD1 の信頼性が低いことを意味しており、また、D
2min>TH2であるということは、微分空間ディストー
ションマップD2 の信頼性が低いということを意味して
いる。
【0072】 ステップ5_3における比較の結果、D
1min>TH1、かつ、D2min>TH2(双方の
ディストーションマップD,Dとも信頼性が低い)
と判定されたときは、ステップ5_4に進み、これ以降
のターゲットの追跡が断念される。ステップ53におけ
る比較の結果、D1min≦TH1、かつD2min
TH2(2つのディストーションマップのうち、微分空
間ディストーションマップDのみ信頼性が低い)と判
断されたときは、ステップ5_5に進み、微分空間ディ
ストーションマップDが無視され、色空間ディストー
ションマップDのみ、重み付け加算部42に入力され
る。この場合、重み付け加算部42は微分空間ディス
トーションマップDは入力されず、従って重み付け加
算は行われず、入力された色空間ディストーションマッ
プDがそのまま、統合化ディストーションマップとし
て、この重み付け加算部42から出力される。
【0073】 ステップ5_3における比較の結果、D
1mi n>TH1、かつ、D2min≦TH2(2つの
ディストーションマップのうち、色空間ディストーショ
ンマップDのみ信頼性が低い)と判断されたときは、
ステップ5_6に進み、色空間ディストーションマップ
が無視され、微分空間ディストーションマップD
のみ、重み付け加算部42に入力される。重み付け加算
部42では、重み付け加算は行われず、入力された微分
空間ディストーションマップDがそのまま統合化ディ
ストーションマップとなってその重み付け加算部42か
ら出力される。
【0074】また、ステップ5 3における比較の結
果、D1min≦TH1、かつ、D2min≦TH2と判定され
たときは、ステップ5 7に進み、双方のディストーシ
ョンマップD1 ,D2 が重み付け加算部42に入力さ
れ、それら双方のディストーションマップD1 ,D2
各画素毎に互いに重み付け加算される。図6は、2つの
ディストーションマップD1 ,D2 の各最小値D1min
2minの時間的な変化、および2つのディストーション
マップD1 ,D2 をその後の処理に使用する(信頼性が
高い)か否かの時間的な変化を示す図である。
【0075】図6(A)は、色空間ディストーションマ
ップD1 の最小値D1minの時間的な変化を示す図であ
り、時間領域Bと時間領域Cとの間でしきい値TH1を
越えている。図6(B)は、微分空間ディストーション
マップD2 の最小値D2minの時間的な変化を示す図であ
り、時間領域Aと時間領域Bとの間、および時間領域C
の後でしきい値TH2を越えている。
【0076】このような、図6(A)(B)に示す状況
のときは、図6(C)に示すように、ハッチングを施し
た時間領域において、いずれかのディストーションマッ
プD 1 ,D2 が無視される(重み付け加算部42に向け
て出力されない)という状況が発生する。尚、ここでは
色空間ディストーションマップと微分空間ディストーシ
ョンマップとの双方を対等に扱って双方のディストーシ
ョンマップについて信頼性を評価する例について説明し
たが、2つのディストーションマップを比べると、一般
に色空間ディストーションマップの方が信頼性が低く、
従って図2に示す信頼性評価部41を、色空間ディスト
ーションマップの信頼性のみ評価し微分空間ディストー
ションマップについては、無条件に重み付け加算部42
に向けて出力するように構成してもよい。
【0077】図7は、評価値マップ作成部40を構成す
る2つの重み付け加算部42,43の作用の説明図であ
る。ここでは、信頼性評価部41からは、色空間ディス
トーションマップD1 と微分空間ディストーションマッ
プD2 との双方が出力されて、重み付け加算部42に入
力されたものとする。図7では、色空間ディストーショ
ンマップD1 を、その色空間ディストーションマップD
1 の各画素(x,y)の画素値D1xy の集合{D1xy
で表わし、微分空間ディストーションマップD2 を同様
に{D2XY }で表わし、動き予測値マップ作成部60で
作成された動き予測値マップを同様に{EXY}で表わし
ている。
【0078】ここで、2つの重み付け加算部42,43
のうちの前段側の重み付け加算部42では、2つのディ
ストーションマップ{D1xy },{D2XY }が、対応す
る画素毎に重み付け加算され、統合化ディストーション
マップ{FXY}が作成される。すなわち、重み付け加算
部42では、各画素毎に、 FXY=a×D1xy +(1−a)×D2XY ……(4) 但し、aは1以下の正の値であり、a,1−aは各重み
を表わす。が演算される。
【0079】 2つの重み付け加算部42,43のうち
のもう一方の重み付け加算部43には、重み付け加算部
42における、(4)式に示す演算により求められた統
合化ディストーションマップ{Fxy}と、動き予測値
マップ作成部60で作成された動き予測マップ{E
xy}が入力され、重み付け加算部43では、それら2
つのマップ{Fxy},{Exy}が、対応する画素毎
に重み付け加算され、評価値マップ{Gxy}が作成さ
れる。すなわち、重み付け加算部43では、各画素毎
に、 Gxy=b×F1xy+(1−b)×Exy……(5) 但し、bは1以下の正の値であり、b,1−bは各重み
を表わす。が演算される。このようにして求められた評
価値マップ{Gxy}は、最小値位置検出部50に入力
される。
【0080】最小値位置検出部50では入力された評価
値マップ{Gxy}を構成する各画素の画素値Gxyの中の
最小値Gmin を持った画素の位置が求められる。ここで
は画素値Gxyの集合{Gxy}の中が最小値Gmin を検出
し、その最小値Gmin を持つ画素を見つけるだけの演算
であり、図面を参照しての更なる説明は省略する。図8
は、動き予測値マップ作成部60の動作説明図である。
【0081】動き予測値マップ作成部60を構成する次
フレーム予測動きベクトル計算部61では、以下に説明
するようにして、現フレームtと次フレームt+1との
間のターゲットの動きを予測した予測動きベクトルmt
が求められる。前フレームt−1に関し同様にして求め
た予測動きベクトルをmt-1 とし、前フレームt−1か
ら現フレームtの間の、ターゲットの実際の動きをあら
わす動きベクトルをvt としたとき、現フレームtと次
フレームt+1との間の、ターゲットの動きを予測した
予測動きベクトルmt が、 mt =(vt +4・mt-1 )/5 ……(6) の演算により求められる。ここで、前フレームと現フレ
ームとの間の、ターゲットの実際の動きをあらわす動き
ベクトルvt は、前フレームに関し、最小値位置検出部
50で求められた、ターゲット位置から、現フレームに
関し同様に求められたターゲット位置に向かうベクトル
である。ここでは、vt とmt-1 の重みをそれぞれ1/
5,4/5としているが、これは一例であり、他の重み
を採用してもよい。
【0082】(6)式からわかるように、過去の動きベ
クトル、過去の予測動きベクトルに基づいて次の動き予
測ベクトルが求められており、過去の予測動きベクトル
にはさらに過去の情報が含まれており、従って(6)式
を採用することにより、一連の過去の情報の集大成とし
ての予測動きベクトルが求められる。次フレーム予測動
きベクトル計算部61における、(6)式に従って求め
られた予測動きベクトルmt は、予測関数生成部62に
入力される。本実施形態では、予測関数生成部62で
は、以下の(7)式で定義される動き予測関数PP(x,y)
に従って、探索領域内の各画素に対応する動き予測値が
求められる。
【0083】 PP(x,y)=(x2 +y2 )・(1+α・|mt |) ……(7) 但し、αは正の値を持つ重みである。この(7)式は、
基本的にはパラボラ形状を有しており、予測動きベクト
ルmtの大きさ|mt |が大きくなる程、急峻に立ち上
がるパラボラ形状となる。但し、(7)式のパラボラ形
状の頂点は、予測動きベクトルmt により予測された、
次フレームにおけるターゲット位置(本発明にいう存在
予測位置)に一致させる。
【0084】 このようにして、(7)式に従って、探
索領域の各画素に対応させて各動き予測値が求められ、
それらの動き予測値の集合としての動き予測値マップが
作成される。尚、ここでは予測されたターゲット位置を
中心とした距離の関数であって、かつ予測動きベクトル
の大きさ|m|によって変化する動き予測値を求
める例について説明したが、さらに、予測動きベクトル
の方向と、それに直交する方向とで、動き予測値を
示す関数であるパラボラの立上りの急峻度を変化させて
もよい。
【0085】 図9は、色テンプレート更新部70を構
成する近似物体検出部71の作用説明図である。ここで
は、前述した3つの(R,G,B)の色分解画像を区別
せずに単に色分解画像と表記し、各色分解画像に対応す
る各テンポラリテンプレートを区別せずに単にテンポラ
リテンプレートと表記する。図9(A)は、色分解画像
内の、最小値位置検出部50で検出されたターゲット位
置(図9(A)に斜線で示す位置)およびそのターゲッ
ト位置を中心とした、テンプレートと同一寸法の画像領
Aを示す図である。
【0086】図9(B)は、色テンプレート更新部70
を構成する極小値位置検出部71aで検出された極小値
位置(図9(B)に斜線で示す位置)と、各極小値位置
を中心とした、テンプレートと同一寸法の画像領域A,
B,C,Dを示す図である。ここに示す例では、極小値
位置検出部71aでは、最小値位置検出部50で検出さ
れたターゲット位置を含め、4つの極小値位置が検出さ
れている。
【0087】図9(B)は、次に説明する干渉物体監視
部71bの説明中では、重み付け加算部42で作成され
た統合化ディストーションマップを意味し、その次に説
明する評価・統合部72の説明中では色分解画像を意味
する。ただし統合化ディストーションマップ上では、画
像領域A,B,C,Dの図示は意味を持たない。干渉物
体監視部71bでは、極小値位置検出部71aで検出さ
れた4つの極小値位置に関し、統合化ディストーション
マップ上の、各極小値位置に、図9(C)に示すフィル
タを作用させる。このフィルタの作用のさせ方は、図4
(A)を参照して説明した微分フィルタの作用のさせ方
と同一であるため、ここでは重複説明は省略する。
【0088】この図9(C)に示すフィルタは、図9
(D)に示すように、その極小値位置の画素値(図9
(D)に模式的に〇印で示す)とその極小値位置の周囲
の画素の画素値(図9(D)に模式的に×印で示す)と
の間の隔たり(深さdepth)を抽出するフィルタで
あり、この深さdepthがあらかじめ定められたしき
い値と比較され、その深さdepthが、しきい値が示
す深さよりも深いときに、その極小値位置にターゲット
と干渉する干渉物体が存在すると判定される。ここで
は、図9(B)に示す画像領域B、C内の各極小値位置
には、干渉物体が存在し、画像領域D内の極小値位置に
は干渉物体は存在しないと判定されたものとする。
【0089】図10は、色テンプレート更新部70を構
成する評価・統合部72の作用説明図である。ここで
は、図9(A)、(B)に示すように、最小値位置検出
部50で検出されたターゲット位置を中心とした、色分
解画像上のテンプレートと同一寸法の画像領域Aと、近
似物体検出部71で検出された、近似物体(干渉物体)
が存在すると判定された極小値位置を中心とした、色分
解画像上のテンプレートと同一寸法の各画像領域B、C
それぞれとの間で、前述した(1)式に示す演算が実行
され、各ディストーション値d1 ,d2 が求められる。
これらのディストーション値d1 ,d2 は、本発明にい
う第2の近似度の一例に相当する。またこれと同様に、
テンポラリテンプレートと画像領域Aとの間でも前述し
た(1)式に示す演算が実行され、ディストーション値
3 が求められる。このディストーション値d3 は、本
発明にいう第1の近似度の一例に相当する。次いで、こ
のようにして求められたディストーション値どうしが比
較され、テンポラリテンプレートと画像領域Aとの間で
求められたディストーション値d3 が、画像領域Aと、
干渉物体が存在すると判定された各画像領域B、Cそれ
ぞれとの間で求められた各ディストーション値d1 ,d
2 のいずれよりも小さい値(前述したように値が小さい
ほど近似の度合いが大きいことをあらわしている)を有
する場合に、テンポラリテンプレートの各画素の画素値
と、画像領域Aの各画素の画素値が対応する画素毎に平
均されて新たなテンポラリテンプレートが求められ、そ
れまでのテンポラリテンプレートがこの新たに求められ
たテンポラリテンプレートに更新される。テンポラリテ
ンプレートは、このようにして順次更新される。ここで
は、d3 <d1 ,d2 の場合のみテンポラリテンプレー
トを更新するようにしたため、更新後のテンポラリテン
プレートは、ターゲットに強く反応するとともに干渉物
体への反応の度合いが低減され、ターゲットを干渉物体
から区別して安定的に追跡することができる。
【0090】次に、微分テンプレートおよび固定テンプ
レートの設定方法、およびテンポラリテンプレートの初
期設定方法について説明する。図11は、各テンプレー
トの設定方法の第1例を示す説明図である。図1に示す
CRT表示部104にターゲットとして指定しようとす
る移動体を含む原画像を表示し、マウス103を操作し
てその原画像の所望の移動体を指し示す。そうすると、
その指し示された原画像上の位置情報がその原画像とと
もに図2に示す移動体追跡装置に入力され、色空間ディ
ストーションマップ作成部10を構成する演算部11で
は、その原画像上の、マウス103によって指し示され
た位置を中心とした、テンプレートと同一寸法の画像領
域が切り出され、その切り出された画像領域が固定テン
プレートとして設定されるとともにテンポラリテンプレ
ートとしても初期設定される。また、これと同時に、微
分空間ディストーションマップ作成部30を構成する演
算部31では、微分画像上の、マウス103によって指
し示された位置を中心とした、テンプレートと同一寸法
の画像領域が切り出されて、その切り出された画像領域
が微分テンプレートとして設定される。
【0091】図12は、各テンプレートの設定方法の第
2例を示す説明図である。図2に示す移動体追跡装置に
は、共通テンプレートが設定されている。この共通テン
プレートは、ターゲットとして指定される可能性のある
移動体であればどの移動体であっても検出するように設
定されたテンプレートである。この共通テンプレートは
あらかじめマニュアルで設定される。ここでは、この共
通テンプレートが用いられる。
【0092】図1に示すCRT表示部104に、ターゲ
ットとして指定しようとする移動体を含む原画像を表示
し、マウス103を操作して、所望の移動体を指定す
る。このときCRT表示部104には動画像が表示され
ており、ターゲットとして指定しようとした移動体が動
いている場合もあり、必ずしも正確にターゲットの位置
が指定されるとは限らない。そこで、ここに示す例で
は、微分空間ディストーションマップ作成部30を構成
する演算部31において、微分画像上で、その指定され
た位置を中心とした、テンプレートよりも広い領域(図
12に一点鎖線で示す領域)が設定され、その領域内
で、共通テンプレートとの間でSAD処理が実行され、
その最小値位置が検出され、その最小値位置を中心とし
た、テンプレートと同一寸法の画像領域が切り出され
て、その切り出された画像領域が微分テンプレートとし
て設定される。また、色空間ディストーションマップ作
成部10を構成する演算部11は、微分空間ディストー
ションマップ作成部30を構成する演算部31からその
最小値位置の情報を受け取り、色分解画像上の、その最
小値位置を中心とした、テンプレートと同一寸法の画像
領域が切り出されて、その切り出された画像領域が固定
テンプレートとして設定され、かつテンポラリテンプレ
ートとして初期設定される。
【0093】図13は、各テンプレートの設定方法の第
3例を示す説明図である。この図13を参照して説明す
る処理は、図12を参照して説明した処理に続く処理で
ある。ただし、固定テンプレートは、図12を参照して
説明した処理の段階では未だ設定されず、微分テンプレ
ートとテンポラリテンプレートのみが設定される。この
ような状況下でターゲットの追跡を開始する。ただし、
色空間ディストーションマップ作成部10では、固定テ
ンプレートは未だ設定されていないため、テンポラリテ
ンプレートのみが用いられる。
【0094】このようにして、最小値位置検出部50に
よりターゲット位置が検出されると、そのターゲット位
置情報が、微分空間ディストーションマップ作成部30
を構成する微分テンプレート更新部32に入力される。
図13に斜線を付して示した位置が最小値検出部50に
より検出されたターゲット位置であるとする。微分テン
プレート更新部32では、微分画像上の最小値検出部5
0により検出されたターゲット位置を中心とした、テン
プレートと同一寸法の画像領域が切り出され、その切り
出された画像領域と、既に設定されている微分テンプレ
ートとが、対応する画素毎に平均されて新たな微分テン
プレートが求められ、それまで設定されていた微分テン
プレートが、その求められた新たな微分テンプレートに
更新される。また、テンポラリテンプレートは、色テン
プレート更新部70により更新される。以上の更新処理
が、あらかじめ設定された数のフレームだけ繰り返さ
れ、その後は、微分テンプレート更新部32はその動作
を停止し、従ってその後は微分テンプレートは更新され
ずその時点の微分テンプレートに固定される。テンポラ
リテンプレートに関しては、色テンプレート更新部70
により引き続き更新処理が継続される。
【0095】また、固定テンプレートに関しては、微分
テンプレート更新部32で更新動作を停止する直前の、
最小値位置検出部50で検出されたターゲット位置情報
が、その微分テンプレート更新部32から、色空間ディ
ストーションマップ作成部10を構成する演算部11に
伝えられ、演算部11は、色分解画像上の、その時点に
おけるターゲット位置を中心とした、テンプレートと同
一寸法の画像領域を切り出し、その切り出した画像領域
を固定テンプレートとして設定する。
【0096】図2に示す移動体追跡装置は、図1に示す
コンピュータシステムの内部に実現され、相関器80を
除きソフトウェアで構成されたものであるが、このよう
にソフトウェアで構成されたままでもかなりのリアルタ
イム性が確保される。さらに、図2に示す移動体追跡装
置は、ハードウェア化も可能であり、この図2に示す装
置をハードウェアで構成すればリアルタイム性をさらに
向上させることができる。またこの図2に示す移動体追
跡装置は、ターゲットの持つ様々な情報を捉え、それら
を二次元マップの形式で統合してターゲット位置を検出
するようにしたため、ターゲットの大きな変形等にも強
く、実用上問題のない精度でのターゲットの追跡が可能
である。
【0097】図14は、本発明の移動体追跡装置のもう
1つの実施形態を示すブロック図である。カメラ100
で撮影された画像は、移動体追跡装置200の入力手段
201で逐次リアルタイムに取り込まれ移動体追跡手段
202で追跡処理される。移動体追跡手段の内容は、図
2に示す装置全体が対応し、これまで説明してきたとお
りのものである。マーク発生手段203は、予め作成し
ておいた縦長の楕円形のマークを移動体追跡手段202
で演算された移動体位置に形成する。マーク発生手段2
02で発生したマークはテロップ表示装置300により
カメラ100で撮影された画像と合成され、放送装置4
00で放送される。
【0098】この放送装置400で放送された画像は、
図示しない受像機(例えばテレビ)で受像され、その表
示画面上に画像が表示されるが、その表示された画像上
ではある移動体に縦長の楕円形のマークが付されてお
り、従って、その移動体が移動しても見失うことなく常
にその移動体を注目することができる。
【0099】
【発明の効果】以上説明したように、本発明によれば、
リアルタイム性と追跡性能の向上が図られた移動体追跡
装置が実現する。
【図面の簡単な説明】
【図1】本発明の移動体追跡装置の一実施形態を含む自
動追跡システムの模式図である。
【図2】図1に示すコンピュータシステム内に構築され
た本発明の一実施形態としての移動体追跡装置の機能構
成図である。
【図3】色空間ディストーションマップの作成過程の説
明図である。
【図4】微分フィルタおよびテンプレートを示した図で
ある。
【図5】信頼性評価部の動作説明図である。
【図6】2つのディストーションマップD1 ,D2 の各
最小値D1min,D2minの時間的な変化、および2つのデ
ィストーションマップD1 ,D2 をその後の処理に使用
する(信頼性が高い)か否かの時間的な変化を示す図で
ある。
【図7】2つの重み付け加算部の作用の説明図である。
【図8】動き予測値マップ作成部の動作説明図である。
【図9】近似物体検出部の作用説明図である。
【図10】評価・統合部の作用説明図である。
【図11】各テンプレートの設定方法の第1例を示す説
明図である。
【図12】各テンプレートの設定方法の第2例を示す説
明図である。
【図13】各テンプレートの設定方法の第3例を示す説
明図である。
【図14】本発明の移動体追跡装置のもう1つの実施形
態を示すブロック図である。
【符号の説明】
1 コンピュータシステム 2 ビデオカメラ 3 サーボシステム 10 色空間ディストーションマップ作成部 11 演算部 20 微分処理部 21 微分演算部 30 微分空間ディストーションマップ作成部 31 演算部 40 評価値マップ作成部 41 信頼性評価部 42,43 重み付け加算部 50 最小値位置検出部 60 動き予測値マップ作成部 61 次フレーム予測動きベクトル計算部 62 予測関数生成部 70 色テンプレート更新部 71 近似物体検出部 71a 極小値位置検出部 71b 干渉物体監視部 72 評価・統合部 100 カメラ 101 本体部 102 キーボード 103 マウス 104 CRT表示部 200 移動体追跡装置 201 入力手段 202 移動体追跡手段 203 マーク発生手段 204 テロップ表示装置 205 放送装置

Claims (15)

    (57)【特許請求の範囲】
  1. 【請求項1】 1つ以上の移動体を含むシーンが撮影さ
    れてなる、順次連続する複数のフレームからなる原画像
    を入力し、該原画像に映し出された移動体の中から選択
    された被追跡用移動体を追跡する移動体追跡装置におい
    て、 前記原画像を構成する色分解画像に映し出された被追跡
    用移動体と対比される色テンプレートと、前記色分解画
    像との第1の相関値の分布を求める第1の相関値分布演
    算部と、前記原画像を空間的に微分することにより微分
    画像を求める微分処理部と、 前記微分画像に映し出された被追跡用移動体と対比され
    る微分テンプレートと、前記微分画像との第2の相関値
    の分布を求める第2の相関値分布演算部と、 被追跡用移動体の過去の動きに基づいて、該被追跡用移
    動体が存在する蓋然性をあらわす動き予測値の分布を求
    める動き予測値分布演算部と、 前記第1の相関値、前記第2の相関値、および前記動き
    予測値を統合して評価値を求めることにより、被追跡用
    移動体の存在位置を表わす評価値の分布を求める評価値
    分布演算部と、 前記評価値分布演算部で求められた評価値の分布に基づ
    いて、被追跡用移動体の存在位置を検出する位置検出部
    とを備えたことを特徴とする移動体追跡装置。
  2. 【請求項2】前記評価値分布演算部が、前記第1の相関
    値の分布の信頼性を評価する信頼性評価部を含み、信頼
    性が低いと判定された第1の相関値の分布を前記評価値
    の分布を求める処理から除外した上で、該評価値の分布
    を求めるものであることを特徴とする請求項1記載の移
    動体追跡装置。
  3. 【請求項3】前記評価値分布演算部が、前記第1の相関
    値の分布の信頼性および前記第2の相関値の分布の信頼
    性を評価する信頼性評価部を含み、信頼性が低いと判定
    された第1の相関値の分布、および信頼性が低いと判定
    された第2の相関値の分布を、前記評価値の分布を求め
    る処理から除外した上で、該評価値の分布を求めるもの
    であることを特徴とする請求項1記載の移動体追跡装
    置。
  4. 【請求項4】前記色テンプレートが、順次更新されるテ
    ンポラリテンプレートを含むものであって、前記色分解
    画像内の、前記位置検出部で検出された、被追跡用移動
    体の存在位置を含む画像領域を該テンポラリテンプレー
    トに統合することにより、テンポラリテンプレートを更
    新する色テンプレート更新部を備えたことを特徴とする
    請求項1記載の移動体追跡装置。
  5. 【請求項5】前記評価値分布演算部が、前記第1の相関
    値と前記第2の相関値とを各画素毎に統合して各画素毎
    の統合化相関値を求めることにより統合化相関値の分布
    を求める第1の統合化処理部と、該第1の統合化処理部
    で求められた統合化相関値と前記動き予測値分布演算部
    で求められた動き予測値とを各画素毎に統合して各画素
    毎の評価値を求めることにより前記評価値の分布を求め
    る第2の統合化処理部とを有し、 前記テンプレート更新部が、 前記統合化相関値の分布に基づいて、被追跡用移動体に
    近似した近似物体の存在位置を、複数位置の検出を許容
    して検出する近似物体検出部と、 前記色分解画像内の、前記位置検出部で検出された、被
    追跡用移動体の存在位置を含む第1の画像領域と、前記
    テンポラリプレートとの近似の度合いをあらわす第1の
    近似度、および該第1の画像領域と、前記近似物体検出
    部で検出された、近似物体の存在位置を含む第2の画像
    領域との近似の度合いをあらわす第2の近似度を求め、
    前記第1の近似度の方が前記第2の近似度よりも近似の
    度合いが大きいことをあらわしている場合に前記第1の
    画像領域をテンポラリテンプレートに統合することによ
    り、テンポラリテンプレートを更新する評価・統合部と
    を有することを特徴とする請求項4記載の移動体追跡装
    置。
  6. 【請求項6】前記第1の相関値分布演算部および前記第
    2の相関値分布演算部に共用される、もしくはこれら第
    1の相関値分布演算部及び第2の相関値分布演算部それ
    ぞれに配備された、2つの画像ないし画像領域の、互い
    に対応する画素に割り当てられた画素値どうしの差分の
    絶対値を、該2つの画像ないし画像領域にわたって積算
    してなる相関値を求める相関器を備え、 前記微分処理部が、前記相関器に、前記原画像を微分し
    て微分画像を求める微分演算のうちの一部の演算を実行
    させるものであることを特徴とする請求項1記載の移動
    体追跡装置。
  7. 【請求項7】前記動き予測値分布演算部が、被追跡用移
    動体の、現時点から次の時点までの間の動きを予測した
    予測動きベクトルを求め、該予測動きベクトルがあらわ
    す該次の時点における被追跡用移動体の存在予測位置に
    最大の蓋然性、該存在予測位置から離れるに従って低下
    した蓋然性をあらわす動き予測値を、前記探索領域内の
    各画素に対応づけるものであることを特徴とする請求項
    1記載の移動体追跡装置。
  8. 【請求項8】前記動き予測値分布演算部が、現時点にお
    ける被追跡用移動体の存在予測位置をあらわす、過去の
    時点で求められた予測動きベクトルと、前記位置検出部
    により前記過去の時点と現時点との双方で検出された被
    追跡用移動体の存在位置どうしの位置の相違から求めら
    れる被追跡用移動体の実際の動きをあらわす動きベクト
    ルとに基づいて、該被追跡用移動体の、現時点から次の
    時点までの間の動きを予測した予測動きベクトルを求め
    るものであることを特徴とする請求項7記載の移動体追
    跡装置。
  9. 【請求項9】前記動き予測値分布演算部が、前記予測動
    きベクトルがあらわす被追跡用移動体の存在予測位置を
    中心とした距離の関数としての動き予測値を、前記探索
    領域内の各画素に対応づけるものであることを特徴とす
    る請求項7記載の移動体追跡装置。
  10. 【請求項10】前記動き予測値分布演算部が、前記予測
    動きベクトルがあらわす被追跡用移動体の存在予測位置
    を中心とし、該予測動きベクトルの方向の距離に対する
    重みと該方向に対し交わる方向の距離に対する重みとが
    異なる重みをもつ、これら2つの距離の関数としての動
    き予測値を、前記探索領域内の各画素に対応づけるもの
    であることを特徴とする請求項7記載の移動体追跡装
    置。
  11. 【請求項11】前記動き予測値演算部が、前記予測動き
    ベクトルの大きさを変数とした関数としての動き予測値
    を、前記探索領域内の各画素に対応づけるものであるこ
    とを特徴とする請求項7記載の移動体追跡装置。
  12. 【請求項12】前記第2の相関値演算部が、被追跡用移
    動体の追跡に先立って指定された原画像上の所定位置と
    同一の、微分画像上の所定位置を含む、該微分画像内の
    所定の画像領域を、前記微分テンプレートとして設定す
    るものであることを特徴とする請求項1記載の移動体追
    跡装置。
  13. 【請求項13】前記第2の相関値分布演算部が、被追跡
    用移動体の追跡に先立って指定された原画像上の所定位
    置と同一の、微分画像上の所定位置を含む、該微分画像
    内の、前記微分テンプレートの寸法よりも大きな寸法の
    画像領域内で、被追跡用移動体として指定され得る移動
    体に対し共通的に設定された共通テンプレートとの近似
    の度合の高い、前記微分テンプレートの寸法と同一寸法
    の一部領域を検出し、該一部領域を前記微分テンプレー
    トとして設定するものであることを特徴とする請求項1
    記載の移動体追跡装置。
  14. 【請求項14】前記第2の相関値分布演算部が、前記微
    分テンプレートを初回に設定した時点よりも後の1つ以
    上の各時点において、前記微分画像内の、前記位置検出
    部で検出された、被追跡用移動体の存在位置を含む画像
    領域を、該微分テンプレートに統合することにより、該
    微分テンプレートを更新する、被追跡用移動体の追跡を
    開始した後の所定の初期段階で動作する微分テンプレー
    ト更新部を備えたことを特徴とする請求項13記載の移
    動体追跡装置。
  15. 【請求項15】前記色テンプレートが、固定された固定
    テンプレートを含むものであって、前記第1の相関値分
    布演算部が、前記微分テンプレートが設定もしくは最終
    的に更新された時点における、前記色分解画像内の、前
    記位置検出部で検出された、被追跡用移動体の存在位置
    を含む画像領域を、前記固定テンプレートとして設定す
    るものであることを特徴とする請求項12から14のう
    ちのいずれか1項記載の移動体追跡装置。
JP24732597A 1997-09-11 1997-09-11 移動体追跡装置 Expired - Fee Related JP3481430B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP24732597A JP3481430B2 (ja) 1997-09-11 1997-09-11 移動体追跡装置
US09/017,313 US6031568A (en) 1997-09-11 1998-02-02 Moving-target tracking apparatus
DE69828346T DE69828346T2 (de) 1997-09-11 1998-02-04 Gerät zum Verfolgen eines sich bewegenden Ziels
EP98101910A EP0902396B1 (en) 1997-09-11 1998-02-04 Moving-target tracking apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24732597A JP3481430B2 (ja) 1997-09-11 1997-09-11 移動体追跡装置

Publications (2)

Publication Number Publication Date
JPH1186004A JPH1186004A (ja) 1999-03-30
JP3481430B2 true JP3481430B2 (ja) 2003-12-22

Family

ID=17161728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24732597A Expired - Fee Related JP3481430B2 (ja) 1997-09-11 1997-09-11 移動体追跡装置

Country Status (4)

Country Link
US (1) US6031568A (ja)
EP (1) EP0902396B1 (ja)
JP (1) JP3481430B2 (ja)
DE (1) DE69828346T2 (ja)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100327103B1 (ko) * 1998-06-03 2002-09-17 한국전자통신연구원 사용자의조력및물체추적에의한영상객체분할방법
US6233007B1 (en) * 1998-06-22 2001-05-15 Lucent Technologies Inc. Method and apparatus for tracking position of a ball in real time
EP0973044B1 (de) * 1998-07-13 2006-08-09 Oerlikon Contraves Ag Verfahren zur Verfolgung bewegter Objekte anhand spezifischer Merkmale
US7121946B2 (en) * 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
US6243494B1 (en) * 1998-12-18 2001-06-05 University Of Washington Template matching in 3 dimensions using correlative auto-predictive search
US7177447B2 (en) * 1999-02-23 2007-02-13 Lockheed Martin Corporation Real-time multi-stage infrared image-based tracking system
US6499025B1 (en) * 1999-06-01 2002-12-24 Microsoft Corporation System and method for tracking objects by fusing results of multiple sensing modalities
FR2794880B1 (fr) * 1999-06-10 2001-12-14 Philippe Crochat Procede automatique de suivi d'une cible en mouvement par une camera electronique et dispositif pour sa mise en oeuvre
US6879705B1 (en) * 1999-07-14 2005-04-12 Sarnoff Corporation Method and apparatus for tracking multiple objects in a video sequence
US7050606B2 (en) * 1999-08-10 2006-05-23 Cybernet Systems Corporation Tracking and gesture recognition system particularly suited to vehicular control applications
US6963425B1 (en) * 2000-08-14 2005-11-08 National Instruments Corporation System and method for locating color and pattern match regions in a target image
US7136525B1 (en) * 1999-09-20 2006-11-14 Microsoft Corporation System and method for background maintenance of an image sequence
JP2001149642A (ja) * 1999-12-01 2001-06-05 Namco Ltd ゲーム装置及びゲーム装置の残像表示方法
KR20000054784A (ko) * 2000-06-23 2000-09-05 이성환 시간적 색상에 기반한 외형 모델을 이용한 복수 객체의움직임 추적시스템 및 그 제어방법
US7015976B1 (en) * 2000-08-07 2006-03-21 Ati International Srl Automatic panning of digital content while zoomed
US7106885B2 (en) * 2000-09-08 2006-09-12 Carecord Technologies, Inc. Method and apparatus for subject physical position and security determination
US6445832B1 (en) * 2000-10-10 2002-09-03 Lockheed Martin Corporation Balanced template tracker for tracking an object image sequence
EP1366627A2 (en) * 2001-03-07 2003-12-03 PTS Corporation Local constraints for motion estimation
WO2002093361A1 (fr) * 2001-05-14 2002-11-21 Ntt Docomo, Inc. Systeme de gestion de programme stocke dans un bloc de stockage d'un terminal mobile
JP4200219B2 (ja) * 2002-07-26 2008-12-24 独立行政法人情報通信研究機構 画像認識装置及び画像認識プログラム
US7194110B2 (en) * 2002-12-18 2007-03-20 Intel Corporation Method and apparatus for tracking features in a video sequence
US7657059B2 (en) * 2003-08-08 2010-02-02 Lockheed Martin Corporation Method and apparatus for tracking an object
KR101017362B1 (ko) * 2004-01-08 2011-02-28 삼성전자주식회사 다이나믹 영상 재생을 위한 자동 줌 장치 및 방법
US20050283062A1 (en) * 2004-06-22 2005-12-22 Cerner Innovation, Inc. Computerized method and system for associating a portion of a diagnostic image with an electronic record
JP4488804B2 (ja) * 2004-06-23 2010-06-23 株式会社トプコン ステレオ画像の関連付け方法及び3次元データ作成装置
JP4627256B2 (ja) * 2005-12-08 2011-02-09 日本電信電話株式会社 移動予測装置、移動予測方法、およびプログラム
JP4826315B2 (ja) * 2006-03-31 2011-11-30 ソニー株式会社 画像処理装置および方法、並びにプログラム
US20110123067A1 (en) * 2006-06-12 2011-05-26 D & S Consultants, Inc. Method And System for Tracking a Target
EP1916538A3 (en) 2006-10-27 2011-02-16 Panasonic Electric Works Co., Ltd. Target moving object tracking device
JP4915655B2 (ja) * 2006-10-27 2012-04-11 パナソニック株式会社 自動追尾装置
KR101379074B1 (ko) * 2007-04-15 2014-03-28 익스트림 리얼리티 엘티디. 인간 기계 인터페이스를 위한 장치 시스템 및 방법
JP4985155B2 (ja) * 2007-07-03 2012-07-25 株式会社ニコン 焦点調節装置および撮像装置
JP4872834B2 (ja) 2007-07-04 2012-02-08 株式会社ニコン 画像認識装置、焦点調節装置および撮像装置
JP4873258B2 (ja) * 2007-10-19 2012-02-08 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP4983539B2 (ja) * 2007-10-19 2012-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8254690B2 (en) 2007-10-19 2012-08-28 Sony Corporation Information processing apparatus, information processing method, and program
US8165345B2 (en) * 2007-12-07 2012-04-24 Tom Chau Method, system, and computer program for detecting and characterizing motion
WO2009070892A1 (en) * 2007-12-07 2009-06-11 Tom Chau Method, system, and computer program for detecting and characterizing motion
JP5501727B2 (ja) * 2009-10-16 2014-05-28 三菱重工業株式会社 移動体追尾装置およびその方法
JP2011090488A (ja) * 2009-10-22 2011-05-06 Nikon Corp 被写体追尾装置、被写体追尾プログラム、およびカメラ
DE102010030616A1 (de) * 2010-06-28 2011-12-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Störobjekts in einem Kamerabild
JP5690539B2 (ja) 2010-09-28 2015-03-25 株式会社トプコン 自動離着陸システム
US9104909B2 (en) * 2010-12-15 2015-08-11 Canon Kabushiki Kaisha Image processing apparatus and method of processing image
JP5618840B2 (ja) 2011-01-04 2014-11-05 株式会社トプコン 飛行体の飛行制御システム
US9074848B1 (en) * 2011-04-13 2015-07-07 Litel Instruments Precision geographic location system and method utilizing an image product
JP5775354B2 (ja) 2011-04-28 2015-09-09 株式会社トプコン 離着陸ターゲット装置及び自動離着陸システム
CN102789642B (zh) * 2011-05-16 2017-08-25 索尼公司 消失方向确定方法和装置、摄像机自标定方法和装置
JP5498454B2 (ja) * 2011-09-15 2014-05-21 株式会社東芝 追跡装置、追跡方法およびプログラム
JP5787695B2 (ja) 2011-09-28 2015-09-30 株式会社トプコン 画像取得装置
CA2793180A1 (en) * 2011-11-02 2013-05-02 Eads Deutschland Gmbh Method and device for the detection of moving objects in a video image sequence
US8704904B2 (en) 2011-12-23 2014-04-22 H4 Engineering, Inc. Portable system for high quality video recording
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
EP2820837A4 (en) 2012-03-01 2016-03-09 H4 Eng Inc APPARATUS AND METHOD FOR AUTOMATIC VIDEO RECORDING
WO2013131100A1 (en) 2012-03-02 2013-09-06 H4 Engineering, Inc. Multifunction automatic video recording device
US9723192B1 (en) 2012-03-02 2017-08-01 H4 Engineering, Inc. Application dependent video recording device architecture
JP5938960B2 (ja) * 2012-03-15 2016-06-22 カシオ計算機株式会社 電子機器、遠隔操作制御システム、遠隔操作制御方法及びプログラム
JP6312991B2 (ja) * 2013-06-25 2018-04-18 株式会社東芝 画像出力装置
JP2014112888A (ja) * 2014-01-08 2014-06-19 Mitsubishi Heavy Ind Ltd 移動体追尾装置およびその方法
JP2015139476A (ja) * 2014-01-27 2015-08-03 日立アロカメディカル株式会社 超音波画像処理装置
US9870620B2 (en) 2015-06-18 2018-01-16 The Johns Hopkins University Non-linear associator and motion discriminator
CN112887592A (zh) * 2021-01-13 2021-06-01 河南工业和信息化职业学院 一种平衡车控制方法以及平衡车
US11562555B2 (en) * 2021-06-02 2023-01-24 The Nielsen Company (Us), Llc Methods, systems, articles of manufacture, and apparatus to extract shape features based on a structural angle template
JP7117593B1 (ja) * 2021-07-08 2022-08-15 パナソニックIpマネジメント株式会社 撮像装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60195682A (ja) * 1984-03-16 1985-10-04 Komatsu Ltd 移動体の追跡方法
JPS60209104A (ja) * 1984-04-02 1985-10-21 Komatsu Ltd 移動体の追跡方法
JP2797830B2 (ja) * 1992-03-31 1998-09-17 日本ビクター株式会社 ビデオカメラにおける被写体追尾方法
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
US5434927A (en) * 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
JP3075937B2 (ja) * 1994-11-02 2000-08-14 三洋電機株式会社 動きベクトル検出回路およびそれを用いた被写体追尾カメラ装置
JPH08186761A (ja) * 1994-12-30 1996-07-16 Sony Corp ビデオカメラ装置及びビデオカメラ露出制御方法
JP3268953B2 (ja) * 1995-02-27 2002-03-25 三洋電機株式会社 追尾領域設定装置,動きベクトル検出回路およびそれを用いた被写体追尾装置
FR2734911B1 (fr) * 1995-06-01 1997-08-01 Aerospatiale Procede et dispositif pour detecter le mouvement d'une cible et leurs applications
US5808695A (en) * 1995-06-16 1998-09-15 Princeton Video Image, Inc. Method of tracking scene motion for live video insertion systems
US5764283A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths
US5864630A (en) * 1996-11-20 1999-01-26 At&T Corp Multi-modal method for locating objects in images

Also Published As

Publication number Publication date
DE69828346T2 (de) 2005-12-08
DE69828346D1 (de) 2005-02-03
US6031568A (en) 2000-02-29
EP0902396A2 (en) 1999-03-17
EP0902396A3 (en) 2004-03-24
EP0902396B1 (en) 2004-12-29
JPH1186004A (ja) 1999-03-30

Similar Documents

Publication Publication Date Title
JP3481430B2 (ja) 移動体追跡装置
US8089515B2 (en) Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
US9437012B2 (en) Multiple-object tracking and team identification for game strategy analysis
US9600760B2 (en) System and method for utilizing motion fields to predict evolution in dynamic scenes
US7720257B2 (en) Object tracking system
US8965043B2 (en) Method, client device and server
US6714689B1 (en) Image synthesizing method
EP2320379B1 (en) Image processing device, object tracking device, and image processing method
TWI359387B (en) Robust camera pan vector estimation using iterativ
KR20090006068A (ko) 동영상 시퀀스를 수정하는 방법 및 그 장치
JP2009015827A (ja) 物体追跡方法、物体追跡システム、及び物体追跡プログラム
JP2000011133A (ja) 移動物体検出装置及びその方法
JP2005309746A (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JPWO2015156149A1 (ja) 画像処理装置および画像処理方法
US11882363B2 (en) Control apparatus and learning apparatus and control method
CN111105351A (zh) 一种视频序列影像拼接方法及装置
JP5059855B2 (ja) 大域的動き推定方法
JP4441354B2 (ja) 映像オブジェクト抽出装置、映像オブジェクト軌跡合成装置、その方法及びそのプログラム
JP2007510994A (ja) ビデオ画像内でのオブジェクトトラッキング
JPH09265538A (ja) 自動追尾装置
JP2000099744A (ja) 画像動きベクトル検出方法およびその装置
JP5590680B2 (ja) 映像合成装置、映像合成方法、および映像合成プログラム
JP4826316B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
JP3437087B2 (ja) 特徴点追跡方法及び装置、並びに特徴点追跡プログラムを記録した記録媒体
JP4306333B2 (ja) 物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030924

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081010

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081010

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101010

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101010

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees