JP2007272733A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2007272733A
JP2007272733A JP2006099830A JP2006099830A JP2007272733A JP 2007272733 A JP2007272733 A JP 2007272733A JP 2006099830 A JP2006099830 A JP 2006099830A JP 2006099830 A JP2006099830 A JP 2006099830A JP 2007272733 A JP2007272733 A JP 2007272733A
Authority
JP
Japan
Prior art keywords
motion vector
motion
unit
tracking
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006099830A
Other languages
English (en)
Other versions
JP4826315B2 (ja
Inventor
Takanori Ishikawa
貴規 石川
Tetsujiro Kondo
哲二郎 近藤
Kenji Takahashi
健治 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006099830A priority Critical patent/JP4826315B2/ja
Publication of JP2007272733A publication Critical patent/JP2007272733A/ja
Application granted granted Critical
Publication of JP4826315B2 publication Critical patent/JP4826315B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】オブジェクトの追尾において、過去の動き履歴情報から現在の動きを推定することができるようにする。
【解決手段】予測動きベクトルメモリ121は、動き判定部123により最終的に決定されたオブジェクトの予測動きベクトルの、最新の過去の複数フレームのデータを格納する。動き履歴特徴量抽出部122は、予測動きベクトルメモリ121に格納されている最新の過去の複数フレームの予測動きベクトルデータを読み出し、オブジェクトの動き特徴量を抽出する。動き判定部123は、動き履歴特徴量抽出部122より供給された動き特徴量に基づいて、現フレームの動きベクトルの範囲を推定する。本発明は、監視カメラシステムに適用できる。
【選択図】図14

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、オブジェクトの追尾において、過去の動き履歴情報から現在の動きを推定することができるようにした画像処理装置および方法、並びにプログラムに関する。
従来、追尾や画面内を複数の領域に分割して領域毎に検出したオプティカルフローを解析することで、指定したオブジェクトを追跡する手法などがある。相関値演算においては、例えば、ブロックマッチング法や勾配法などが良く知られている。
またブロックマッチング法に関わらず、その他の動きベクトル検出手法においても、動きベクトルを検出する評価手法として、例えば、基準ブロックと検査ブロック間の差分絶対値総和などが良く用いられる。
しかしながら、この手法では、基準ブロックと検査ブロックの相関性の評価しか行っていないため、実際の画像内の物体の動きとは関係の無い動きベクトルが選択され、画像内の動きベクトルが乱れたり、あるいは、近傍動きベクトルとは無相関で孤立した動きベクトルが存在するといった動きベクトルの劣化が発生する。
そこで、動きベクトルの確らしさを表す指標として、相関値演算の評価値の大きさ、画像の粗さ、または動きベクトルの空間相関性などを用いたものがある。例えば、特許文献1には、動き確度が閾値以上であるか否かにより動きベクトルの確からしさを判断し、その動きベクトルの確度を用いて精度良く動きを検出することができる。
特開2005−301984号公報
しかしながら、特許文献1は、例えば、他のオブジェクトとの交差により追尾点が消失した場合、前景となった他のオブジェクトの動き確度が閾値以上になると、誤って前景のオブジェクトを追尾してしまうことがある。
ここで図1を参照して、他のオブジェクトとの交差により追尾に失敗する例を説明する。
図1の例では、フレームn−1において、異なる向きで動くオブジェクト301とオブジェクト302が存在し、追尾対象としてのオブジェクト301に追尾点311が設定されていたとする。
フレームn−1において、フレームn−1とフレームnの間のマッチングの結果、オブジェクト301の動きベクトルが検出される。フレームnにおいて、オブジェクト301とオブジェクト302の交差により、オブジェクト301の前景となったオブジェクト302に追尾点311が移動してしまい、フレームnとフレームn+1の間のマッチングの結果、オブジェクト302の動きベクトルが検出されてしまう。さらに、交差後のフレームn+1においては、オブジェクト302に追尾点311が完全に移動し、オブジェクト301の追尾に失敗することになる。
このように、オブジェクトを追尾するために求められる動きベクトルは、相関値演算の評価値や動きベクトルの空間相関性だけでは評価できない場合がある。
本発明はこのような状況に鑑みてなされたものであり、オブジェクトの追尾において、過去の動き履歴情報から現在の動きを推定することができるようにするものである。
本発明の一側面の画像処理装置は、移動するオブジェクトを追尾する画像処理装置において、画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶する記憶手段と、前記記憶手段に記憶されている前記履歴情報に基づいて、前記オブジェクトの現在の動きを推定する推定手段とを備える。
前記推定手段により前記オブジェクトの現在の動きが推定不可能であると判断された場合、前記記憶手段に記憶されている前記過去の動きベクトルを読み出して外挿する外挿手段をさらに設けるようにすることができる。
前記外挿手段により連続して前記過去の動きベクトルが外挿された場合、前記推定手段には、前記オブジェクトの現在の動きベクトルを0ベクトルに設定させることができる。
前記推定手段には、複数の前記過去の動きベクトルの中から、最大値および最小値、並びに、前記最大値と前記最小値の差分であるダイナミックレンジを求めさせ、前記オブジェクトの現在の動きの範囲を推定させることができる。
前記画像の一時停止を検出する検出手段をさらに設けるようにすることができ、前記検出手段により前記画像の一時停止が検出された場合、前記推定手段には、前記オブジェクトの現在の動きの範囲を大きな値に設定させることができる。
本発明の一側面の画像処理方法は、移動するオブジェクトを追尾する画像処理装置の画像処理方法において、画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶し、前記記憶手段に記憶されている前記履歴情報に基づいて、前記オブジェクトの現在の動きを推定するステップを含む。
本発明の一側面のプログラムは、移動するオブジェクトを追尾する画像処理装置の画像処理をコンピュータに実行させるプログラムにおいて、画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶し、前記記憶手段に記憶されている前記履歴情報に基づいて、前記オブジェクトの現在の動きを推定するステップを含む。
本発明の一側面においては、移動するオブジェクトを追尾する画像処理装置の画像処理をコンピュータに実行させるプログラムにおいて、オブジェクトの過去の動きベクトルが履歴情報として記憶され、記憶されている履歴情報に基づいて、オブジェクトの現在の動きが推定される。
本発明によれば、オブジェクトの追尾中において、オブジェクトの追尾において、過去の動き履歴情報から現在の動きを推定することができる。
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外には対応しないものであることを意味するものでもない。
本発明の一側面の画像処理装置(例えば、図1の監視カメラシステム1)は、移動するオブジェクトを追尾する画像処理装置において、画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶する記憶手段(例えば、図14の予測動きベクトルメモリ121)と、前記記憶手段に記憶されている前記履歴情報に基づいて、前記オブジェクトの現在の動きを推定する推定手段(例えば、図14の動き判定部123)とを備える。
この画像処理装置には、前記推定手段により前記オブジェクトの現在の動きが推定不可能であると判断された場合、前記記憶手段に記憶されている前記過去の動きベクトルを読み出して外挿する外挿手段(例えば、図14の動き判定部123)をさらに備えることができる。
またこの画像処理装置には、前記画像の一時停止を検出する検出手段(例えば、図5の一時停止検出部60)をさらに備えることができ、前記検出手段により前記画像の一時停止が検出された場合、前記推定手段は、前記オブジェクトの現在の動きの範囲を大きな値に設定することができる。
本発明の一側面の送信方法およびプログラムは、移動するオブジェクトを追尾する画像処理装置の画像処理方法、またはその画像処理をコンピュータに実行させるプログラムにおいて、画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶し(例えば、図16のステップS56)、前記記憶手段に記憶されている前記履歴情報に基づいて、前記オブジェクトの現在の動きを推定するステップ(例えば、図16のステップS45)を含む。
以下、本発明の実施の形態について図を参照して説明する。
図2は、本発明を監視カメラシステムに適用した場合の構成例を表している。
撮像部21は、例えば、CCD(Charge Coupled Device)ビデオカメラ等よりなり、撮像した画像を画像ディスプレイ24に表示させる。追尾対象検出部22は、撮像部21より入力された画像から追尾対象を検出し、検出結果をオブジェクト追尾部23に出力する。
オブジェクト追尾部23は、撮像部21より供給された画像中の、追尾対象検出部22により指定された追尾点を追尾するように動作する。またオブジェクト追尾部23は、追尾結果を画像ディスプレイ24に出力するとともに、追尾結果に基づいて、移動したオブジェクトを撮像できるようにカメラ駆動部26を制御する。カメラ駆動部26は、オブジェクト追尾部23からの制御に基づいて、撮像部21が追尾点を中心とする画像を撮影するように撮像部21を駆動する。
制御部27は、例えば、マイクロコンピュータなどにより構成され、各部を制御する。また制御部27には、半導体メモリ、磁気ディスク、光ディスク、または光磁気ディスクなどにより構成されるリムーバブルメディア28が必要に応じて接続され、プログラム、その他各種のデータが必要に応じて供給される。指示入力部29は、各種のボタン、スイッチ、あるいは赤外線や電波を用いたリモートコントローラなどにより構成され、ユーザからの指示に対応する信号を制御部27に出力する。
次に、図3のフローチャートを参照して、図2に示した監視カメラシステムが実行する監視処理について説明する。この処理は、監視システム1の電源がオンされているとき、撮像部21により監視する領域が撮像され、その撮像して得られた画像が追尾対象検出部22およびオブジェクト追尾部23を介して画像ディスプレイ24に出力されて開始される。
ステップS1において、追尾対象検出部22は、撮像部21から入力された画像から追尾対象を検出する処理を実行する。例えば、入力画像に動く物体が存在する場合、追尾対象検出部22は、その動く物体を追尾対象として検出するとともに、追尾対象の中から、最も輝度の高い点あるいは追尾対象の中心の点などを追尾点として検出し、検出結果をオブジェクト追尾部23に出力する。
ステップS2において、オブジェクト追尾部23は、ステップS1の処理で検出された追尾点を追尾する追尾処理を実行する。追尾処理の詳細については、図16を参照して後述するが、この処理により、撮像部21により撮像された画像の中の追尾対象となるオブジェクト(例えば、人、動物など)の中の追尾点(例えば、目、頭の中心)が追尾され、追尾結果が制御部27に出力される。
ステップS3において、制御部27は、ステップS2の処理による追尾結果に基づいて、画像ディスプレイ24に、撮像部21により撮像された画像に追尾位置を表すマークなどを重畳して表示させる。
ステップS4において、オブジェクト追尾部23は、ステップS2の処理による追尾結果に基づいて、オブジェクトの移動を検出し、移動したオブジェクトを撮像できるようにカメラを駆動させるカメラ駆動信号を生成し、カメラ駆動部26に出力する。ステップS5において、カメラ駆動部26は、オブジェクト追尾部23からのカメラ駆動信号に基づいて撮像部21を駆動する。これにより撮像部21は、追尾点が画面から外れてしまうことがないようにカメラをパンまたはチルトする。
ステップS6において、制御部27は、指示入力部29を介したユーザからの指示に基づいて監視処理を終了するか否かを判定し、ユーザから終了が指示されていない場合には、ステップS1に戻り、それ以降の処理を繰り返し実行する。そして、ステップS6において、ユーザから監視処理の終了が指示されたと判定された場合、制御部27は監視処理を終了する。
図4A乃至図4Cは、このとき画像ディスプレイ24に表示される画像の例を、時系列に示した図である。図4Aは、撮像部21により、追尾対象となるオブジェクト41が撮像された画像の例であり、この例では、図中左方向に走って移動する人が、オブジェクト41として撮像されている。図4Bでは、オブジェクト41が、図4Aの位置から図中左に移動しており、図4Cでは、オブジェクト41が、図4Bの位置からさらに左に移動している。
追尾対象検出部22は、図3のステップS1で、オブジェクト41を検出し、このオブジェクト41である人の目を、追尾点41Aとしてオブジェクト追尾部23に出力する。ステップS2ではオブジェクト追尾部23により追尾処理が行われる。
次に、図2のオブジェクト追尾部23の詳細な構成例と、その動作について説明する。
図5は、オブジェクト追尾部23の機能的構成例を示すブロック図である。図5に示されるように、オブジェクト追尾部23は、動き推定部52、シーンチェンジ検出部53、背景動き推定部54、領域推定関連処理部55、乗り換え候補保持部56、追尾点決定部57、制御部59、および一時停止検出部60により構成されている。
動き推定部52は、入力画像の動きを推定し、推定の結果得られた動きベクトルと、その動きベクトルの確度を、シーンチェンジ検出部53、背景動き推定部54、領域推定関連処理部55、追尾点決定部57、および一時停止検出部60に出力する。シーンチェンジ検出部53は、動き推定部52より供給された動きベクトルとその動きベクトルの確度に基づいて、シーンチェンジを検出する。
背景動き推定部54は、動き推定部52より供給された動きベクトルとその動きベクトルの確度に基づいて背景動きを推定する処理を実行し、推定結果を領域推定関連処理部55に供給する。領域推定関連処理部55は、動き推定部52より供給された動きベクトルとその動きベクトルの確度、背景動き推定部54より供給された背景動き、並びに追尾点決定部57より供給された追尾点情報に基づいて、領域推定処理を行う。また領域推定関連処理部55は、入力された情報に基づいて乗り換え候補を生成し、乗り換え候補保持部56へ供給し、保持させる。
追尾点決定部57は、動き推定部52より供給された動きベクトルとその動きベクトルの確度、乗り換え候補保持部56より供給された乗り換え候補、並びに一時停止検出部60より供給された一時停止検出結果に基づいて、追尾点を決定し、決定された追尾点に関する情報を領域推定関連処理部55に出力する。
制御部59は、追尾対象検出部22から出力された追尾点の情報に基づいて、動き推定部52乃至追尾点決定部57、並びに一時停止検出部60の各部を制御して、検出された追尾対象を追尾させるとともに、画像ディスプレイ24に表示される画面の中に、追尾点が表示されるようにカメラ駆動部26に制御信号を出力し、撮像部21の駆動を制御する。これにより、追尾点が画面の外に出ないように制御される。また制御部59は、追尾点の画面上での位置の情報などの追尾結果を制御部27などに出力する。
一時停止検出部60は、動き推定部52より供給された動きベクトルとその動きベクトルの確度、および背景動き推定部54より供給された背景動きに基づいて、一時停止検出処理を行い、一時停止からの追尾開始であるか否かを示す検出結果を追尾点決定部57に供給する。
図5に示したオブジェクト追尾部23は、追尾対象検出部22により検出された追尾点を追尾する処理を実行し、追尾点の追尾ができなくなったとき、過去の動き履歴から現在の追尾点を推定する処理を実行することによって、継続的に追尾することが可能となる。すなわち、本実施の形態においては、例えば、図6に示されるように、オブジェクト72が追尾対象としてのオブジェクト71の全体を覆い隠すようなシーンチェンジが発生する等、追尾点が一時的に見えなくなった場合においても、継続的に追尾が可能となる。
図6の例では、時刻F(t−1)において、異なる向きで動くオブジェクト71とオブジェクト72が存在し、追尾対象としてのオブジェクト71に追尾点81が設定されている。各オブジェクトの動きベクトルの検出には、例えば、ブロックマッチング方式が用いられる。
時刻F(t−1)において、時刻F(t−1)と時刻F(t)の間のマッチングの結果、オブジェクト71の動きベクトルVA(vx,vy)=(−4,0)が検出されるとともに、オブジェクト72の動きベクトルVB(vx,vy)=(3,0)が検出される。そして、異なる向きで動くオブジェクト71とオブジェクト72が時刻F(t+1)で交差する場合、時刻F(t)においては、時刻F(t)と時刻F(t+1)の間のマッチングの結果、誤った動きベクトル(−4,−4)が検出されてしまうことがある。これにより、時刻F(t+1)において、オブジェクト71とオブジェクト72の交差により、オブジェクト71の前景となったオブジェクト72に追尾点81が移動してしまい、時刻F(t+1)と時刻F(t+2)の間のマッチングの結果、オブジェクト72の動きベクトルVB(vx,vy)=(3,0)が検出されてしまう。さらに、交差後の時刻F(t+2)においては、オブジェクト72に追尾点81が完全に移動し、オブジェクト71の追尾に失敗することになる。
そこで本実施の形態においては、このようにシーンチェンジが起きて追尾点81が一時的に画像から存在しなくなっても、図16のフローチャートを参照して後述する追尾処理により、過去の動き履歴から現在の追尾点を推定することができ、追尾対象ではないオブジェクト72に追尾点81が移動して追尾に失敗してしまうようなことなく、継続的にオブジェクト71を追尾することが可能となる。
次に、図7を参照して、図5の動き推定部52の構成例について説明する。図7に示されるように、評価値算出部91、アクティビティ算出部92、および動きベクトル検出部93には、入力画像が供給されている。
評価値算出部91は、動きベクトルにより対応付けられる両対象の一致度に関する評価値を算出し、正規化処理部95に供給する。アクティビティ算出部92は、入力画像のアクティビティを算出し、閾値判定部94と正規化処理部95に供給する。動きベクトル検出部93は、入力画像から動きベクトルを検出し、評価値算出部91と統合処理部96に供給する。
閾値判定部94は、アクティビティ算出部92より供給されたアクティビティを所定の閾値と比較し、その判定結果を統合処理部96に供給する。正規化処理部95は、評価値算出部91より供給された評価値を、アクティビティ算出部92より供給されたアクティビティに基づいて正規化し、得られた値を統合処理部96に供給する。
統合処理部96は、正規化処理部95から供給された正規化情報と、閾値判定部94より供給された判定結果に基づいて、動きベクトルの確度を演算し、得られた確度を動きベクトル検出部93より供給された動きベクトルとともに出力する。
次に、図8のフローチャートを参照して、動き推定部52が実行する動き推定処理について説明する。動きベクトルは、点に対するものとして求められているが、その確度は、動きベクトルにより対応付けられる2つの点の近傍の、例えば点を中心とする、小ブロックの画像データを用いて計算される。
ステップS11において、動きベクトル検出部93は、入力画像から動きベクトルを検出する。この検出には、例えばブロックマッチング方式や勾配法が用いられる。検出された動きベクトルは、評価値算出部91と統合処理部96に供給される。
ステップS12において、評価値算出部91は、ステップS11の処理で検出された動きベクトルにより対応付けられる両対象の一致度に関する評価値を算出する。具体的には、例えば、動きベクトルで対応付けられる2つの点を中心とする2つのブロックの画素値の差分絶対値和が算出される。すなわち、ステップS11の処理で動きベクトル検出部93により検出された動きベクトルV(vx,vy)と、それに基づく時間的に前のフレームの画像Fi上の点P(Xp,Yp)、並びに時間的に後のフレームの画像Fj上の点Q(Xq,Yq)の関係は次式(1)で表される。
Figure 2007272733
評価値算出部91は点Pを中心とするブロックと、点Qを中心とするブロックについて、次式(2)に基づいて評価値Eval(P,Q,i,j)を演算する。
Figure 2007272733
各ブロックは、1辺が2L+1画素の正方形とされている。上記式(2)における総和ΣΣは、xが−LからLについて、yが−LからLについて、対応する画素同士で行われる。従って、例えば、L=2である場合、9個の差分が得られ、その絶対値の総和が演算される。評価値は、その値が0に近づくほど、2つのブロックがよく一致していることを表している。
評価値算出部91は、算出した評価値を正規化処理部95に供給する。
ステップS13において、アクティビティ算出部92は、入力画像からアクティビティを算出する。アクティビティは、画像の複雑さを表す特徴量であり、図9に示されるように、各画素毎に注目画素Y(x,y)と、それに隣接する8画素Y(x+i,y+j)との差分絶対値和の平均値が、注目画素位置のアクティビティActivity(x,y)として次式(3)に基づいて演算される。
Figure 2007272733
図9の例の場合、3×3画素のうち、中央に位置する注目画素Y(x,y)の値は110であり、それに隣接する8個の画素の値は、それぞれ80,70,75,100,100,100,80,80であるから、アクティビティActivity(x,y)は次式で表される。
Activity(x,y) ={|80−110|+|70−110|+|75−110|+|100−110|+|100−110|+|100−110|+|80−110|+|80−110|}/8 =24.375となる。
同様の処理が、そのフレームのすべての画素について実行される。
ブロック単位で動きベクトル確度を算出するため、次式(4)で表されるブロック内の全画素のアクティビティの総和が、そのブロックのアクティビティ(ブロックアクティビティ)Blockactivity(i,j)と定義される。
Figure 2007272733
なお、アクティビティとしては、この他、分散値、ダイナミックレンジなどとすることも可能である。
ステップS14において、閾値判定部94は、ステップS13の処理で算出されたブロックアクティビティを予め設定されている所定の閾値と比較する。そして、入力されたブロックアクティビティが閾値より大きいか否かを表すフラグを統合処理部96に出力する。
具体的には、実験の結果、ブロックアクティビティと評価値は、動きベクトルをパラメータとして、図10に示される関係を有する。図10において、横軸はブロックアクティビティBlockactivity(i,j)を表し、縦軸は評価値Evalを表している。
動きが正しく検出されている場合(正しい動きベクトルが与えられている場合)、そのブロックアクティビティと評価値の値は、曲線101より図中下側の領域R1に分布する。これに対して誤った動き(不正解の動きベクトル)が与えられた場合、そのブロックアクティビティと評価値の値は、曲線102より、図中左側の領域R2に分布する。なお、曲線102より上側の領域R2以外の領域と曲線101より下側の領域R1以外の領域には殆ど分布がない。曲線101と曲線102は、点Pにおいて交差しており、この点Pにおけるブロックアクティビティの値が閾値THaとされる。閾値THaは、ブロックアクティビティの値がそれより小さい場合には、対応する動きベクトルが正しくない可能性があることを意味する(この点については後に詳述する)。閾値判定部94は、アクティビティ算出部92より入力されたブロックアクティビティの値が、この閾値THaより大きいか否かを表すフラグを統合処理部96に出力する。
ステップS15において、正規化処理部95は、ステップS12の処理で算出された評価値を、ステップS13の処理で算出されたアクティビティに基づいて正規化する。具体的には、正規化処理部95は、次式(5)に従って動きベクトル確度VCを演算する。
Figure 2007272733
但し、動きベクトル確度VCの値が0未満となる場合にはその値を0に置き換える。動きベクトル確度VCのうち、評価値をブロックアクティビティで割り算して得られた値は、その値によって規定される図10のグラフ上の位置が、原点Oと点Pを結ぶ傾きが1の直線103より、図中下側の領域内であるのか、図中上側の領域内であるのかを表す。すなわち、直線103の傾きは1であり、評価値をブロックアクティビティで割り算して得られた値が1より大きければ、その値に対応する点は、直線103の上側の領域に分布する点であることを意味する。そしてこの値を1から減算して得られる動きベクトル確度VCは、その値が小さい程、対応する点が領域R2に分布する可能性が高いことを意味する。
これに対して、評価値をブロックアクティビティで割り算して得られた値が1より小さければ、その値に対応する点は、直線103の図中下側の領域に分布することを意味する。そして、そのときの動きベクトル確度VCは、その値が大きい程(0に近い程)、対応する点が領域R1に分布することを意味する。正規化処理部95は、このようにして演算して得られた動きベクトル確度VCを統合処理部96に出力する。
ステップS16において、統合処理部96は、統合処理を実行する。この統合処理の詳細は、図11のフローチャートに示されている。
ステップS21において、統合処理部96は、ブロックアクティビティが閾値THa 以下か否かを判定する。この判定は、閾値判定部94より供給されたフラグに基づいて行われる。統合処理部96は、ブロックアクティビティが閾値THa以下であると判定した場合、ステップS22において、正規化処理部95が算出した動きベクトル確度VCの値を0に設定する。ステップS21において、アクティビティの値が閾値THaより大きいと判定された場合には、ステップS22の処理はスキップされ、正規化処理部95で生成された動きベクトル確度VCの値が、そのまま動きベクトルとともに出力される。
これは、正規化処理部95において演算された動きベクトルの確度VCの値が正であったとしても、ブロックアクティビティの値が閾値THaより小さい場合には、正しい動きベクトルが得られていない可能性があるからである。すなわち、図10に示されるように、原点Oと点Pの間においては、曲線102が、曲線101より図中下側に(直線133より下側に)突出することになる。ブロックアクティビティの値が閾値Thaより小さい区間であって、曲線101と曲線102において囲まれる領域R3においては、評価値をブロックアクティビティで割り算して得られる値は、領域R1とR2の両方に分布し、正しい動きベクトルが得られていない可能性が高い。
そこで、このような分布状態である場合には、動きベクトルの確度は低いものとして処理するようにする。このため、ステップS22において、動きベクトル確度VCは、その値が正であったとしても、閾値Thaより小さい場合には、0に設定される。このようにすることで、動きベクトル確度VCの値が正である場合には、正しい動きベクトルが得られている場合であることを確実に表すことが可能となる。しかも、動きベクトル確度VCの値が大きい程、正しい動きベクトルが得られている確率が高くなる(分布が領域R1に含まれる確率が高くなる)。
このことは、一般的に、輝度変化が少ない領域(アクティビティが小さい領域)では信頼性が高い動きベクトルを検出することが困難であるとの経験上の法則とも一致する。
次に、図12を参照して、図5の背景動き推定部54の構成例について説明する。図12に示されるように、背景動き推定部54は、頻度分布算出部111と背景動き決定部112により構成されている。
頻度分布算出部111は、動きベクトルの頻度分布を算出する。ただし、この頻度には、図5の動き推定部52より供給される動きベクトル確度VC を用いることで、確からしい動きに重みが与えられるように、重み付けが行われる。背景動き決定部112は、頻度分布算出部111により算出された頻度分布に基づいて、頻度が最大となる動きを背景動きとして決定する処理を行い、図5の領域推定関連処理部55へ出力する。
図13のフローチャートを参照して、背景動き推定部54が実行する背景動き推定処理について説明する。
ステップS31において、頻度分布算出部111は、動き頻度分布を算出する。具体的には、頻度分布算出部111は、背景動きの候補としての動きベクトルのx座標とy座標がそれぞれ基準点から±16画素分の範囲で表されるとすると、1089個(=16×2+1)×(16×2+1))の箱、すなわち動きベクトルがとり得る値に対応する座標分の箱を用意し、動きベクトルが発生した場合、その動きベクトルに対応する座標に1を加算する。このようにすることで、動きベクトルの頻度分布を算出することができる。
ただし、1個の動きベクトルが発生した場合、1を加算していくと、確度が低い動きベクトルの発生頻度が多い場合、その確実性が低い動きベクトルが背景動きとして決定されてしまう恐れがある。そこで、頻度分布算出部111は、動きベクトルが発生した場合、その動きベクトルに対応する箱(座標)に、値1を加算するのではなく、値1に動きベクトル確度VC を乗算した値(=動きベクトル確度VC の値)を加算する。動きベクトル確度VC の値は、0から1の間の値として正規化されており、その値が1に近いほど確度が高い値である。従って、このようにして得られた頻度分布は、動きベクトルをその確度に基づいて重み付けした頻度分布となる。これにより、確度の低い動きが背景動きとして決定される恐れが少なくなる。
次に、ステップS32において、頻度分布算出部111は、動き頻度分布を算出する処理を全ブロックについて終了したか否かを判定する。まだ処理していないブロックが存在すると判定された場合、ステップS31に戻り、次のブロックについて動き頻度分布が算出される。
以上のようにして、全画面に対して動き頻度分布算出処理が行われ、ステップS32において、全ブロックの処理が終了したと判定された場合、ステップS33に進み、背景動き決定部112は、頻度分布の最大値を検索する処理を実行する。すなわち、背景動き決定部112は、頻度分布算出部111により算出された頻度の中から最大の頻度のものを選択し、その頻度に対応する動きベクトルを背景動きの動きベクトルとして決定する。この背景動きの動きベクトルは、図5の領域推定関連処理部55に供給され、全画面動きと背景動きが一致するか否かの判定処理に用いられる。
次に、図14を参照して、図5の追尾点決定部57の構成例について説明する。図14に示されるように、追尾点決定部57は、予測動きベクトルメモリ121、動き履歴特徴量抽出部122、および動き判定部123により構成されている。
予測動きベクトルメモリ121は、動き判定部123により最終的に決定されたオブジェクトの予測動きベクトルの、最新の過去の複数フレームのデータを格納する。動き履歴特徴量抽出部122は、予測動きベクトルメモリ121に格納されている最新の過去の複数フレームの予測動きベクトルデータを読み出し、オブジェクトの動き特徴量を抽出する。動き判定部123は、動き推定部52より供給された現フレームの動きベクトル、乗り換え候補保持部56より供給された乗り換え候補、一時停止検出部60より供給された一時停止検出結果、並びに動き履歴特徴量抽出部122より供給された動き特徴量に基づいて、現フレームの動きベクトルデータを評価し、その評価結果としての予測動きベクトルを領域推定関連処理部55に出力するとともに、予測動きベクトルメモリ121に格納させる。
さらに図15を参照して、図14の追尾点決定部57の動き履歴特徴量抽出部122と動き判定部12の詳細について説明する。図15に示されるように、動き履歴特徴量抽出部122は、水平成分最小値算出部(MIN)131、水平成分最大値算出部(MAX)132、垂直成分最小値算出部(MIN)133、および垂直成分最大値算出部(MAX)134で構成されている。
水平成分最小値算出部131は、予測動きベクトルメモリ121から読み出した最新の過去の複数フレームの予測動きベクトルデータから、過去の予測動きベクトルの水平成分の最小値を算出し、算出結果を動き判定部123に出力する。水平成分最大値算出部132は、予測動きベクトルメモリ121から読み出した最新の過去の複数フレームの予測動きベクトルデータから、過去の予測動きベクトルの水平成分の最大値を算出し、算出結果を動き判定部123に出力する。
垂直成分最小値算出部133は、予測動きベクトルメモリ121から読み出した最新の過去の複数フレームの予測動きベクトルデータから、過去の予測動きベクトルの垂直成分の最小値を算出し、算出結果を動き判定部123に出力する。垂直成分最大値算出部134は、予測動きベクトルメモリ121から読み出した最新の過去の複数フレームの予測動きベクトルデータから、過去の予測動きベクトルの垂直成分の最大値を算出し、算出結果を動き判定部123に出力する。
また動き履歴特徴量抽出部122は、水平成分最小値算出部131と水平成分最大値算出部132により算出された動きベクトルの水平成分の最小値と最大値から、動きベクトルの水平成分のダイナミックレンジを算出するとともに、垂直成分最小値算出部133と垂直成分最大値算出部134により算出された動きベクトルの垂直成分の最小値と最大値から、動きベクトルの垂直成分のダイナミックレンジを算出し、算出結果を動き判定部123に出力する。
動き判定部123は、動き履歴特徴量抽出122から供給された過去の予測動きベクトルの最大値MAX(x,y)と最小値MIN(x,y)、およびそれらの最大値と最小値の差分から求まるダイナミックレンジDR(x,y)から、現在のフレームの予測動きベクトルの範囲min(x,y)とmax(x,y)を、次式(6)と次式(7)に従って演算する。
Figure 2007272733
Figure 2007272733
式(6)と式(7)において、TH(x,y)は閾値である。この閾値は、オブジェクトが過去のフレーム間で等速直線運動をした場合、ダイナミックレンジDR(x,y)=(0,0)になり、現在のフレームでの予測動きベクトルの範囲がmax(x,y)−min(x,y)=(0,0)となるのを防ぐために設定される。例えば、オブジェクトがテロップのような等速直線運動を行っている場合、式(6)と式(7)によれば、予測動きベクトルの範囲が小さくなるように設定され、これに対し、オブジェクトがフレーム単位で加速するような場合には、予測動きベクトルの範囲が大きくなるように設定される。
そして動き判定部123は、式(6)と式(7)により演算された予測動きベクトルの範囲に基づいて、現在のフレームで推定した追尾点の動きベクトルがその範囲内であれば予測動きベクトルの推定が可能であると判定し、範囲外であれば予測動きベクトルの推定が不可能であると判定する。
また動き判定部123は、追尾点での動き推定結果と追尾点の近傍の点での動き推定結果が、多数を占める動きと一致する場合には推定可能、一致しない場合には推定不可能と判定するようにすることも可能である。これにより、空間相関の高い動きベクトルで、かつ、時間方向の連続性が高い予測動きベクトルを決定することができる。
また動き判定部123は、動きベクトルの推定が出来ないと判定した場合、予め準備した追尾点と同じ対象の領域に属する点のうち、もとの追尾点に近く、且つ動きベクトルの推定が可能である点に追尾点を乗り換えて追尾を行う。この乗り換え処理の詳細は、本出願人が先に提案している特開2005−303983号公報に開示されている。この処理により、追尾点が表示されない状態になった場合、追尾が可能な状態において予め抽出され保持されている乗り換え候補が選択され、その乗り換え候補が新たな追尾点として設定され、追尾が行われる。
さらに動き判定部123は、全ての乗り換え候補を新たな追尾点としても、追尾点の動きベクトルの推定が不可能であると判定した場合、オブジェクトの動きや加速度は既知の値である直前(過去)の動きや加速度と同じであるとして、予測動きベクトルメモリ121に格納されている過去の予測動きベクトルで外挿(代用)して、現在のフレームの追尾点の予測動きベクトルを決定する。
ここで、他のオブジェクトによる交差中に追尾対象として指定したオブジェクトの動きが停止するなど、過去の動き履歴から大きく異なる動きをした場合に過去の予測動きベクトルで連続的に外挿を行うと、最悪の場合、追尾点が画像内の動き情報とは無関係に動くことになる。そこで、動き判定部123は、予測動きベクトルを連続的に外挿する回数を計測し、予め設定した閾値との比較により、過去の予測動きベクトルで外挿するか否かを判定し、外挿しないと判定した場合には0ベクトルを設定して外挿を終了する。つまり、この場合、追尾は終了される。
次に、図16のフローチャートを参照して、オブジェクト追尾部23が実行する追尾処理について説明する。
ステップS41において、制御部59は、次のフレームの画像の入力を待機するように各部を制御する。ステップS42において、動き推定部52は、追尾点の動きを推定する。すなわち、ユーザにより指定された追尾点を含むフレーム(ここでは前フレームという)より時間的に後のフレーム(ここでは後フレームという)をステップS41の処理で取り込むことで、結局連続する2フレームの画像が得られたことになるので、ステップS42において、前フレームの追尾点に対応する後フレームの追尾点の位置を推定することで、追尾点の動きベクトルが推定される。
なお、時間的に前または後とは、入力の順番や処理の順番をいう。通常、撮像の順番に各フレームの画像が入力されるので、その場合、より時間的に前に撮像されたフレームが前フレームとなるが、時間的に後に撮像されたフレームが先に処理される場合には、時間的に後に撮像されたフレームが前フレームとなる。
ステップS43において、動き履歴特徴量抽出部122は、予測動きベクトルメモリ121に格納されている過去の複数フレームにわたる予測動きベクトルの履歴データを読み出す。読み出された履歴データから、水平成分最小値算出部131により過去の予測動きベクトルの水平成分の最小値が算出され、水平成分最大値算出部132により過去の予測動きベクトルの水平成分の最大値が算出され、垂直成分最小値算出部133により過去の予測動きベクトルの垂直成分の最小値が算出され、垂直成分最大値算出部134により過去の予測動きベクトルの垂直成分の最大値が算出される。
ステップS44において、動き履歴特徴量抽出部122は、ステップS43の処理で読み出され算出された動きベクトルの水平成分の最小値と最大値から、動きベクトルの水平成分のダイナミックレンジを算出するとともに、動きベクトルの垂直成分の最小値と最大値から、動きベクトルの垂直成分のダイナミックレンジを算出する。
ステップS45において、動き判定部123は、一時停止検出部60が出力する一時停止検出結果(後述)に基づいて、過去の予測動きベクトルの最大値と最小値、およびそれらの最大値と最小値から求まるダイナミックレンジから、式(6)と式(7)に従って、現フレームの予測動きベクトル範囲を推定する。
この処理において、動画像が一時停止されてから追尾点が設定される場合、追尾点が設定されてから追尾開始までの間、オブジェクト追尾部23に同じフレームの画像が入力され続けることになる。この場合、ダイナミックレンジDR(x,y)=(0,0)となり、追尾開始時における追尾点の予測動きベクトルの範囲が小さくなるので、早い動きのオブジェクトを追尾することができなくなる。そこで、一時停止検出部60が出力する一時停止検出結果に基づいて、一時停止からの追尾開始時の場合にのみ例外的に予測動きベクトルの範囲を、動き推定部52のサーチエリアと同じ値、あるいは非常に大きな値などに設定しておく。
ステップS46において、動き判定部123は、追尾点の動きが推定可能であるか否かを判定する。追尾点の動きが推定可能であったか否かは、ステップS42の処理により推定された追尾点の動きベクトルが、ステップS45の処理により推定された予測動きベクトルの範囲内であるか否かが判定され、予測動きベクトルの範囲内であれば推定が可能であり、範囲外であれば推定が不可能であると判定される。
ステップS46において、追尾点の動きが推定可能であると判定された場合、ステップS47に進み、動き判定部123は、連続外挿カウンタを初期化する。ステップS48において、動き判定部123は、ステップS42の処理で推定された動きベクトルの分だけ追尾点をシフトする。これにより、前フレームの追尾点の追尾後の後フレームにおける追尾の位置が決定されることになる。
これに対し、ステップS46において、追尾点の動きが推定不可能であると判定された場合、ステップS49に進み、動き判定部123は、乗り換え候補保持部56に乗り換え候補が保持されているか否かを判定し、乗り換え候補が保持されていると判定した場合、ステップS50に進む。ステップS50において、動き判定部123は、乗り換え候補保持部56に保持されている乗り換え候補の中から、もとの追尾点に最も近い乗り換え候補を選択し、選択した乗り換え候補に乗り換える(変更する)。これにより、乗り換え候補の点が新たな追尾点として設定される。
ステップS50の処理の後、処理はステップS46に戻り、新たに設定された追尾点の動きが推定可能であるか否かが再び判定され、推定可能であれば、ステップS47において連続外挿カウンタが初期化され、ステップS48において追尾点を推定動き分だけシフトする処理が行われる。
ステップS49において、乗り換え候補保持部56に乗り換え候補が保持されていないと判定された場合、ステップS51に進み、動き判定部123は、連続外挿カウンタが閾値以下であるか否かを判定する。すなわち、ここでの処理は、他のオブジェクトによる交差中に追尾対象として指定したオブジェクトの動きが停止するなどして過去の動き履歴から大きく異なる動きをした場合に、過去の予測動きベクトルで連続的に外挿を行うと、最悪の場合、追尾点が画像内の動き情報とは無関係に動くことになる。そこで、動き判定部123は、予測動きベクトルを連続的に外挿する回数をカウントし、予め設定した閾値との比較を行う。
ステップS51において、連続外挿カウンタが閾値以下であると判定された場合、ステップS52に進み、動き判定部123は、連続外挿カウンタをカウントアップし、ステップS53において、予測動きベクトルメモリ121に格納されている直前の過去の予測動きベクトルを読み出して外挿する。これにより、現フレームの追尾点の位置が決定される。
ステップS51において、連続外挿カウンタが閾値以下ではないと判定された場合、ステップS54に進み、動き判定部123は、連続外挿カウンタを初期化する。ステップS55において、動き判定部123は、予測動きベクトルを0ベクトルで出力する。すなわち、上述したように、過去の予測動きベクトルで連続的に外挿が行われると追尾点が画像内の動き情報とは無関係に動くことになるため、連続外挿カウンタが閾値を超えた場合には、予測動きベクトルが0ベクトルに設定され、追尾が終了される。
ステップS48、ステップS53、またはステップS55の処理の後、処理はステップS56に進み、動き判定部123は、最終的に決定した予測動きベクトルに基づいて、予測動きベクトルメモリ121を更新する。これにより、予測動きベクトル121に、いま決定された予測動きベクトルが新たな履歴データとして格納される。
ステップS56の予測動きベクトルメモリ121の更新処理が終了した後、処理は再びステップS41に戻り、それ以降の処理が繰り返し実行される。
このように、過去の複数フレームにわたるオブジェクトの予測動きベクトルの履歴情報から算出される特徴量を用いて、現在の追尾点の予測動きベクトルの推定可否判定と、過去の予測動きベクトルの外挿を組み合わせることにより、高精度な予測動きベクトルを求めることが可能になる。また、他のオブジェクトとの交差により複数フレーム間、追尾点が消失するような場合、相関値演算では確からしい動きベクトルであっても、現在の追尾点の予測動きベクトルの推定可否判定により、不確かな動きベクトルを排除することが可能となり、高精度な追尾が可能となる。
次に、図17のフローチャートを参照して、一時停止検出部60が実行する一時停止検出処理について説明する。この処理は、一時停止状態であることを検出するためのカウンタが0に設定され開始される。
一時停止検出部60は、動き推定部52から追尾点の動きベクトルを取得するとともに、背景動き推定部54から背景の動きベクトルを取得する。
ステップS61において、一時停止検出部60は、カウンタが閾値以上、且つ、背景と追尾対象としてのオブジェクト上の追尾点のどちらか一方の動きベクトルが0ベクトルではないか否かを判定し、カウンタが閾値以上、且つ、背景と追尾対象としてのオブジェクト上の追尾点のどちらか一方の動きベクトルが0ベクトルではないと判定した場合、ステップS62に進む。
ステップS62において、一時停止検出部60は、一時停止を検出するためのカウンタを初期化し、ステップS63において、一時停止からの追尾開始と判断する。すなわち、カウンタが閾値以上であるということは、一時停止状態であることを意味し、背景と追尾点のどちらか一方の動きベクトルが0ベクトルではないということは、現フレームで動きが再開されたことを意味しているため、一時停止からの追尾開始と判断される。
ステップS61において、カウンタが閾値以上ではない、背景と追尾点のどちらか一方の動きベクトルが0ベクトルである、あるいは、背景と追尾点の両方の動きベクトルが0ベクトルであると判定された場合、ステップS64に進み、一時停止検出部60は、一時停止からの追尾開始ではないと判断する。
ステップS65において、一時停止検出部60は、背景動きと追尾点の動きが共に0ベクトルであるか否かを判定し、背景動きと追尾点の動きが共に0ベクトルであると判定した場合、ステップS66に進み、一時停止状態を検出するためのカウンタをインクリメントする。この処理により、一時停止状態の検出が開始される。
ステップS65において、背景動きと追尾点の動きが共に0ベクトルではない、すなわち、背景と追尾点のどちらか一方の動きベクトルが0ベクトルではないと判定された場合、ステップS67に進み、一時停止状態を検出するためのカウンタを初期化する。
ステップS63、ステップS66、またはステップS67の処理の後、一時停止検出部60は、カウンタの値を検出結果として追尾点決定部57の動き判定部123に出力する。この検出結果が図16のステップS45の処理で用いられる。
ステップS68の処理の後、ステップS61に戻り、上述した処理が繰り返される。
このように、追尾点の動きベクトルと背景の動きベクトルから、一時停止からの追尾開始か否かが推定される。つまり、統計的に確からしい背景動きベクトルとオブジェクトの局所的な追尾点の動きベクトルの両方を用いて一時停止であるか否かを判定したので、精度の高い推定結果が得られる。なお、動き判定部123は、制御部59などより、一時停止からの追尾開始か否かを示す情報を取得することが可能であれば、その情報を用いる方が好ましい。
次に、図18を参照して、本実施の形態の追尾処理を実行することにより、追尾点が一時的に見えなくなった場合においても継続的に追尾が可能となる例について説明する。
図18の例では、異なる向きで動くオブジェクト71とオブジェクト72が時刻F(t+1)で交差しており、オブジェクト71とオブジェクト72が交差する直前の時刻F(t−1)まで予測動きベクトルが正しく求まっているとする。また予測動きベクトルメモリ121には、図19Aに示されるように、時刻(t−4)、時刻(t−3)、時刻(t−2)、および時刻(t−1)の予測動きベクトル(−2,0)、(−2,0)、(−4,0)、(−4,0)が格納されている。
時刻F(t−1)において、時刻F(t−1)と時刻F(t)の間のマッチングの結果、オブジェクト71の動きベクトルVA(vx,vy)=(−4,0)が検出されるとともに、オブジェクト72の動きベクトルVB(vx,vy)=(3,0)が検出される。
時刻F(t)において、時刻F(t)と時刻F(t+1)の間のマッチングの結果、誤った動きベクトル(−4,−4)が検出されてしまう。そこで、動き履歴特徴量抽出部122は、予測動きベクトルメモリ121から図19Aに示すような予測動きベクトルを読み出し、動き履歴特徴量として、最大値MAX(x,y)=(−2,0)、最小値MIN(x,y)=(−4,0)、ダイナミックレンジDR(x,y)=(2,0)を算出する。例えば、閾値がTH(x,y)=(2,1)に設定された場合、動き判定部123は、現フレームの予測動きベクトルの範囲を、式(6)、式(7)に従って、max(x,y)=(2,1)、min(x,y)=(−4,−1)と推定する。これにより、時刻F(t)と時刻F(t+1)の間のマッチングにより推定した追尾点81の誤った動きベクトル(−4,−4)は、予測動きベクトルの範囲外となり、不確かな動きベクトルとして棄却することができる。この時、動き判定部123は、追尾点81の予測動きベクトルは、直前の過去の時刻F(t−1)の予測動きベクトル(−4,0)で外挿する。
この外挿の結果、時刻F(t+1)における追尾点81の位置は、時刻F(t)の位置から予測動きベクトル(−4,0)だけシフトした位置となる。また予測動きベクトルメモリ121には、図19Bに示されるように、時刻F(t)の動きベクトル(−4,0)が新たに格納される。
ここで時刻F(t+1)において、オブジェクト71とオブジェクト72の交差により、オブジェクト71の前景となったオブジェクト72に追尾点81が存在するので、時刻F(t+1)と時刻F(t+2)の間のマッチングの結果、オブジェクト72の動きベクトルVB(vx,vy)=(3,0)が追尾点81の動きベクトルとして検出されてしまう。そこで、動き履歴特徴量抽出部122は、予測動きベクトルメモリ121から図19Bに示すような予測動きベクトルを読み出し、動き履歴特徴量として、最大値MAX(x,y)=(−2,0)、最小値MIN(x,y)=(−4,0)、ダイナミックレンジDR(x,y)=(2,0)を算出する。例えば、閾値がTH(x,y)=(2,1)に設定された場合、動き判定部123は、現フレームの予測動きベクトルの範囲を、式(6)、式(7)に従って、max(x,y)=(2,1)、min(x,y)=(−4,−1)と推定する。これにより、時刻F(t+1)と時刻F(t+2)の間のマッチングにより推定した追尾点81の誤った動きベクトル(3,0)は、予測動きベクトルの範囲外となり、不確かな動きベクトルとして棄却することができる。この時、動き判定部123は、追尾点81の予測動きベクトルは、直前の過去の時刻F(t)の予測動きベクトル(−4,0)で外挿する。
この外挿の結果、時刻F(t+2)における追尾点81の位置は、時刻F(t+1)の位置から予測動きベクトル(−4,0)だけシフトした位置となり、オブジェクト71上に存在することになる。
以上のように、現在の追尾点の予測動きベクトルの推定可否判定において、追尾点の過去の動き履歴情報から現在の追尾点の動き範囲を推定し、既知の値である直前の動きで現在の動きを外挿するようにしたので、他のオブジェクトによる交差により、複数フレーム間、追尾点81が消失するような場合であっても、空間相関の高い動きベクトルで、かつ、時間方向の連続性が高い予測動きベクトルを決定することができ、精度の高い追尾が可能となる。
また、動き可否判定を画素毎の動き検出に応用することで、より精度の高い動きを検出することが可能になる。
以上においては、画像のフレームを処理単位とし、すべてのフレームを用いることを前提としたが、フィールド単位で処理したり、すべてのフレームまたはフィールドを利用するのではなく、所定の間隔で間引いて抽出されたフレームまたはフィールドを用いるようにすることも可能である。
また以上においては、監視カメラシステムに適用した場合の例について説明したが、これに限らず、例えば、テレビジョン受像機など各種の画像処理装置に適応することが可能である。
さらに以上においては、画像の処理単位をフレームとしたが、フィールドを処理単位とすることももちろん可能である。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図2に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア28、または、プログラムが一時的もしくは永続的に格納されるハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
他のオブジェクトとの交差により追尾に失敗する例を説明する図である。 本発明を適用した監視カメラシステムの構成例を示すブロック図である。 監視処理を説明するフローチャートである。 図1の監視カメラシステムにより表示される画像の例を示す図である。 図1のオブジェクト追尾部の構成例を示すブロック図である。 シーンチェンジが起きる場合の追尾を説明する図である。 動き推定部の構成例を説明するブロック図である。 動き推定処理を説明するフローチャートである。 アクティビティの算出を説明する図である。 評価値とアクティビティの関係を説明する図である。 統合処理を説明するフローチャートである。 背景動き推定部の構成例を示すブロック図である。 背景動き推定処理を説明するフローチャートである。 追尾点決定部の構成例を示すブロック図である。 追尾点決定部のさらに詳細を説明するブロック図である。 追尾処理を説明するフローチャートである。 一時停止検出処理を説明するフローチャートである。 本実施の形態の追尾を説明する図である。 予想動きベクトルメモリに格納される動きベクトルの例を示す図である。
符号の説明
1 監視カメラシステム, 21 撮像部, 22 追尾対象検出部, 23 オブジェクト追尾部, 52 動き推定部, 53 シーンチェンジ検出部, 54 背景動き推定部, 55 領域推定関連処理部, 56 乗り換え候補保持部, 57 追尾点決定部, 60 一時停止検出部, 121 予測動きベクトルメモリ, 122 動き履歴特徴量抽出部, 123 動き判定部

Claims (7)

  1. 移動するオブジェクトを追尾する画像処理装置において、
    画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶する記憶手段と、
    前記記憶手段に記憶されている前記履歴情報に基づいて、前記オブジェクトの現在の動きを推定する推定手段と
    を備える画像処理装置。
  2. 前記推定手段により前記オブジェクトの現在の動きが推定不可能であると判断された場合、前記記憶手段に記憶されている前記過去の動きベクトルを読み出して外挿する外挿手段をさらに備える
    請求項1に記載の画像処理装置。
  3. 前記外挿手段により連続して前記過去の動きベクトルが外挿された場合、前記推定手段は、前記オブジェクトの現在の動きベクトルを0ベクトルに設定する
    請求項2に記載の画像処理装置。
  4. 前記推定手段は、複数の前記過去の動きベクトルの中から、最大値および最小値、並びに、前記最大値と前記最小値の差分であるダイナミックレンジを求め、前記オブジェクトの現在の動きの範囲を推定する
    請求項1に記載の画像処理装置。
  5. 前記画像の一時停止を検出する検出手段をさらに備え、
    前記検出手段により前記画像の一時停止が検出された場合、前記推定手段は、前記オブジェクトの現在の動きの範囲を大きな値に設定する
    請求項4に記載の画像処理装置。
  6. 移動するオブジェクトを追尾する画像処理装置の画像処理方法において、
    画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶し、
    前記記憶手段に記憶されている前記履歴情報に基づいて、前記オブジェクトの現在の動きを推定する
    ステップを含む画像処理方法。
  7. 移動するオブジェクトを追尾する画像処理装置の画像処理をコンピュータに実行させるプログラムにおいて、
    画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶し、
    前記記憶手段に記憶されている前記履歴情報に基づいて、前記オブジェクトの現在の動きを推定する
    ステップを含むプログラム。
JP2006099830A 2006-03-31 2006-03-31 画像処理装置および方法、並びにプログラム Expired - Fee Related JP4826315B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006099830A JP4826315B2 (ja) 2006-03-31 2006-03-31 画像処理装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006099830A JP4826315B2 (ja) 2006-03-31 2006-03-31 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007272733A true JP2007272733A (ja) 2007-10-18
JP4826315B2 JP4826315B2 (ja) 2011-11-30

Family

ID=38675452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006099830A Expired - Fee Related JP4826315B2 (ja) 2006-03-31 2006-03-31 画像処理装置および方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP4826315B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009200672A (ja) * 2008-02-20 2009-09-03 Sony Corp 画像信号処理装置、画像信号処理方法、およびプログラム
JP2010211617A (ja) * 2009-03-11 2010-09-24 Sony Corp 撮像装置、動体検知方法、動体検知回路及びプログラム
JP2011039995A (ja) * 2009-08-18 2011-02-24 Nec Soft Ltd 対象物検出装置、対象物検出方法、プログラムおよび記録媒体
KR20110094765A (ko) * 2010-02-17 2011-08-24 삼성전자주식회사 움직임 예측 장치 및 방법과 영상 처리 장치
JP2013125304A (ja) * 2011-12-13 2013-06-24 Nippon Telegr & Teleph Corp <Ntt> 並列映像解析装置、並列映像解析方法及び並列映像解析プログラム
JP2013230401A (ja) * 2013-08-19 2013-11-14 Nidek Co Ltd 眼底画像処理装置
WO2019003709A1 (ja) * 2017-06-30 2019-01-03 日本電気株式会社 情報処理装置、制御方法、及びプログラム
CN110944196A (zh) * 2018-09-24 2020-03-31 北京字节跳动网络技术有限公司 简化的基于历史的运动矢量预测
US11477463B2 (en) 2018-06-21 2022-10-18 Beijing Bytedance Network Technology Co., Ltd. Component-dependent sub-block dividing
US11509915B2 (en) 2018-06-05 2022-11-22 Beijing Bytedance Network Technology Co., Ltd. Interaction between IBC and ATMVP
US11792421B2 (en) 2018-11-10 2023-10-17 Beijing Bytedance Network Technology Co., Ltd Rounding in pairwise average candidate calculations
JP7464730B2 (ja) 2020-02-03 2024-04-09 グーグル エルエルシー ビデオ情報に基づく空間オーディオ拡張
US11968377B2 (en) 2018-06-21 2024-04-23 Beijing Bytedance Network Technology Co., Ltd Unified constrains for the merge affine mode and the non-merge affine mode
US11973962B2 (en) 2018-06-05 2024-04-30 Beijing Bytedance Network Technology Co., Ltd Interaction between IBC and affine

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04363688A (ja) * 1991-03-08 1992-12-16 Mitsubishi Electric Corp 経路予測装置
JPH07192136A (ja) * 1993-11-22 1995-07-28 Nippon Telegr & Teleph Corp <Ntt> 物体追跡方法および装置
JPH08186825A (ja) * 1994-12-28 1996-07-16 Nippon Hoso Kyokai <Nhk> 動きベクトル検出方法
JPH10177655A (ja) * 1996-12-16 1998-06-30 Oki Electric Ind Co Ltd 動画像処理装置
JPH1186004A (ja) * 1997-09-11 1999-03-30 Fujitsu Ltd 移動体追跡装置
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
JP2005250989A (ja) * 2004-03-05 2005-09-15 Sony Corp 移動物体追跡方法及び画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04363688A (ja) * 1991-03-08 1992-12-16 Mitsubishi Electric Corp 経路予測装置
JPH07192136A (ja) * 1993-11-22 1995-07-28 Nippon Telegr & Teleph Corp <Ntt> 物体追跡方法および装置
JPH08186825A (ja) * 1994-12-28 1996-07-16 Nippon Hoso Kyokai <Nhk> 動きベクトル検出方法
JPH10177655A (ja) * 1996-12-16 1998-06-30 Oki Electric Ind Co Ltd 動画像処理装置
JPH1186004A (ja) * 1997-09-11 1999-03-30 Fujitsu Ltd 移動体追跡装置
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
JP2005250989A (ja) * 2004-03-05 2005-09-15 Sony Corp 移動物体追跡方法及び画像処理装置

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009200672A (ja) * 2008-02-20 2009-09-03 Sony Corp 画像信号処理装置、画像信号処理方法、およびプログラム
JP4513034B2 (ja) * 2008-02-20 2010-07-28 ソニー株式会社 画像信号処理装置、画像信号処理方法、およびプログラム
JP2010211617A (ja) * 2009-03-11 2010-09-24 Sony Corp 撮像装置、動体検知方法、動体検知回路及びプログラム
US8787617B2 (en) 2009-03-11 2014-07-22 Sony Corporation Imaging apparatus, mobile body detecting method, mobile body detecting circuit and program
JP2011039995A (ja) * 2009-08-18 2011-02-24 Nec Soft Ltd 対象物検出装置、対象物検出方法、プログラムおよび記録媒体
KR20110094765A (ko) * 2010-02-17 2011-08-24 삼성전자주식회사 움직임 예측 장치 및 방법과 영상 처리 장치
KR101630688B1 (ko) 2010-02-17 2016-06-16 삼성전자주식회사 움직임 예측 장치 및 방법과 영상 처리 장치
JP2013125304A (ja) * 2011-12-13 2013-06-24 Nippon Telegr & Teleph Corp <Ntt> 並列映像解析装置、並列映像解析方法及び並列映像解析プログラム
JP2013230401A (ja) * 2013-08-19 2013-11-14 Nidek Co Ltd 眼底画像処理装置
US11301692B2 (en) 2017-06-30 2022-04-12 Nec Corporation Information processing apparatus, control method, and program
JPWO2019003709A1 (ja) * 2017-06-30 2020-08-06 日本電気株式会社 情報処理装置、制御方法、及びプログラム
WO2019003709A1 (ja) * 2017-06-30 2019-01-03 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US11831884B2 (en) 2018-06-05 2023-11-28 Beijing Bytedance Network Technology Co., Ltd Interaction between IBC and BIO
US11509915B2 (en) 2018-06-05 2022-11-22 Beijing Bytedance Network Technology Co., Ltd. Interaction between IBC and ATMVP
US11523123B2 (en) 2018-06-05 2022-12-06 Beijing Bytedance Network Technology Co., Ltd. Interaction between IBC and ATMVP
US11973962B2 (en) 2018-06-05 2024-04-30 Beijing Bytedance Network Technology Co., Ltd Interaction between IBC and affine
US11477463B2 (en) 2018-06-21 2022-10-18 Beijing Bytedance Network Technology Co., Ltd. Component-dependent sub-block dividing
US11659192B2 (en) 2018-06-21 2023-05-23 Beijing Bytedance Network Technology Co., Ltd Sub-block MV inheritance between color components
US11968377B2 (en) 2018-06-21 2024-04-23 Beijing Bytedance Network Technology Co., Ltd Unified constrains for the merge affine mode and the non-merge affine mode
US11895306B2 (en) 2018-06-21 2024-02-06 Beijing Bytedance Network Technology Co., Ltd Component-dependent sub-block dividing
US11616945B2 (en) 2018-09-24 2023-03-28 Beijing Bytedance Network Technology Co., Ltd. Simplified history based motion vector prediction
CN110944196B (zh) * 2018-09-24 2023-05-30 北京字节跳动网络技术有限公司 简化的基于历史的运动矢量预测
CN110944196A (zh) * 2018-09-24 2020-03-31 北京字节跳动网络技术有限公司 简化的基于历史的运动矢量预测
US11792421B2 (en) 2018-11-10 2023-10-17 Beijing Bytedance Network Technology Co., Ltd Rounding in pairwise average candidate calculations
JP7464730B2 (ja) 2020-02-03 2024-04-09 グーグル エルエルシー ビデオ情報に基づく空間オーディオ拡張

Also Published As

Publication number Publication date
JP4826315B2 (ja) 2011-11-30

Similar Documents

Publication Publication Date Title
JP4826315B2 (ja) 画像処理装置および方法、並びにプログラム
US8064522B2 (en) Motion-vector detecting device, motion-vector detecting method, and computer program
US8605946B2 (en) Moving object detection apparatus and moving object detection method
JP4623122B2 (ja) 画像信号処理装置、画像信号処理方法、およびプログラム
US8582822B2 (en) Moving object detection apparatus and moving object detection method
US8054881B2 (en) Video stabilization in real-time using computationally efficient corner detection and correspondence
US9444977B2 (en) Method and device for adaptive noise measurement of a video signal
EP2372654A1 (en) Object tracking apparatus, object tracking method, and control program
US10755419B2 (en) Moving object detection apparatus, moving object detection method and program
JP4797753B2 (ja) 画像処理装置および方法、並びにプログラム
US20120134541A1 (en) Object tracking device capable of detecting intruding object, method of tracking object, and storage medium
US8004528B2 (en) Method, systems and computer product for deriving three-dimensional information progressively from a streaming video sequence
JP4514203B2 (ja) 動きベクトル検出装置及び方法
JP2005528708A (ja) 現動きベクトルを推定するユニット及び方法
JP2010114597A (ja) 動きベクトル検出装置、その処理方法およびプログラム
JP2007274543A (ja) 画像処理装置および方法、プログラム、並びに記録媒体
JP2010244207A (ja) 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム
KR101396838B1 (ko) 다수의 모션 모델을 선택적으로 이용하는 영상 안정화 방법 및 시스템
JP2005346425A (ja) 自動追尾装置及び自動追尾方法
JP2009010453A (ja) 画像処理装置および方法、並びにプログラム
JP2005252359A (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
JP2010011016A (ja) 追尾点検出装置および方法、プログラム、並びに記録媒体
US20190213422A1 (en) Information processing apparatus and method of controlling the same
US11507768B2 (en) Information processing apparatus, information processing method, and storage medium
JP2007272731A (ja) 画像処理装置および方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110816

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110829

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140922

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees