JP5454570B2 - 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム - Google Patents

追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム Download PDF

Info

Publication number
JP5454570B2
JP5454570B2 JP2011507204A JP2011507204A JP5454570B2 JP 5454570 B2 JP5454570 B2 JP 5454570B2 JP 2011507204 A JP2011507204 A JP 2011507204A JP 2011507204 A JP2011507204 A JP 2011507204A JP 5454570 B2 JP5454570 B2 JP 5454570B2
Authority
JP
Japan
Prior art keywords
time
change point
state change
tracking
tracking target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011507204A
Other languages
English (en)
Other versions
JPWO2010113929A1 (ja
Inventor
真澄 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011507204A priority Critical patent/JP5454570B2/ja
Publication of JPWO2010113929A1 publication Critical patent/JPWO2010113929A1/ja
Application granted granted Critical
Publication of JP5454570B2 publication Critical patent/JP5454570B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、追尾対象判定装置、追尾対象判定方法および追尾対象判定プログラムに関し、特に映像に登場する対象が撮影者によって追尾撮影された対象であることを判定するための追尾対象判定装置、追尾対象判定方法および追尾対象判定プログラムに関する。
追尾対象とは、映像に登場する動物体のうち画面上に映りつづけるように撮影されている対象であり、撮影者の注目する重要な対象と仮定できる。そのため、映像に登場する重要な対象を把握するための要約映像の生成や、代表画像の抽出において、動物体の追尾判定が要望されている。
追尾対象判定装置の一例が、特許文献1(特開平8−191411)に記載されている。
特許文献1の手法は、カメラを一定方向に動かして撮影した映像区間において、カメラの動きによって生じる動きベクトルとは異なる動きベクトルを持った画像領域である移動領域の分布に基づき、映像区間における追尾対象の存在可能性を算出する。この手法では、移動領域の画素数、集中度、重心位置、分散度合いによって得られる移動領域のまとまりの度合いや、映像区間における移動領域を含むフレーム数の割合によって得られる定常の度合いを利用して、「まとまって定常的に存在する移動領域の集合」を追尾対象と判定する。
追尾対象を判定するための構造として、図23に示すように、映像の各フレームについて動きベクトルを検出する動きベクトル検出手段300、動きベクトルをもとにパニング区間の開始点と終了点を検出するパニング区間検出部301と、過去の映像フレームから動きベクトル分平行移動させた予測画像である動き補償予測画像と、現在のフレームとの間で相関の低い領域を移動領域として検出し、この領域の分布情報を抽出する移動領域情報検出手段302と、各パニング区間について区間内で検出された移動領域の分布情報をもとに、この区間が対象を追尾したシーンであることを判定するシーン判定手段303とで構成されている。
特開平8−191411号公報
鳥井陽介、紺谷精一、森本正志、"映像の動きを用いた動物体アップショット・フォローショット検出"、MIRU2005 pp.24−31 岩井儀雄、勞世▲光▼瓣山口修、平山高嗣、"画像処理による顔検出と顔認識"、情報処理学会研究報告(CVIM−149)、2005年 pp.343〜368
関連技術の手法における第1の問題点は、動物体の移動速度とほぼ等しい速度でカメラを動かしていない場合には、動物体を追尾対象と判定できないという点である。
例えば、ショットが短いためにカメラの移動速度が動物体の移動速度と等しくなる前にショットが終わってしまう場合や、動物体がランダムに動くために動物体の移動先を撮影者が予測できない場合や、望遠カメラで撮影する際のように動物体の動きに対しカメラの移動速度が揺らぐ場合には、動物体を追尾対象と判定できない。
その理由は、動物体が追尾対象であるか否かを、カメラの動きによって生じる動きベクトルとは異なる動きベクトルを持った画像領域である移動領域の分布状態によって判定するためである。従って、カメラの動きが動物体の移動速度と異なるために移動領域の分布が「まとまって定常的に存在する」特性を満たさない場合には、移動領域の集合である動物体を追尾対象と判定できないためである。
関連技術の手法における第2の問題点は、カメラを一定方向に動かして撮影する映像区間が終了するまで、動物体を追尾対象と判定できないという点である。
その理由は、動物体が追尾対象であるか否かを、映像区間の中で動物体を安定して追尾できているフレーム数の割合をもとに判定するため、映像区間長を取得しないと動物体を追尾対象と判定できないためである。
(発明の目的)
本発明の目的は、映像に登場する動物体が撮影者によって追尾撮影された対象であることを判定することにある。
本発明の第1の追尾対象判定装置は、動物体の動きベクトルによって定められる運動状態が変化した時刻と、カメラモーションの動きベクトルによって定められる撮影状態が変化した時刻との差である時間差をもとに、前記動物体が撮影者の着目する被写体である追尾対象と判定する手段を含む。
本発明の第1の追尾対象判定方法は、動物体の動きベクトルによって定められる運動状態が変化した時刻と、カメラモーションの動きベクトルによって定められる撮影状態が変化した時刻との差である時間差をもとに、前記動物体が撮影者の着目する被写体である追尾対象と判定するステップを有する。
本発明の第1の追尾対象判定プログラムは、動物体の動きベクトルによって定められる運動状態が変化した時刻と、カメラモーションの動きベクトルによって定められる撮影状態が変化した時刻との差である時間差をもとに、前記動物体が撮影者の着目する被写体である追尾対象と判定する処理を実行させる。
第1の効果は、動物体の動きとほぼ等しい速度でカメラを動かしていない場合であっても、その動物体を追尾対象と判定できる点である。そのため、例えば、ショットが短いためにカメラの移動速度が動物体の移動速度と等しくなる前にショットが終わってしまう場合や、動物体がランダムに動くために動物体の移動先を撮影者が予測できない場合や、望遠カメラで撮影する際のように追尾撮影中にカメラの移動速度が揺らぐ場合のように、動物体が画面上の一定位置に定常的に存在しない場合についても、動物体の運動の変化と撮影状態の変化の時刻差に応じて追尾対象と判定できる。
第2の効果は、映像区間長を取得しなくても動物体が追尾対象と判定できる点である。そのため、カメラを一定方向に動かして撮影した映像区間が終了する前に、追尾対象と判定できる。
本発明の第1の実施の形態による追尾対象判定装置の構成を示すブロック図である。 第1の実施の形態における運動状態変化点の時刻および動物体情報の一例を示す図である。 第1の実施の形態における撮影状態変化点の時刻および撮影状態の一例を示す図である。 第1の実施の形態における時間差の一例を示す図である。 本発明の第1の実施の形態による追尾対象判定装置の動作を示すフローチャートである。 第1の実施の形態におけるカメラ座標系上の点Pとカメラの旋回角度であるパン角とチルト角との関係を説明する図である。 第1の実施の形態におけるρ(Di|iが追尾対象)と時間差との関係性を、統計量に基づいて表現する関数の一例である。 第1の実施の形態における動物体の画面上での見かけ上の運動状態を説明する図である。 第1の実施の形態における動物体iが追尾対象である場合に時間差がDiである確率と時間差との関係性を、動物体の画面上での位置と速さに基づいて表現する関数の一例である。 第1の実施の形態における動物体iが追尾対象である場合に時間差がDiである確率と時間差との関係性を、動物体の画面上での位置と速さに基づいて表現する関数の一例である。 第1の実施の形態における動物体iが追尾対象である場合に時間差がDiである確率と時間差との関係性を、動物体の画面上での大きさに基づいて表現する関数の一例である。 第1の実施の形態における動物体iが追尾対象である場合に時間差がDiである確率と時間差との関係性を、動物体の画面上での大きさに基づいて表現する関数の一例である。 第1の実施の形態における動物体iが追尾対象である場合に時間差がDiである確率の算出方法を説明する図である。 第1の実施の形態における追尾判定結果の出力の一例である。 第1の実施の形態における追尾判定結果の出力の一例である。 本は対の第2の実施の形態による追尾対象判定装置の構成を示すブロック図である。 実施例1における入力映像の概要を示す図である。 実施例1の構成を示すブロック図である。 実施例1において、時間差を算出する撮影状態変化点と移動状態変化点の組み合わせを説明する図である。 実施例1において、動物体iが追尾対象である場合に時間差がDiである確率を算出するための関数を示す図である。 実施例1において、動物体iが追尾対象である場合に時間差がDiである確率を算出するための関数を示す図である。 実施例1における追尾判定結果の出力例を示す図である。 関連技術における追尾対象判定装置例を示すブロック図である。
次に、本発明の実施の形態について面を参照して詳細に説明する。
(第1の実施の形態)
図1を参照すると、本発明の第1の実施の形態による追尾対象判定装置は、映像を入力する映像入力手段100と、プログラム制御により動作するデータ処理装置110と、各動物体の追尾判定結果を出力する判定結果出力手段120とを含む。
映像入力手段100は、映像を構成する各フレームの画像情報をデータ処理装置110に入力する。
データ処理装置110は、運動状態変化点検出手段111と、撮影状態変化点検出手段112と、追尾スコア算出手段113と、追尾判定手段114とを含む。
運動状態変化点検出手段111は、動物体の動きベクトルによって定められる運動状態が変化した時刻である運動状態変化点を検出する機能を有する。
運動状態変化点検出手段111は、映像入力手段100から受け取ったフレーム画像から動物体を検出し、動物体情報として、動物体ID、動物体の画像データ、動物体の見かけ上の位置座標、動物体の動きベクトル、動物体の運動状態を取得する。
また、運動状態変化点検出手段111は、動物体の運動状態が変化した時刻である運動状態変化点を検出し、運動状態変化点の時刻と、運動状態変化点における動物体情報を取得し、追尾スコア算出手段113に入力する。
なお、動物体とは、車やボールや動物や人物等のような動き得る物体を意味し、水のような液体を除くものとする。
ここで、動物体の見かけ上の位置座標とは、カメラと動物体の相対的な位置関係であるカメラ座標系上での位置を表わす。動物体の動きベクトルは、カメラによる操作と動物体の運動との相対的な動きであるカメラ座標系での動きベクトル(見かけ上の動きベクトル)ではなく、実空間における位置を投影した2次元の座標系での動きベクトル(絶対的な動きベクトル)とする。
また、動物体の運動状態とは、動物体の動きベクトルによって定められる状態であり、各状態は動きベクトルの方向あるいは大きさについてあらかじめ閾値を定めることで定義しても良いし、カメラの撮像面に対する平行・垂直運動などの動きベクトルの種類によって定義しても良い。
運動状態の変化点は、動物体の運動状態が変化した時刻とする。図2に、運動状態変化点の時刻と、運動状態変化点における動物体情報の一例を示す。
撮影状態変化点検出手段112は、映像のカメラモーションの動きベクトルによって定められる撮影状態が変化した時刻である撮影状態変化点を検出する機能を有する。
撮影状態変化点検出手段112は、映像入力手段100から受け取った映像の各フレームから、撮影情報として、カメラモーションの動きベクトル、撮影状態を取得する。
また、撮影状態変化点検出手段112は、撮影状態が変化した時刻である撮影状態変化点(時刻)を検出し、撮影状態変化点と、撮影状態変化点における撮影情報を取得し、追尾スコア算出手段113に入力する。
なお、カメラモーションの動きベクトルは、カメラのフレーム画像の中央点の実空間における位置を投影した2次元の座標系状での動きベクトルとする。
撮影状態とは、カメラモーションの動きベクトルによって定められる状態であり、各状態はカメラモーションの動きベクトルの方向あるいは大きさによってあらかじめ閾値を定めることで定義しても良いし、パン、チルト、ズーム、フィックス等のカメラモーションの種類によって定義しても良い。
撮影状態の変化点は、撮影状態が変化した時刻とする。図3に、撮影状態変化点の時刻と、撮影状態変化点における撮影情報の一例を示す。
追尾スコア算出手段113は、撮影状態変化点の時刻と運動状態変化点の時刻との差を動物体の時間差とし、動物体の時間差をもとに動物体の追尾スコアを算出する機能を有する。
追尾スコア算出手段113は、運動状態変化点検出手段111から運動状態変化点の時刻と、運動状態変化点における動物体情報を受け取り、撮影状態変化点検出手段112から撮影状態変化点の時刻と、撮影状態変化点における撮影情報を受け取ると、運動状態変化点の時刻と撮影状態変化点の時刻の差である時間差をもとに、動物体の追尾スコアを算出する。
また、追尾スコア算出手段113は、動物体の追尾スコアと動物体情報を追尾判定手段114に入力する。
追尾スコアについて、図2、図3、および図2と図3をまとめた図4を用いて説明する。
例えば、静止していたねずみが右向きに走り出し、急に静止し、次に左向きに走りだす様子を横から追尾撮影する場合を考える。このときのねずみの運動状態は、図2の動物体Aの運動状態で表せる。
一方、撮影者は、ねずみの動きに合わせてカメラを動かし始め、右に一定速度でカメラを動かした後、ねずみが次の瞬間に止まることを予測できないために、ねずみが静止した時刻から一瞬遅れてカメラを静止させる。また、次にねずみが左に走りだすと、その走り出しから一瞬遅れてカメラを左に動かしはじめる。このときの撮影状態は図3のように表せる。
また、右向きに転がるボールが映像に映りこんだとする。ボールを動物体Bとしたとき、その運動状態は図2のように表せる。ここで、ボールは追尾対象でないため、撮影者によるカメラの操作は、ボールの動きに影響されない。
動物体の運動の変化に反応して撮影者が撮影状態を変化させるまでにかかる一瞬の遅れを時間差とすると、動物体Aについての時間差は、動物体Aの運動状態変化点の時刻sA1と撮影状態変化点の時刻t1、時刻sA2と時刻t2、時刻sA3と時刻t3、時刻sA4と時刻t4、時刻sA5と時刻t5の間でそれぞれ算出される。
また、動物体Bについての時間差は、動物体Bの運動状態変化点の時刻sB0と撮影状態変化点の時刻t2との間で算出される。動物体A、Bに関する時間差の一例を図4に示す。
撮影者は、追尾対象である動物体Aを常にカメラに捉えようと、動物体Aの動きに合わせて撮影状態を変化させるため、動物体Aについて算出された各時間差は、いずれも一定範囲内の値をとることが予測される。
また、撮影者は動物体Bを追尾していないため、動物体Bについて算出された時間差は一定範囲外の値をとることが予測される。
そこで、本実施の形態では、上記の傾向に基づき、時間差が一定範囲内にある場合には高い値を、一定範囲外にある場合に低い値をとる関数を設定し、この関数と時間差とをもとに追尾スコアを算出する。
追尾判定手段114は、動物体の追尾スコアをもとに、動物体が追尾対象であることを判定する機能を有する。
追尾判定手段114は、追尾スコア算出手段113から入力された動物体の追尾スコアをもとに、動物体が追尾対象か否かを判定し、動物体の追尾判定結果と動物体情報を判定結果出力手段120に入力する。
判定結果出力手段120は、追尾判定手段114から入力された動物体の追尾判定結果と動物体情報を出力する。
(第1の実施の形態の動作の説明)
次に、図1及び図5のフローチャートを参照して本実施の形態の全体の動作について詳細に説明する。
まず、映像入力手段100は、運動状態変化点検出手段111および撮影状態変化点検出手段112に、入力映像を構成する各フレームを入力する(ステップA01)。
運動状態変化点検出手段111は、映像入力手段100からフレーム画像を受け取ると動物体を検出し、動物体情報として動物体ID、動物体の画像データ、動物体の見かけ上の位置、動物体の動きベクトル、動物体の運動状態を抽出する(ステップA02)。
動物体が既知の場合での動物体の検出手法として、テンプレートに基づく手法が挙げられる。テンプレートに基づく手法では、あらかじめ記憶した動物体のテンプレート画像と入力フレームとの画素値の差分を算出し、差分が閾値以下のとき入力画像に動物体が存在すると判定する。
あるいは、様々な大きさのテンプレート画像をあらかじめ用意しておき、画素値の差分が最も小さくなるテンプレートを利用して動物体の領域を検出しても良い。
また、あらかじめ用意したテンプレート画像との差分が最も小さくなる領域をフレーム画像から切りだし、新規のテンプレート画像として利用しても良い。
複数のテンプレートの利用や、フレーム画像から切り出した領域のテンプレート登録によって、動物体の形状や大きさが移動中に変化した場合であっても安定して動物体を検出できるという効果がある。
動物体が未知の場合での動物体の検出方法として、ブロックマッチングに基づく方法が挙げられる。ブロックマッチング基づく方法では、入力フレームを単位ブロックに区切り、各単位ブロックについて、過去フレーム内の最も高い類似度を算出する領域との距離を各単位ブロックの動きベクトルとして取得する。
また、方向および大きさが類似する動きベクトルを持つブロックをグループ化し、カメラの動きによって生じる動きベクトルを持つグループを除いた最大のグループに属するブロック群を移動領域として検出する。
動物体の検出には、テンプレートに基づく手法や、ブロックマッチングに基づく方法を用いても、他の方法を用いても良い。
動物体IDは、検出された順に連番で採番してもよいし、あらかじめテンプレートにIDを付与しておき動物体を検出した際に利用したテンプレートのIDをその動物体に付与してもよい。
動物体の画像データは、画像フレームから検出された動物体領域を切り出して用いてもよいし、動物体領域を含む矩形領域を切り出して用いてもよいし、切り出した画像領域をあらかじめ定めた形状やサイズに変換して用いてもよいし、検出した際に利用したテンプレート画像を用いてもよい。
動物体の見かけ上の位置は、フレーム画像における動物体領域の重心位置を利用してもよいし、動物体領域を含む矩形領域の重心を用いてもよいし、動物体領域を含む矩形領域の4つの頂点を用いてもよい。
動物体の動きベクトルは以下のようにして求める。
フレーム画像中の任意の点は、カメラの旋回角度であるパン角とチルト角により表現される2次元の絶対座標系を用いて表現できる。例えば、図6に示すように、フレーム画像中央点(カメラ座標系上の原点)Ocをカメラの旋回角度であるパン角P0とチルト角T0を用いて(P0,T0)と表す場合、フレーム画像上の点Pの絶対座標系における位置は式1で表せる。
Figure 0005454570
ただし、fはレンズ系の焦点距離、x、yは見かけ上の位置であり、結像面での位置はカメラ撮像素子CCDの大きさおよびピクセル数から算出する。また、x、y<<fであれば、式1は以下のように近似できる。
P(X,Y)=(αx+P0,βy+T0) (式2)
αとβは、カメラのパン角がP0からΔP、チルト角がT0からΔTだけ旋回した際に、カメラ座標系上の任意の点(x,y)が(x+Δx,y+Δy)に移動した場合に、α=ΔP/Δx、β=ΔT/Δyによって算出される。このαとβは、各fについてあらかじめ算出しておく。
動物体の動きベクトルは、動物体の画像領域内の代表点Pの見かけ上の位置(x,y)と、その単位時間前の時刻における代表点P’の見かけ上の位置を、式2によりそれぞれ絶対座標系上の点P(X,Y)とP’(X’,Y’)に変換し、その差によって算出する。
あるいは動物体の画像領域内の複数の代表点P1〜Pnの絶対座標上の各点と、単位時間前の時刻における代表点P1’からPn’の絶対座標上の各点との間で差を算出し、各点で算出された動きベクトルn本の平均を用いても良い。
なお、パン角P0、チルト角T0は、カメラの初期状態でともに0度とし、ショット開始時から現フレームまでのカメラの回転角度として求められる。P0、T0は、カメラに搭載した角速度センサを利用して取得できる。
あるいは、動物体以外の領域から取得される動きベクトルをカメラの動きを反映した動きベクトルとして抽出し、ショット開始から現在までの各フレームで抽出したカメラの動きを反映した動きベクトルを累積し、あらかじめ取得した累積値とパン角およびチルト角の関係からP0、T0を算出しても良い。
動物体の運動状態は、動物体の動きベクトルを利用して以下のように判定する。
例えば、過去数フレームで算出される動きベクトルの平均値を用いる。
また、動きベクトルの大きさの閾値処理によって「速度大」、「速度中」、「速度小」のような分類を定めても良い。
また、動きベクトルの方向の閾値処理により「0度〜90度」、「90度〜180度」、「180度〜225度」、「225度〜360度」のような分類を定めても良い。
また、方向と速度の閾値処理により「静止」、「(カメラの撮像面に対し)右方向へ平行移動」、「左方向へ平行移動」、「上方向へ平行移動」、「下方向へ平行移動」のような分類を定めても良い。
あるいは、過去数フレームにおける動きベクトルをもとに現フレームにおける加速度を算出し、過去数フレームで算出される加速度の平均値を用いても良い。
なお、動きベクトルu’で移動する動物体が、時刻Δt前のフレームで動きベクトルuで移動する場合に、加速度αは式3によって求められる。
Figure 0005454570
動物体の動きベクトルおよび運動状態は、あらかじめ動物体に搭載したGPSセンサと角速度センサによって取得しても良いし、他の手法を用いてもかまわない。
運動状態変化点検出手段111は、動物体の運動状態が変化した運動状態変化点を検出し、運動状態変化点の時刻と、運動状態変化点における動物体情報を追尾スコア算出手段113に入力する(ステップA03)。
動物体の運動状態変化点は、動きベクトルの平均値や動きベクトルの加速度の平均値が閾値以上となった時刻を変化点として検知する。あるいは、動きベクトルの閾値処理によって定めた分類について、現フレームの属する分類が前フレームの属する分類と異なる場合に現フレームの時刻を変化点として検知してもよい。
動物体の運動状態の変化点は、動物体が等速運動あるいは等加速度運動を保つ状態を定常状態とした場合に、ある定常状態から次の定常状態に遷移し始めた点とする。定常状態から次の定常状態に移るまでの過渡状態は、次の定常状態に含めるものとする。
撮影状態変化点検出手段112は、映像入力手段100から受け取った各フレームから、カメラモーションの動きベクトルと、カメラモーションの動きベクトルによって定められる撮影状態を、撮影情報として取得する(ステップA04)。カメラモーションの動きベクトルを画像処理によって取得する手法の一例が、非特許文献1に記載されている。
非特許文献1では、ショットの先頭フレームからコーナー点を検出し、同一ショット内の連続するフレーム群に対しコーナー点の追跡を行う。コーナー点の抽出および追跡は、Lucas−Kanade−Tomasiの手法によって実現できる。
次に、カメラモーションをx,y方向の平行移動、拡大縮小、回転で表現できるものと仮定して、式4のカメラワークモデルを元にカメラモーションを算出する。
Figure 0005454570
なお、 (x,y)は現フレームFiにおけるコーナー点の見かけ上の座標、(x’,y’)はFiの1単位時間前のフレームFi’からコーナー点追跡によって検出された(x,y)に対応するコーナー点の見かけ上の座標とする。
パラメータセット{z,dx,dy,θ}は、フレームFiとフレームFi’との間でのカメラモーションを表わし、zは拡大縮小パラメータ、dx,dyはそれぞれx,y方向の平行移動、θは回転パラメータである。
なお、上記モデルでは回転角θは微少であることを前提としており、カメラの回転方向の動きが無視できる場合に利用できる。また、拡大縮小操作には、ズーム、ドリーの何れかを指し、平行移動にはトラック、ブーム、パン、チルト撮影の何れかを指す。
パラメータセット{z,dx,dy,θ}は、コーナー点の対応組{(x,y), (x’,y’)}2組を(式4)に代入することで算出できる。
パラメータセットの算出方法としては、コーナー点としての信頼性の高さから選択されたコーナー点2点を利用してパラメータセットを算出する方法がある。
また、動物体による局所的な動きによる影響を抑えるために、コーナー点の対応組の全組み合わせで算出したパラメータセット群の中で最頻となるパラメータセットを選択する方法や、コーナー点の対応組の全組み合わせで算出したパラメータセット群の中の中央値を選択する方法がある。
パラメータセットの算出方法として、上記のいずれかの方法を用いても、その他の方法を用いても構わない。
カメラモーションの動きベクトルのうちカメラの撮像面に対して平行方向の動き成分は、現フレームFiの中央点Oiの見かけ上の位置(x,y)と、Oiの単位時間前の中央点Oi’の見かけ上の位置(x’,y’)を式2により絶対座標(X,Y)、(X’,Y’)に変換し、その差によって算出できる。また、拡大縮小方向の成分は、パラメータzに相当する。
撮影状態は、カメラモーションの動きベクトルを利用して以下のように判定する。
例えば、過去数フレームから算出されるカメラモーションの動きベクトルの平均値を用いる。
または、動きベクトルの大きさの閾値処理により「速度大」、「速度中」、「速度小」のような分類を定めても良い。
また、動きベクトルの方向の閾値処理により「右パン(右トラック)」、「左パン(左トラック)」、「上チルト(上ブーム)」、「下チルト(下ブーム)」、「静止」、「ズーム(拡大)」、「ズーム(縮小)」のような分類を定めても良い。
あるいは、過去の数フレームにおけるカメラモーションの動きベクトルをもとに現フレームにおける加速度を算出し、過去の数フレームで算出される加速度の平均値を用いても良い。
なお、現フレームにおいてカメラモーションの動きベクトルu’で撮影し、時刻Δt前のフレームにおいて動きベクトルuで撮影した場合に、加速度αは式3によって求められる。
カメラモーションの動きベクトルおよび撮影状態は、あらかじめカメラに搭載した各種センサおよびズーム機能の操作履歴から取得しても良いし、他の手法を用いてもかまわない。
撮影状態変化点検出手段112は、撮影状態が変化した撮影状態変化点を検出する。撮影状態変化点が検出された場合、撮影状態変化点の時刻と、撮影状態変化点における撮影情報を追尾スコア算出手段113に入力する。検出されない場合、ステップA01を実行する(ステップA05)。
撮影状態変化点は、カメラモーションの動きベクトルの平均値や動きベクトルの加速度の平均値が閾値以上となった時刻を変化点として検知する。
あるいは、動きベクトルの閾値処理によって定めた分類について、現フレームの属する分類が前フレームの属する分類と異なる場合に現フレームの時刻を変化点として検知してもよい。
撮影状態変化点は、カメラモーションが等速あるいは等加速度を保つ状態を定常状態とした場合に、ある定常状態から次の定常状態に遷移し始めた点とする。定常状態から次の定常状態に移るまでの過渡状態は、次の定常状態に含めるものとする。
追尾スコア算出手段113は、撮影状態変化点検出手段112から撮影状態変化点の時刻が入力されると、運動状態変化点検出手段111から既に入力されている運動状態変化点の時刻との間で、各動物体に関する時間差を算出する(ステップA06)。
時間差は、各動物体について、撮影状態変化点の時刻より以前に検出された最も近傍の時刻の運動状態変化点との間で算出する。
あるいは、撮影状態変化点の時刻より以前に検出された運動状態変化点のうち、撮影状態と類似する運動状態である運動状態変化点との間で算出しても良い。
あるいは、撮影状態変化点の時刻より以前に検出された運動状態変化点のうち、撮影状態変化点の時刻から微少時間Δt後に予測される動物体の絶対座標系における位置が、Δt後にフレーム画像上の点となる運動状態である運動状態変化点との間で算出しても良い。
追尾スコア算出手段113は、時間差をもとに追尾スコアを算出し、追尾スコアと動物体情報を追尾判定手段114に入力する(ステップA07)。
動物体iの追尾スコアRiは、動物体iが追尾対象である確率が高く、動物体iが非追尾対象である確率が低いときに、大きな値をとるように定義する。
例えば、式5のように動物体iが追尾対象である確率と動物体iが非追尾対象である確率の比によって算出できる。なお、ρ(iが追尾対象|Di)は、時間差Diのときに、動物体iが追尾対象である確率を表す。
Figure 0005454570
また、式5ベイズの定理より以下のように展開できる。なお、ρ(Di|iが追尾対象)は、動物体iが追尾対象である場合に時間差がDiである確率を示す。
Figure 0005454570
同一フレーム内に動物体がN個含まれる場合、Riは以下のように算出される。
Figure 0005454570
なお、jは、1≦j≦N(j≠i)のN−1個の値をとり、各動物体のIDを表わす。
ρ(Di|iが非追尾対象)は、非追尾対象iである場合に時間差がDiである確率を表す。非追尾対象iに対してあらゆる時間差Diが均等に生じうる(一様分布)と仮定すると、ρ(Di|iが非追尾対象)は定数となる。
なお、Diの取りうる範囲を仮定すると(一般に数秒程度)、ρ(Di|iが非追尾対象)は有限の値となる。
ρ(jが追尾対象)はjが追尾対象である事前確率を表す。j=1からNの各動物体が追尾対象となる確率が均等と仮定すると、ρ(iが追尾対象)および全てのjにおけるρ(jが追尾対象)は(1―C)/Nとなる。
また、Cは撮影状態の変化が追尾の目的でない確率を表す定数であり、統計に基づき設定する。
また、wiは動物体iの運動方向とカメラによる撮影方向が類似する場合に1を、類似しない場合に0をとる重み係数を表す。
以上より、式7の分母は、定数C’を取ると仮定できる。
ρ(Di|iが追尾対象)は、以下の関数によって算出される。
(1)統計量に基づく関数を利用する方法
時間差は、動物体の運動状態の変化を認知してからカメラによる撮影状態を変化させるまでの撮影者の反応速度に相当する。そこで、一般的な人間の反応速度の統計量をもとに関数を設定する。
ρ(Di|iが追尾対象)は、例えば図7の関数によって表現できる。図7の関数G1(t)は、一般的な人間の反応速度の最頻値をT1としたとき、時間差T1のとき100%、時間差0のとき0%となる。これにより、動物体の運動の変化に反応して撮影状態を変化させるまでの時間が一般的な人間の反応速度に近いほど、高い値を算出できる。
また、撮影者固有の反応速度について統計に基づいた関数を設定しても良い。これにより、撮影者のくせに応じた値を算出できる。
(2)動物体の画面上での位置と速さに基づく関数を利用する方法
時間差は、動物体の画面上での位置と速さに応じて変化する。例えば、画面右端に位置する動物体が右向きに運動を変化させた場合、撮影者は動物体を画面上に捉えるために、短い時間差で撮影状態を変化させる。
逆に、画面中央に位置する動物体が運動を変化させた場合、右端に位置する動物体が右向きに運動を変化させた場合と比較して、動物体が画面外に移動するまでに時間がかかるため、時間差は長くなる。
上記の特性に基づき、動物体の画面上の位置と速さに応じて時間差が変化すると仮定すると、ρ(Di|iが追尾対象)は、見かけ上の位置(x,y)で見かけ上の動きベクトルuで運動する動物体iが追尾対象である場合に時間差がDiである確率ρ(Di|iが追尾対象、(x,y)、u)を用いて以下のように算出できる。
Figure 0005454570
ρ((x,y)u)は、動物体が見かけ上の位置(x,y)、見かけ上の動きベクトルuで映像に登場する確率を表し、全ての位置および全ての速さで動物体が登場する確率が同等と仮定した場合には、定数値として扱える。
また、ρ(Di|iが追尾対象、(x,y)、u)は、以下によって求められる。例えば、図8で示すように、動物体の運動状態が変化した時刻における動物体の重心の見かけ上の位置座標を(x1,y1)、フレームの幅をWと高さをHとする。このとき、見かけ上の動きベクトルuは、(x1,y1)と、あらかじめ定めた単位時間前に(x1,y1)が存在した見かけ上の位置座標(x1’,y1’)との差によって表せる。
動物体が動きベクトルuで等速直線運動すると仮定すると、動物体の重心座標を始点とし、動きベクトルuと平行に引いた直線とフレーム枠との交点を(x2,y2)としたときに、動物体が画面外に移動するまでにかかる時間T2は以下のように表せる。
Figure 0005454570
このとき、ρ(Di|iが追尾対象、(x,y)、u)は図9、図10に示す関数G2を用いて表現できる。
T2>T1の場合、撮影者は動物体が画面上で捉えられなくなるまでに時間があることを察知し、T1よりも長くT2よりも短い時間差で撮影状態を変化させる確率が高い。また、動物体が画面上で捉えられなくなる時間T2以降で撮影状態を変化させる確率は低い。よって、関数G2は図9で表せる。
一方、T2<T1の場合、撮影者は、動物体が画面上に捉えられなくなるまでに撮影状態を変化させることが困難なため、人間の反応速度T1で撮影状態を変化させる確率が高い。また、動物体が運動を変化させたT1後には動物体は既に画面外にあるため、T1以降で撮影状態を変化させる可能性は低い。よって、関数G2は図10で表せる。
(3)動物体の画面上での大きさに基づく関数を利用する方法
時間差は、動物体の画面上での大きさに応じて変化する。例えば、大きな動物体の運動状態が変化した場合、撮影者はその動きに素早く気づくことができるため、短い時間差で撮影状態を変化させる。
一方、小さな動物体の運動状態が変化した場合には、大きな動物体と比較して気づくまでに時間がかかるため、時間差は長くなる。
上記の特性に基づき、動物体の画面上の大きさに応じて時間差が変化すると仮定すると、ρ(Di|iが追尾対象)は、見かけ上の大きさがsである動物体iが追尾対象である場合に時間差がDiである確率ρ(Di|iが追尾対象、s)を用いて以下のように算出できる。
Figure 0005454570
ρ(s)は、動物体が見かけ上の大きさsで映像に登場する確率を表すが、全ての大きさで動物体が登場する確率が同等と仮定した場合には、定数値として扱える。
また、ρ(Di|iが追尾対象、s)は、図11、図12に示す関数G3を用いて表現できる。動物体の見かけ上の大きさをs、映像に映る動物体の平均的な大きさをSとする。
s<Sの場合では、撮影者は動物体の運動状態の変化に気づかず、反応速度T1よりも長い時間差で撮影状態を変化させる可能性が高い。よって、関数G3は図11で表せる。
一方、s>Sの場合、撮影者は動物体の運動状態の変化に即座に気づくが、人間の反応速度T1よりも短い時間差で撮影状態を変化させるのは困難なため、人間の反応速度T1で撮影状態を変化させる可能性が高い。よって、G3は図12で表せる。
動物体iが追尾対象の場合に、動物体iが追尾対象である場合に、時間差がDiである確率ρ(Di|iが追尾対象)は、(1)(2)(3)の関数を用いて表現してもよいし、(1)(2)(3)以外の関数を用いて表現してもかまわない。
追尾スコア算出手段113の動作の一例を説明する。
ステップA06で、各動物体について撮影状態変化点の時刻より以前に検出された最も近傍する時刻の運動状態変化点との間で時間差を算出し、関数G1を利用した場合について、図4と図13を用いて説明する。
時刻t1で撮影状態変化点が検出されると、図4より、動物体Aの運動状態変化点であるsA1と時刻t1との間で、物体Aに関する時間差DA1(=t1−sA1)を算出する。よって、時刻t1における動物体Aの追尾スコアは、RA1(=ρA1/C’)となる。追尾スコア算出手段113は追尾判定手段114に、{RA1,時刻sA1における動物体Aの動物体情報}を入力する。
時刻t2で撮影状態が検出されると、動物体Aに関する時間差DA2(=t2−sA2)をもとに、時刻t2における動物体Aの追尾スコアRA2(=ρA2/(C’+ρB0))を算出する。また、動物体Bに関する時間差DB0(=t2−sB0)をもとに、時刻t2における動物体Bの追尾スコアRB0(=ρB0/(C’+ρA2))を算出する。
追尾スコア算出手段113は追尾判定手段114に、{RA2,時刻sA2における動物体Aの動物体情報}と{RB0,時刻sB0における動物体Bの動物体情報}を入力する。
以下同様にして、撮影状態変化点が検出される時刻t3、t4、t5において各動物体の追尾スコアを算出し、追尾スコアおよび動物体情報を追尾判定手段114に算出結果を入力する。
追尾判定手段114は、追尾スコア算出手段113から追尾スコアと動物体情報を取得すると、追尾スコアをもとに各動物体が追尾対象であるか否かを判定し、判定結果と動物体情報を判定結果出力手段120に入力する(ステップA07)。
追尾対象か否かの判定は、追尾スコアが予め定めた閾値よりも大である動物体を追尾対象と判定することで実現する。
例えば、RA0からRA5については閾値以上、RB0が閾値以下であった場合、撮影状態変化点t1、t2、t3、t4、t5において動物体Aを追尾対象、撮影状態変化点t2において動物体Bを非追尾対象と判定する。
判定結果出力手段120は、追尾判定手段114から入力された判定結果と動物体情報を出力する。出力形式は、図14に示すように、動物体のIDと、動物体の画像データと、動物体の運動状態変化点の時刻と、判定結果を表形式で画面提示する。
あるいは、映像の全フレームに対して動物体の追尾判定結果を行った後に、全ての結果をまとめて表示する方法として以下が挙げられる。図15のように、同じ動物体IDをまとめた形式で画面提示してもよい。
あるいは、異なるIDをもった動物体の画像データを比較し、類似度が閾値以内のものについては新規に同一のIDを付与した後に、同一IDの判定結果をまとめて画面提示してもよい。
なお、動物体の画像データ間の類似判定は、画像データ間の色差分が閾値以下の場合に類似と判定する方法や、画像データから色ヒストグラムやエッジ特徴量や色分散などの画像特徴量を算出し、画像特徴量の差分が閾値以下の場合に類似と判定する方法で実現できる。また、画像データには、動物体の画像データのうち最も平均的な画像データを選択してもよい。
あるいは、追尾と判定された各動物体の画像データをテンプレートとして、入力映像から動物体の登場区間を検出し、再生する。これにより、利用者は映像の中で1回以上追尾撮影された動物体の登場する全ての映像区間を視聴できるという効果がある。
あるいは、同じ動物体の登場する区間の中から、動物体の画像データが最も大きい区間、あるいは、動物体の移動速度が最も小さい区間、あるいは、カメラワークの種類がフィックスである区間、あるいは、カメラワークの速度が最も小さい区間を選択し、選択区間を再生してもよいし選択区間の中央フレームを代表画像として提示してもよい。これにより、利用者は各追跡対象を把握しやすい映像の視聴または代表画像を確認できるという効果がある。
(第1の実施の形態による効果)
次に本実施の形態の効果について説明する。
関連技術における手法では、動物体が追尾対象であるか否かを、カメラの動きによって生じる動きベクトルとは異なる動きベクトルを持った画像領域である移動領域の分布状態によって判定する。このため、動物体の移動速度とカメラの移動速度が異なるために移動領域の分布が「まとまって定常的に存在する」特性を満たさない場合には、移動領域の集合である動物体を追尾対象と判定できなかった。
これに対し、本実施の形態では、動物体が追尾対象であるか否かの判定を、動物体の運動状態の変化時刻と撮影状態の変化時刻の差に基づいて判定する。
そのため、例えば、ショットが短いためにカメラの移動速度が動物体の移動速度と等しくなる前にショットが終わってしまう場合や、動物体が常に予測不能な動きをするために動物体の移動先を撮影者が予測できない場合や、望遠カメラで撮影する際のように追尾撮影中にカメラの移動速度が揺らぐ場合のように、動物体が画面上の一定位置に定常に存在しない場合についても、動物体の運動の変化と撮影状態が変化した時刻差に応じて追尾対象と判定できるという効果がある。
また、関連技術における手法では、動物体が追尾対象であるか否かを、映像区間の中で動物体を安定して追尾できている部分区間の割合をもとに判定するため、カメラを一定方向に動かして撮影した映像区間が終了するまで、動物体を追尾対象と判定できなかった。
これに対し、本実施の形態では、動物体が追尾対象であるか否かを、動物体の運動状態の変化時刻と撮影状態の変化時刻の差にもとづいて判定するため、カメラを一定方向に動かして撮影した映像区間が終了する前に、動物体を追尾対象と判定できるという効果がある。
(第2の実施の形態)
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。
図16を参照すると、本発明の第2の実施の形態は、本発明の第1の実施の形態に加え、追尾判定用プログラムを備える。
追尾判定用プログラム230は、データ処理装置210に読み込まれデータ処理装置210の動作を制御し、データ処理装置210内の手段によって得られた判定結果を、判定結果出力手段220に出力する。
データ処理装置210は、同一性判定用プログラム230の制御により、第1の実施の形態におけるデータ処理装置110による処理と同一の処理を実行する。
(第2の実施の形態による効果)
本実施の形態によれば、追尾対象判定を外部プログラムから実行できるという効果がある。
次に、具体的な実施例を用いて本発明の追尾対象判定装置の動作を説明する。
本実施例は、本発明の第1の実施の形態に対応するものである。本実施例では、本発明の追尾対象判定装置を、右向きに歩いていた人物Aが立ち止まり、右向きに走り出す様子を追尾撮影した映像に適用した例を示す。
(構成の説明)
図17に、入力映像の概要を示す。画面中央に存在する人物Aが時刻t0で歩き始める。人物Aは、時刻t3で立ち止まり静止した後に、t6から右方向に走り出す。
撮影者は、人物Aが動き始めたことに気づいて、時刻t1か人物Aの歩く速度と等しい速度でカメラを動かす。時刻t4で人物Aの静止に反応し、t5からカメラを逆向きに動かし、t6で人物Aをフレームの中心に捉えた後カメラを静止させる。人物Aが走りだしたことに時刻t7で反応し、カメラを加速させつつ動かしはじめ、時刻t8で人物Aを画面上に捉え、時刻t8以降は人物の走る速度と等しい速度でカメラを動かす。
図18に示すように、本実施例では、映像入力手段として映像入力端子を、データ処理装置としてパーソナル・コンピュータを、映像出力装置としてディスプレイを備えている。
パーソナル・コンピュータは、移動状態変化点検出手段と、人物撮影状態変化点検出手段と、人物追尾スコア算出手段と、人物追尾判定手段として機能する中央演算装置を有している。
(動作の説明)
今、映像入力端子から映像を構成する各フレームが入力されたものとする。
中央演算装置の移動状態変化点検出手段は、入力フレームから人物領域を検出し、人物情報として人物ID、人物領域の画像データ、人物の見かけ上の位置、人物の動きベクトル、人物の移動状態を抽出する。人物の移動状態とは、人物の動きベクトルによって定められる状態であり、各状態は動きベクトルの方向と速度によって定められる状態とする。
また、入力フレームにおいて人物の移動状態が変化した場合、移動状態変化点検出手段は、時刻と人物情報を人物追尾スコア算出手段に入力する。
人物領域の検出手段として、人物領域全体から得られる情報を利用する手法がある。例えば、様々な人物の映っている画像をテンプレートとして記憶し、入力画像とテンプレートの差分がある閾値以下のとき人物が入力画像中に存在すると判定する手法が挙げられる。
また、肌色などの色情報や、エッジの方向や密度を組み合わせたモデルをあらかじめ記憶しておき、入力フレームからモデルに類似した領域が検出された場合に人物が存在すると判定する手法が考えられる。
また、大量の人物領域画像と非人物領域画像の学習サンプルから得られた特徴量分布を統計的に学習し、入力画像から得られる特徴量が人物領域画像と非人物領域画像のどちらの分布に属するかを判定する手法として、ニューラルネットやサポートベクターマシン、Adaboost法などを利用した手法が挙げられる。
また、人物の顔情報を利用する手法がある。例えば、非特許文献2に示されるように、顔(頭部)の輪郭を楕円、目や口を細長の形状をしていることを利用して作成したテンプレートを用いて顔検出を行う手法や、頬や額の部分は輝度が高く、目や口の部分の輝度は低いという輝度分布の特性を利用して顔検出手法や、顔の対称性や肌色領域と位置を利用して顔検出を行う手法などの手法が挙げられる。
上記の例あるいは他の手法により人物の顔が検出されたときに、顔と顔の下部の一定領域を人物領域と判定する方法が考えられる。人物の検出手法として、上記の例を利用しても他の手法を適用しても構わない。
これら人物領域検出手段の関連技術については、非特許文献2に開示されている。
人物IDは、人物領域検出手段でテンプレートに基づく手法を用いた場合には、以下の手順で付与する。
まず、あらかじめ登録した様々な人物の映った画像をテンプレートとし、時刻t0の画像フレームから検出された人物領域に“人物A”と付与する。検出された人物Aの画像を新たにテンプレートとして登録し、次フレーム以降で検出された人物領域が人物Aの画像と類似する場合には、同一のID“人物A”を付与する。人物Aの画像と類似しない場合には、新たなIDを付与する。
人物領域の画像データは、人物領域検出手段によって検出された人物領域を含む矩形領域とする。
人物の見かけ上の位置は、フレーム画像における人物領域の重心座標とする。
人物領域の動きベクトルは、以下のテンプレートを用いた方法で抽出できる。
入力フレームFiから人物領域を検出し、人物領域を含む矩形領域をテンプレートとして取得する。フレームFj(j>i)に対し、フレームFi上の人物領域の重心座標を中心に一定範囲を走査して、テンプレートと類似する領域を検出し、検出された領域の重心座標を取得する。
フレームFiとFjにおけるカメラの初期状態からのパン方向およびチルト方向への旋回角度を取得し、式2に代入してフレームFiとFjにおける人物領域の重心位置の絶対的な座標をそれぞれ求め、その差をもとに人物Aの動きベクトルを算出する。
カメラの初期状態からのパン方向およびチルト方向への旋回角度は、カメラに搭載したGPSまたは角速度センサによって取得できる。
人物領域の運動状態は、過去数フレームにおいてそれぞれ検出された動きベクトルの平均値とし、平均値があらかじめ定めた閾値以上に変化した時刻を運動状態変化点として検出する。人物領域の移動状態の例を図17に示す。
入力映像の場合、移動状態変化点検出手段は、時刻t0において人物の動きベクトルuA0、時刻t3において人物の動きベクトルuA1、時刻t6において人物の動きベクトルuA2を取得する。人物Aの移動状態変化点は、時刻t0、t3、t6で検出され、各時刻において時刻および人物情報を人物追尾スコア算出手段に入力する。
人物撮影状態変化点検出手段は、入力フレームから撮影情報として、カメラモーションの動きベクトル、撮影状態を取得する。
撮影情報は、カメラに搭載された角速度センサから取得する。カメラモーションの動きベクトルの変化量が閾値以上であった時刻を撮影状態変化点として検出する。入力フレームが撮影状態変化点の場合には、撮影状態変化点の時刻と、撮影状態変化点における撮影情報を人物追尾スコア算出手段に入力し、入力フレームが撮影状態変化点でない場合には、映像入力端子から次のフレームを入力させる。
人物撮影状態変化点検出手段はカメラワークの速度として時刻t0においてvo、時刻t1においてv1、時刻t2においてv2、時刻t4においてv3、時刻t5においてv4、時刻t7においてv5、時刻t8においてv6を取得する。撮影状態の一例を図17に示す。
人物追尾スコア算出手段は、人物撮影状態変化点検出手段から撮影状態変化点の時刻が入力されると、移動状態変化点検出手段から既に入力されている移動状態変化点の時刻との間で、各人物に関する時間差を算出する。時間差をもとに人物の追尾スコアを算出し、追尾スコアと人物情報を人物追尾判定手段に入力する。
時間差は、撮影状態変化点の時刻と、人物撮影状態変化点の時刻より以前に検出された移動状態変化点のうち、撮影状態変化点の時刻から微少時間Δt後に予測される人物の絶対座標系における位置が、Δt後にフレーム画像上の点となる移動状態である移動状態変化点の時刻との間で算出する。
時間差を算出する撮影状態変化点と移動状態変化点の組み合わせを、図19を用いて説明する。
時刻t1で撮影状態変化点を検出すると、t1以前に検出された移動状態変化点t0との間で時間差を算出するかを判別する。時刻0における人物の絶対座標系における位置をQ0とすると、時刻t1+Δtにおける人物の絶対座標系における位置Q1は、Q0+(t1+Δt)*uA0で表される。
一方、時刻0におけるフレーム画像の中心をO0とすると、時刻t1+Δtにおけるフレーム画像の中心位置はO0+v1*Δtに移動する。このとき、{Q0+(t1+Δt)*uA0}={O0+v1*Δt+TH1}となるΔt(<TH2)が存在するとき、撮影状態変化点t1と移動状態変化点t0との間で時間差D0(=t1−t0)を算出する。
なお、TH1はΔt後に動物体が存在する画面中心からの距離を表し、中心に位置する場合にはTH1=0、左右の画面端に位置する場合にはTH1=Wとし、利用者が事前に設定しておく。またTH2は、動物体が追尾対象であるならば、Δt後にその追尾対象をTH1の位置で捉えるべき時間差を表す。TH1として、通常2、3秒を設定する。
入力映像においてTH1=0とすると、Q0=O0のため、Δt=uA0/(v1−uA0)となる。Δtが数秒であれば、撮影状態変化点t1と移動状態変化点t0との間で時間差を算出する。
また、時刻t2で撮影状態変化点を検出すると、t2以前に検出された移動状態変化点t0との間で時間差を算出するかを判定する。t2からΔt後の人物Aの絶対座標系における位置は、Q0+(t2+Δt)*uA0である。
一方、時刻t2+Δtにおけるフレーム画像の中心位置は、O0+(t2−t1)*v1+v2*Δtである。このとき、uA0=v2のため、{Q0+(t2+Δt)*uA0}={O0+(t2−t1)*v1+v2*Δt}は、任意のΔtで成り立つため、撮影状態変化点t2と移動状態変化点t0との間で時間差D1(=t2−t0)を算出する。
同様にして、時刻t4では時間差D2を、時刻t5では時間差D3、時刻t6では時間差D4を、時刻t8では時間差D5を算出する。
追尾スコアは、動物体の画面上での位置と速さに基づく関数G2を用いて、以下のように算出する。
時刻t1においては、撮影状態変化点t1と移動状態変化点t2との間で算出される時間差をもとに、追尾スコアR0を以下のように算出する。時刻t0において、人物Aの見かけ上の位置は画面の中心、人物の見かけ上の移動速度はuA0であるため、人物Aが画面上に捉えられなくなるまでの時間Tは、式9よりW/(2*|uA0|)である。
そこで、図9で示した関数を利用する。この関数を図20に示す。時刻t1において時間差はD0のため、人物の追尾スコアはR0(=ρ0/C’)となる。{R0、時刻t0における人物Aの移動情報}を人物追尾判定手段に入力する。
時刻t2においては、撮影状態変化点t2と移動状態変化点t1との間で算出される時間差をもとに、追尾スコアR1を以下のように算出する。時刻t0において、人物Aの見かけ上の位置は画面の中心、人物Aの見かけ上の移動速度はuA0であるため、図20に示す関数を利用する。時刻t2において時間差はD1のため、人物の追尾スコアはR1(=ρ1/C’)となる。{R1、時刻t0における人物Aの移動情報}を人物追尾判定手段に入力する。
時刻t4においては、撮影状態変化点t3と移動状態変化点t2との間で算出される時間差をもとに、追尾スコアR2を以下のように算出する。時刻t3において、人物Aの見かけ上の位置は画面の中心、人物Aの見かけ上の移動速度はーv2(=−uA0)であるため、図20に示す関数を利用する。
時刻t4において時間差は、D2のため、追尾スコアはR2(=ρ2/C’)となる。{R2、時刻t3における人物Aの移動情報}を人物追尾判定手段に入力する。
時刻t5においても同様に、時間差D3をもとに追尾スコアR3(=ρ3/C’)を算出し、{R3、時刻t3における人物Aの移動情報}を人物追尾判定手段に入力する。
時刻t7においては、撮影状態変化点7と移動状態変化点t6との間で算出した時間差をもとに、追尾スコアR4を以下のように算出する。時刻t6において、人物Aの見かけ上の位置は画面の中心、人物の見かけ上の移動速度はuA2であるため、人物が画面上に捉えられなくなるまでの時間T’は、式9よりW/(2*|uA2|)となる。
そこで、図21に示す関数を利用する。|uA2|>|uA0|よりT’<Tとなる。時刻t7において時間差はD4のため、人物の追尾スコアはR4(=ρ4/C’)となる。{R4、時刻t6における人物Aの移動情報}を人物追尾判定手段に入力する。
同様にして、時刻t8においては、時間差D5をもとに追尾スコアR5(=ρ5/C’)を算出し、{R5、時刻t6における人物Aの移動情報}を人物追尾判定手段に入力する。
人物追尾判定手段は、追尾スコアと人物情報が入力されると、追尾スコアがあらかじめ定めた閾値Rthよりも大のとき、人物Aを追尾対象と判定する。人物追尾判定手段は、追尾判定結果と人物情報をディスプレイに入力する。
ディスプレイは、人物ID、画像、登場時刻、判定結果について、映像全体の判定結果をまとめて表示する。判定結果の表示の一例を図22に示す。
画像には、全移動状態変化点における人物Aの人物情報をもとに、人物Aの移動速度が最も小さい移動状態変化における画像データを表示する。これにより、人物Aの動きによるモーションブラーがない画像を表示することができる。
登場時刻には、人物Aの全移動状態変化点の時刻をまとめて表示する。判定結果には、“追尾”と表示する。
以上好ましい実施の形態と実施例をあげて本発明を説明したが、本発明は必ずしも、上記実施の形態及び実施例に限定されるものでなく、その技術的思想の範囲内において様々に変形して実施することができる。
本発明によれば、映像に登場する追尾対象の一覧表を作成するため、追尾対象の登場する区間を特定して追尾対象を把握可能な要約映像を生成するため、あるいは、追尾対象の登場する区間から追尾対象を鮮明に映したフレームを選択することで追尾対象を把握可能な代表画群を抽出するために、映像に登場する動物体が追尾対象であるか否かを判定する、追尾対象判定装置や、追尾対象判定装置をコンピュータに実現するためのプログラムといった用途に適用できる。また、ホームビデオや素材映像において、追尾対象に基づく映像の整理や分類、編集用の映像区間の選定のための追尾対象判定装置としても利用できる。
この出願は、2009年3月31日に出願された日本出願特願2009−085963を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (39)

  1. 動物体の動きベクトルによって定められる運動状態が変化した時刻と、カメラモーションの動きベクトルによって定められる撮影状態が変化した時刻との差である時間差をもとに、前記動物体が追尾撮影する追尾対象であるかを判定する手段を備えることを特徴とする追尾対象判定装置。
  2. 動物体の動きベクトルによって定められる運動状態が変化した時刻である運動状態変化点を検出する運動状態変化点検出手段と、
    前記映像のカメラモーションの動きベクトルによって定められる撮影状態が変化した時刻である撮影状態変化点を検出する撮影状態変化点検出手段と、
    前記撮影状態変化点の時刻と前記運度状態変化点の時刻との差を前記動物体の時間差とし、前記動物体の時間差をもとに前記動物体の追尾スコアを算出する追尾スコア算出手段と、
    前記動物体の追尾スコアをもとに、前記動物体が追尾対象であるかを判定する追尾対象判定手段と
    を備えることを特徴とする請求項1に記載の追尾対象判定装置。
  3. 前記運動状態変化点検出手段は、入力フレームからカメラの操作によって生じる動きベクトルをカメラモーションの動きベクトルとして検出し、前記カメラモーションの動きベクトルと異なる動きベクトルをもつ領域である動物体の実空間上での移動速度の変化量の大きさに基づいて運動状態変化点を出することを特徴とする請求項2に記載の追尾対象判定装置。
  4. 前記撮影状態変化点検出手段は、入力フレームからカメラの操作によって生じる動きベクトルをカメラモーションの動きベクトルとして検出し、前記カメラモーションの動きベクトルの変化量の大きさに基づいて撮影状態変化点を検出することを特徴とする請求項2又は請求項3に記載の追尾対象判定装置。
  5. 前記運動状態変化点検出手段は、前記カメラモーションの動きベクトルを、カメラに搭載したGPSまたは角速度センサによって取得したカメラの位置の移動量によって算出することを特徴とする請求項3又は請求項4に記載の追尾対象判定装置。
  6. 前記カメラモーションの動きベクトルを、入力フレームの各部分領域から動きベクトルを検出し、前記動きベクトルを互いの方向と大きさの類似性によってグループ化し、最大のグループに属する動きベクトルの代表ベクトルとすることを特徴とする請求項3又は請求項4に記載の追尾対象判定装置。
  7. 前記追尾スコア算出手段は、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点との差によって時間差を算出することを特徴とする請求項2から請求項6の何れかに記載の追尾対象判定装置。
  8. 前記追尾スコア算出手段は、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点のうち最も近接の運動状態変化点の時刻との差によって、時間差を算出することを特徴とする請求項2から請求項6の何れかに記載の追尾対象判定装置。
  9. 前記追尾スコア算出手段は、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点のうち前記撮影状態変化点の撮影状態と最も類似する動物体の運動状態である運動状態変化点の時刻との差によって、時間差を算出することを特徴とする請求項2から請求項6の何れかに記載の追尾対象判定装置。
  10. 前記追尾スコア算出手段は、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点のうち撮影状態変化点の時刻から微少時間Δt後に予測される動物体の絶対座標系における位置が、Δt後にフレーム画像上の点となる運動状態である運動状態変化点の時刻との差によって、時間差を算出することを特徴とする請求項2から請求項6の何れかに記載の追尾対象判定装置。
  11. 前記追尾スコア算出手段は、前記動物体の時間差と、特定の運動状態の追尾対象を追尾撮影する際に要する時間の事前知識とをもとに、追尾スコアを算出することを特徴とすることを特徴とする請求項2から請求項10の何れかに記載の追尾対象判定装置。
  12. 前記追尾スコア算出手段は、前記動物体の時間差と、特定の大きさ、または特定の位置、または特定の速度のいずれかを含む特定の運動状態の追尾対象を追尾撮影する際に要する時間の事前知識とをもとに、追尾スコアを算出することを特徴とする請求項2から請求項10の何れかに記載の追尾対象判定装置。
  13. 前記追尾対象判定手段は、追尾スコアが所定の閾値以上の値である場合に、動物体を追尾対象と判定することを特徴とする請求項2から請求項12の何れかに記載の追尾対象判定装置。
  14. 動物体の動きベクトルによって定められる運動状態が変化した時刻と、カメラモーションの動きベクトルによって定められる撮影状態が変化した時刻との差である時間差をもとに、前記動物体が追尾撮影する追尾対象であるかを判定することを特徴とする追尾対象判定方法。
  15. 動物体の動きベクトルによって定められる運動状態が変化した時刻である運動状態変化点を検出する運動状態変化点検出ステップと、
    前記映像のカメラモーションの動きベクトルによって定められる撮影状態が変化した時刻である撮影状態変化点を検出する撮影状態変化点検出ステップと、
    前記撮影状態変化点の時刻と前記運度状態変化点の時刻との差を前記動物体の時間差とし、前記動物体の時間差をもとに前記動物体の追尾スコアを算出する追尾スコア算出ステップと、
    前記動物体の追尾スコアをもとに、前記動物体が追尾対象であるかを判定する追尾対象判定ステップと
    を含むことを特徴とする請求項14に記載の追尾対象判定方法。
  16. 前記運動状態変化点検出ステップにおいては、入力フレームからカメラの操作によって生じる動きベクトルをカメラモーションの動きベクトルとして検出し、前記カメラモーションの動きベクトルと異なる動きベクトルをもつ領域である動物体の実空間上での移動速度の変化量の大きさに基づいて運動状態変化点を出することを特徴とする請求項15に記載の追尾対象判定方法。
  17. 前記撮影状態変化点検出ステップにおいては、入力フレームからカメラの操作によって生じる動きベクトルをカメラモーションの動きベクトルとして検出し、前記カメラモーションの動きベクトルの変化量の大きさに基づいて撮影状態変化点を検出することを特徴とする請求項15又は請求項16に記載の追尾対象判定方法。
  18. 前記運動状態変化点検出ステップにおいては、前記カメラモーションの動きベクトルを、カメラに搭載したGPSまたは角速度センサによって取得したカメラの位置の移動量によって算出することを特徴とする請求項16又は請求項17に記載の追尾対象判定方法。
  19. 前記カメラモーションの動きベクトルを、入力フレームの各部分領域から動きベクトルを検出し、前記動きベクトルを互いの方向と大きさの類似性によってグループ化し、最大のグループに属する動きベクトルの代表ベクトルとすることを特徴とする請求項16又は請求項17に記載の追尾対象判定方法。
  20. 前記追尾スコア算出ステップにおいては、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点との差によって時間差を算出することを特徴とする請求項15から請求項19の何れかに記載の追尾対象判定方法。
  21. 前記追尾スコア算出ステップにおいては、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点のうち最も近接の運動状態変化点の時刻との差によって、時間差を算出することを特徴とする請求項15から請求項19の何れかに記載の追尾対象判定方法。
  22. 前記追尾スコア算出ステップにおいては、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点のうち前記撮影状態変化点の撮影状態と最も類似する動物体の運動状態である運動状態変化点の時刻との差によって、時間差を算出することを特徴とする請求項15から請求項19の何れかに記載の追尾対象判定方法。
  23. 前記追尾スコア算出ステップにおいては、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点のうち撮影状態変化点の時刻から微少時間Δt後に予測される動物体の絶対座標系における位置が、Δt後にフレーム画像上の点となる運動状態である運動状態変化点の時刻との差によって、時間差を算出することを特徴とする請求項15から請求項19の何れかに記載の追尾対象判定方法。
  24. 前記追尾スコア算出ステップにおいては、前記動物体の時間差と、特定の運動状態の追尾対象を追尾撮影する際に要する時間の事前知識とをもとに、追尾スコアを算出することを特徴とすることを特徴とする請求項15から請求項23の何れかに記載の追尾対象判定方法。
  25. 前記追尾スコア算出ステップにおいては、前記動物体の時間差と、特定の大きさ、または特定の位置、または特定の速度のいずれかを含む特定の運動状態の追尾対象を追尾撮影する際に要する時間の事前知識とをもとに、追尾スコアを算出することを特徴とする請求項15から請求項23の何れかに記載の追尾対象判定方法。
  26. 前記追尾対象判定ステップにおいては、追尾スコアが所定の閾値以上の値である場合に、動物体を追尾対象と判定することを特徴とする請求項15から請求項25の何れかに記載の追尾対象判定方法。
  27. コンピュータに、
    動物体の動きベクトルによって定められる運動状態が変化した時刻と、カメラモーションの動きベクトルによって定められる撮影状態が変化した時刻との差である時間差をもとに、前記動物体が追尾撮影する追尾対象であるかを判定する処理を、実行させることを特徴とする追尾対象判定プログラム。
  28. 前記コンピュータに、
    動物体の動きベクトルによって定められる運動状態が変化した時刻である運動状態変化点を検出する運動状態変化点検出処理と、
    前記映像のカメラモーションの動きベクトルによって定められる撮影状態が変化した時刻である撮影状態変化点を検出する撮影状態変化点検出処理と、
    前記撮影状態変化点の時刻と前記運度状態変化点の時刻との差を前記動物体の時間差とし、前記動物体の時間差をもとに前記動物体の追尾スコアを算出する追尾スコア算出処理と、
    前記動物体の追尾スコアをもとに、前記動物体が追尾対象であるかを判定する追尾対象判定処理と、を実行させることを特徴とする請求項27に記載の追尾対象判定プログラム。
  29. 前記運動状態変化点検出処理では、入力フレームからカメラの操作によって生じる動きベクトルをカメラモーションの動きベクトルとして検出し、前記カメラモーションの動きベクトルと異なる動きベクトルをもつ領域である動物体の実空間上での移動速度の変化量の大きさに基づいて運動状態変化点を出することを特徴とする請求項28に記載の追尾対象判定プログラム。
  30. 前記撮影状態変化点検出処理では、入力フレームからカメラの操作によって生じる動きベクトルをカメラモーションの動きベクトルとして検出し、前記カメラモーションの動きベクトルの変化量の大きさに基づいて撮影状態変化点を検出することを特徴とする請求項28又は請求項29に記載の追尾対象判定プログラム。
  31. 前記カメラモーションの動きベクトルを、カメラに搭載したGPSまたは角速度センサによって取得したカメラの位置の移動量によって算出することを特徴とする請求項29又は請求項30に記載の追尾対象判定プログラム。
  32. 前記カメラモーションの動きベクトルを、入力フレームの各部分領域から動きベクトルを検出し、前記動きベクトルを互いの方向と大きさの類似性によってグループ化し、最大のグループに属する動きベクトルの代表ベクトルとすることを特徴とする請求項29又は請求項30に記載の追尾対象判定プログラム。
  33. 前記追尾スコア算出処理では、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点との差によって時間差を算出することを特徴とする請求項28から請求項32の何れかに記載の追尾対象判定プログラム。
  34. 前記追尾スコア算出処理では、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点のうち最も近接の運動状態変化点の時刻との差によって、時間差を算出することを特徴とする請求項28から請求項32の何れかに記載の追尾対象判定プログラム。
  35. 前記追尾スコア算出処理では、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点のうち前記撮影状態変化点の撮影状態と最も類似する動物体の運動状態である運動状態変化点の時刻との差によって、時間差を算出することを特徴とする請求項28から請求項32の何れかに記載の追尾対象判定プログラム。
  36. 前記追尾スコア算出処理では、撮影状態変化点の時刻と、前記撮影状態変化点の時刻以前に検知した運動状態変化点のうち撮影状態変化点の時刻から微少時間Δt後に予測される動物体の絶対座標系における位置が、Δt後にフレーム画像上の点となる運動状態である運動状態変化点の時刻との差によって、時間差を算出することを特徴とする請求項28から請求項32の何れかに記載の追尾対象判定プログラム。
  37. 前記追尾スコア算出処理では、前記動物体の時間差と、特定の運動状態の追尾対象を追尾撮影する際に要する時間の事前知識とをもとに、追尾スコアを算出することを特徴とすることを特徴とする請求項28から請求項36の何れかに記載の追尾対象判定プログラム。
  38. 前記追尾スコア算出処理では、前記動物体の時間差と、特定の大きさ、または特定の位置、または特定の速度のいずれかを含む特定の運動状態の追尾対象を追尾撮影する際に要する時間の事前知識とをもとに、追尾スコアを算出することを特徴とする請求項28から請求項36の何れかに記載の追尾対象判定プログラム。
  39. 前記追尾対象判定処理では、追尾スコアが所定の閾値以上の値である場合に、動物体を追尾対象と判定することを特徴とする請求項28から請求項38の何れかに記載の追尾対象判定プログラム。
JP2011507204A 2009-03-31 2010-03-30 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム Active JP5454570B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011507204A JP5454570B2 (ja) 2009-03-31 2010-03-30 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009085963 2009-03-31
JP2009085963 2009-03-31
PCT/JP2010/055655 WO2010113929A1 (ja) 2009-03-31 2010-03-30 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム
JP2011507204A JP5454570B2 (ja) 2009-03-31 2010-03-30 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム

Publications (2)

Publication Number Publication Date
JPWO2010113929A1 JPWO2010113929A1 (ja) 2012-10-11
JP5454570B2 true JP5454570B2 (ja) 2014-03-26

Family

ID=42828219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011507204A Active JP5454570B2 (ja) 2009-03-31 2010-03-30 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム

Country Status (4)

Country Link
US (1) US8848979B2 (ja)
JP (1) JP5454570B2 (ja)
CN (1) CN102369729B (ja)
WO (1) WO2010113929A1 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3117768B1 (en) 2006-05-19 2019-11-06 The Queen's Medical Center Motion tracking system and method for real time adaptive imaging and spectroscopy
US20100278396A1 (en) * 2008-01-18 2010-11-04 Nikon Corporation Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
US9141860B2 (en) 2008-11-17 2015-09-22 Liveclips Llc Method and system for segmenting and transmitting on-demand live-action video in real-time
JP2012151796A (ja) * 2011-01-21 2012-08-09 Sony Corp 画像処理装置と画像処理方法およびプログラム
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
US8259161B1 (en) * 2012-02-06 2012-09-04 Google Inc. Method and system for automatic 3-D image creation
US20130283143A1 (en) 2012-04-24 2013-10-24 Eric David Petajan System for Annotating Media Content for Automatic Content Understanding
US9367745B2 (en) 2012-04-24 2016-06-14 Liveclips Llc System for annotating media content for automatic content understanding
KR101964861B1 (ko) * 2012-06-29 2019-04-02 삼성전자주식회사 카메라 장치 및 상기 카메라 장치에서의 물체 추적 방법
JP6242072B2 (ja) * 2012-09-27 2017-12-06 オリンパス株式会社 画像処理装置、プログラム及び画像処理装置の作動方法
JP5948200B2 (ja) 2012-09-27 2016-07-06 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
US8761448B1 (en) * 2012-12-13 2014-06-24 Intel Corporation Gesture pre-processing of video stream using a markered region
JP2014123815A (ja) * 2012-12-20 2014-07-03 Sony Corp 画像処理装置、画像処理方法及び記録媒体
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
WO2015148391A1 (en) 2014-03-24 2015-10-01 Thomas Michael Ernst Systems, methods, and devices for removing prospective motion correction from medical imaging scans
KR102152725B1 (ko) * 2014-05-29 2020-09-07 한화테크윈 주식회사 카메라 제어장치
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
JP6525545B2 (ja) * 2014-10-22 2019-06-05 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US9811732B2 (en) * 2015-03-12 2017-11-07 Qualcomm Incorporated Systems and methods for object tracking
JP6640460B2 (ja) * 2015-03-30 2020-02-05 富士フイルム株式会社 画像撮影装置、画像撮影方法、プログラムおよび記録媒体
JP6539091B2 (ja) * 2015-04-09 2019-07-03 キヤノン株式会社 撮像装置およびその制御方法
US9870620B2 (en) 2015-06-18 2018-01-16 The Johns Hopkins University Non-linear associator and motion discriminator
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US9628720B2 (en) * 2015-08-12 2017-04-18 Qualcomm Incorporated System and method to control an imaging process
CN108471943B (zh) * 2015-10-14 2021-07-13 哈佛大学校长及研究员协会 自动分类动物行为
CN105282521B (zh) * 2015-11-21 2018-09-14 浙江宇视科技有限公司 一种网络摄像机巡航中的运动检测方法及装置
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CA2998956C (en) * 2015-11-26 2023-03-21 Sportlogiq Inc. Systems and methods for object tracking and localization in videos with adaptive image representation
US10659676B2 (en) * 2015-12-08 2020-05-19 Canon Kabushiki Kaisha Method and apparatus for tracking a moving subject image based on reliability of the tracking state
JP6531689B2 (ja) * 2016-03-22 2019-06-19 株式会社デンソー 移動軌跡検出装置、移動物体検出装置、移動軌跡検出方法
CN107665495B (zh) * 2016-07-26 2021-03-16 佳能株式会社 对象跟踪方法及对象跟踪装置
JP6776719B2 (ja) * 2016-08-17 2020-10-28 富士通株式会社 移動体群検出プログラム、移動体群検出装置、及び移動体群検出方法
JP6659524B2 (ja) * 2016-11-18 2020-03-04 株式会社東芝 移動体追跡装置、表示装置および移動体追跡方法
US10863079B2 (en) 2017-07-13 2020-12-08 Canon Kabushiki Kaisha Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium
AU2017245322A1 (en) * 2017-10-10 2019-05-02 Canon Kabushiki Kaisha Method, system and apparatus for selecting frames of a video sequence
WO2019127332A1 (zh) * 2017-12-29 2019-07-04 深圳市大疆创新科技有限公司 视频数据处理方法、设备、系统及存储介质
US10594940B1 (en) * 2018-01-12 2020-03-17 Vulcan Inc. Reduction of temporal and spatial jitter in high-precision motion quantification systems
US11295139B2 (en) * 2018-02-19 2022-04-05 Intellivision Technologies Corp. Human presence detection in edge devices
US11615623B2 (en) * 2018-02-19 2023-03-28 Nortek Security & Control Llc Object detection in edge devices for barrier operation and parcel delivery
JP7198043B2 (ja) * 2018-10-30 2022-12-28 キヤノン株式会社 画像処理装置、画像処理方法
US10872400B1 (en) 2018-11-28 2020-12-22 Vulcan Inc. Spectral selection and transformation of image frames
US11044404B1 (en) 2018-11-28 2021-06-22 Vulcan Inc. High-precision detection of homogeneous object activity in a sequence of images
JP7483352B2 (ja) 2019-11-19 2024-05-15 キヤノン株式会社 撮影装置及びその制御方法並びにプログラム
CN111767782B (zh) * 2020-04-15 2022-01-11 上海摩象网络科技有限公司 一种跟踪目标确定方法、装置和手持相机

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191411A (ja) 1994-11-08 1996-07-23 Matsushita Electric Ind Co Ltd シーン判別方法および代表画像記録・表示装置
JP4366023B2 (ja) * 2001-03-16 2009-11-18 インターナショナル・ビジネス・マシーンズ・コーポレーション ビデオ・イメージの部分イメージ領域抽出方法、部分イメージ領域抽出システム、部分イメージ領域抽出のためのプログラム、抽出されたビデオ・イメージの配信方法およびコンテンツ作成方法
JP4244593B2 (ja) * 2002-08-13 2009-03-25 ソニー株式会社 オブジェクト抽出装置、オブジェクト抽出方法および画像表示装置
JP4007899B2 (ja) * 2002-11-07 2007-11-14 オリンパス株式会社 運動検出装置
US7400344B2 (en) * 2002-12-19 2008-07-15 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
JP2006012012A (ja) * 2004-06-29 2006-01-12 Matsushita Electric Ind Co Ltd イベント抽出装置及びその方法及びそのプログラム
JP4345722B2 (ja) * 2005-07-15 2009-10-14 ソニー株式会社 動体追跡制御装置、動体追跡システム、動体追跡制御方法及びプログラム
JP4687409B2 (ja) * 2005-11-11 2011-05-25 ソニー株式会社 撮像再生装置
CN101299276B (zh) * 2007-04-20 2012-08-29 Utc消防和保安美国有限公司 分布式多目标跟踪的方法和系统

Also Published As

Publication number Publication date
JPWO2010113929A1 (ja) 2012-10-11
CN102369729B (zh) 2014-11-05
CN102369729A (zh) 2012-03-07
US8848979B2 (en) 2014-09-30
US20120020524A1 (en) 2012-01-26
WO2010113929A1 (ja) 2010-10-07

Similar Documents

Publication Publication Date Title
JP5454570B2 (ja) 追尾対象判定装置、追尾対象判定方法、および追尾対象判定プログラム
Zelnik-Manor et al. Statistical analysis of dynamic actions
JP6561830B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5925068B2 (ja) 映像処理装置、映像処理方法、およびプログラム
JP4642128B2 (ja) 画像処理方法、画像処理装置及びシステム
WO2011080900A1 (ja) 移動体検出装置および移動体検出方法
TW201433162A (zh) 電子裝置及其影像選擇方法
JP2016085742A (ja) 前景画像分割方法及び前景画像分割装置
JP2007280043A (ja) 映像監視検索システム
JPWO2006025272A1 (ja) 映像分類装置、映像分類プログラム、映像検索装置、および映像検索プログラム
CN104811660A (zh) 控制装置及控制方法
JP2007131382A (ja) エレベータのかご内監視装置、及び監視プログラム
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP2006092450A (ja) 画像処置装置および画像処理方法
JP2004348303A (ja) 物体検出装置及びプログラム
JP2007134845A (ja) カメラ制御装置およびカメラ制御プログラム
JP2010231350A (ja) 人物識別装置、そのプログラム、及び、その方法
JP2012181710A (ja) オブジェクト追跡装置、方法、及びプログラム
JP5930808B2 (ja) 画像処理装置、画像処理装置の制御方法、およびプログラム
JP2008217330A (ja) 速度推定方法および速度推定プログラム
JP2020072349A (ja) 画像処理装置、画像処理方法
JP2008211534A (ja) 顔検知装置
JP2012128693A (ja) 映像処理装置、映像処理方法およびプログラム
JP2012100082A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130207

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20131010

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131223

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5454570

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150