JP4814172B2 - 代表点追跡方法 - Google Patents

代表点追跡方法 Download PDF

Info

Publication number
JP4814172B2
JP4814172B2 JP2007202841A JP2007202841A JP4814172B2 JP 4814172 B2 JP4814172 B2 JP 4814172B2 JP 2007202841 A JP2007202841 A JP 2007202841A JP 2007202841 A JP2007202841 A JP 2007202841A JP 4814172 B2 JP4814172 B2 JP 4814172B2
Authority
JP
Japan
Prior art keywords
representative point
pixel
point
estimated
representative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007202841A
Other languages
English (en)
Other versions
JP2009037518A (ja
Inventor
育生 原田
英一 細谷
晃 小野澤
静枝 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007202841A priority Critical patent/JP4814172B2/ja
Publication of JP2009037518A publication Critical patent/JP2009037518A/ja
Application granted granted Critical
Publication of JP4814172B2 publication Critical patent/JP4814172B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は計算機を利用して画像上での物体の追跡を行う代表点追跡方法に関する。
画像上での物体の追跡を行う方法は広く利用することができ、様々な提案がなされている。例えば、非特許文献1では、特定の色範囲の物体を追跡し、その位置をマウスカーソルとして利用することによって、計算機を利用するインタフェースについて述べられている。
また、動画像上で特定の条件(色など)を満たす領域を発見・追跡するために、フレーム毎に全画面を調べて条件に合致した領域をラベル付けしたり、人物の顔を追跡したりする手法について議論されている。この種の方法の一つとして、非特許文献2に開示されるように、直前のフレームにおける領域位置を起点に螺旋状に探索範囲を広げつつ、条件を満たす領域の新しい位置を検出するものがある。
また、非特許文献3では、特定の色条件を満たす領域を囲む矩形を繰り返し変形しながら適切と思われる領域に収束させることで、次フレームでの位置を求める手法が提案されている。
また、非特許文献4では画像内の特徴点集合各点に対し、次フレームでの特徴点集合各点の対応付けを行うことで集合単位の移動を検出している。
細谷,北端,佐藤,原田,野島,小野澤,"実世界とのインタラクションを可能にするミラーインタフェースの実現,"2003年信学総大,p.286,A−15−18,2003. 藤野,"ローカルらせん状ラベリング処理を用いた動物体追跡方,"1992 春季信学全大,D−378,p.7−120,1992. G. R. Bradski, "Computer Vision Face Tracking For Use in a Perceptual User Interface," Intel Technology Journal Q2 '98, pp. 1-13, 1998. M. Kolsch, M. Turk, "Fast 2D Hand Tracking with Flocks of Features and Multi-Cue Integration," IEEE Work Workshop on Real-Time Vision for Human-Computer Integration (at CVPR) 2004, July, 2004.
顔のように動きが遅く、想定されるもののサイズが画面の縦横数分の1程度のものの追跡においては、フレーム間での移動距離が少なく、次フレームで物体全体が元の位置から完全に外れる可能性も少ないため、物体の動きを考慮しない非特許文献2のような手法でも検索範囲が広がらずに済むと期待できる。しかし、より小型で移動の速い物体の追跡では、探索範囲が拡大し、追跡に要する処理量の増大につながる恐れがあった。
また、非特許文献3の手法は、形状や境界の曖昧性のある画像でも効果的に追跡することができるが、矩形の収束までの繰り返しの分だけ処理が増大することがあり、非特許文献4では、特徴点の抽出処理が必要であり、処理量は少なくない。
非特許文献1で示したようなマウスに替わってマーカのような小領域を少ない処理量で追跡するためには、物体の動き予測を実施して、物体の候補位置を求め、その周辺から探索を行うことにより効率化を図ることが有効である。
本発明は上述した従来技術の有する問題点に鑑みてなされたものであって、特定の領域の追跡を効率良く実施することのできる代表点追跡方法を実現することを目的とする。
本発明による代表点追跡方法は、動画像取得手段から取得した動画像中の指定された特定の条件である該当条件を満たす画素集合を抽出し、その画素集合の代表点の位置を追跡する方法であって、
過去n個の画像における代表点の軌跡から現在フレーム上の代表点位置を推定する代表点推定ステップと、
推定された代表点位置を利用して現在フレームにおける前記該当条件を満たす画素集合を抽出する画素集合抽出ステップと、
抽出された画素集合から現在フレームにおける代表点を決定する代表点決定ステップと、で構成され
前記代表点推定ステップが、
過去n点、つまり、現在フレームに対し、nフレーム前の画像から1フレーム前までの画像内の代表点である旧n点の軌跡から階差の集合を求める階差算出ステップと、
求められた階差の集合から推定代表点を決定する推定代表点決定ステップと、からなり、
前記階差算出ステップが、前記旧n点の座標の第1階階差(n−1個の並び)、第2階階差(n−2個の並び)、〜、第n−1階階差(1個)の全ての並びを求めるものであって、
前記推定代表点決定ステップが、フレーム間の時間が一定であるならば、n=1の場合は直前の点を推定位置とし、n=2の場合は等速度運動を仮定し、n=3の時は等加速度運動を仮定して現在位置を推定するステップであって、任意の正整数nに対して、代表点の軌跡において第n−1階階差の値が不変であることを前提として、n−1フレーム前から現在フレームまでのn点(以下、新n点という)の第n−1階階差値を前記旧n点の第n−1階階差(1個)の最後尾値と等しいと定め、さらに、前記旧n点の第n−2階階差(2個)の最後尾の値に前記新n点の第n−1階階差推定値を加えたものを前記新n点の第n−2階階差(2個)の最後尾値と推定し、以下前記旧n点の第i階階差の最後尾値に前記新n点の第i+1階階差推定値を加算して前記新n点の第i階階差(n−i個)の最後尾推定値とする処理を、iを1づつ減算しながら繰り返すことにより、全ての前記新n点の階差列最後尾推定値を求め、最後に1フレーム前の代表値座標に前記新n点の第1階階差列最後尾推定値を加算したものを現在フレームの代表点座標推定値とするものであることを特徴とする。
また、前記画素集合抽出ステップが、
推定代表点を入力とし、該推定代表点を基点としてその周辺領域の画素を現在フレーム上の辺部に向かって走査し、かつ、走査中の画素が前記該当条件を満たすか否かを検査する検査領域走査ステップと、
前記検査領域走査ステップで前記該当条件を満たす画素を発見した場合、その該当条件を満たす画素を基点として、その周辺領域の画素を走査し、かつ、走査中の画素が前記該当条件を満たすか否かを検査することにより、先の該当条件を満たす画素を含み前記該当条件を全ての画素が満たす連続した画素集合を抽出する画素領域検査ステップと
を備えるとしてもよい。
また、前記画素領域検査ステップが、前記画素集合抽出ステップの中で繰り返し検査を行う過程で、それまでの検査において前記該当条件を満たす画素集合の候補として検査した全ての画素について検査済みであることを示すデータを保持し、それ以後の繰り返しの中では同一画素に関する検査を省略する機構を含む、としてもよい。
また、前記検査領域走査ステップが、前記推定代表点を起点として、推定代表点を中心に螺旋状に検査開始点を移動して周辺領域に検査範囲を広げるように画素領域検査ステップを繰り返す、としてもよい。
また、前記代表点決定ステップが、抽出された画素集合の重心位置を代表点として出力するとしてもよい。
また、前記該当条件は、色相、明度、彩度、輝度の少なくとも1つが所定の範囲内にある、画面上の連続画素領域という条件である、としてもよい。
また、前記該当条件が、さらに、前記連続画素領域の面積が指定された下限値以上である、あるいは、所定の面積範囲内であるという条件を含む、としてもよい。
本発明のプログラムは、上記のいずれかに記載の代表点追跡方法をコンピュータに実行させる。
上記のように、本発明においては、画面上の移動物体の次の位置を推定し、移動物体の追跡に利用する手段を開発する。また、探索を効率化するために、探索済み画素をマーキングして、複数回探索を防止することにより処理効率を向上する。
本発明により、ビデオカメラなどで取得された映像の中から、特定の色などの特徴を持った領域(マーカ等の物体画像)の追跡を効率良く実施することができる。1フレームの間に、物体が画像領域サイズの数倍以上の速度で移動する場合でも、画素集合の代表点の位置を推定することで、続く画像フレームにおける領域探索の効率を向上させる効果がある。
また、効率よく探索を行うことができるため、使用するメモリ領域を低減できるので、少ないメモリリソースで実施することができる。
次に、本発明の実施例について図面を参照して説明する。図1は本発明による代表点追跡装置の一実施例の構成を示すブロック図である。
本実施例は、制御部100、ビデオカード200、メモリ300およびバス400から構成されている。制御部100は追跡処理部110および結果利用処理部120から構成され、追跡処理部110は初期位置探索部111、代表点予測部112、代表点探索部113および追跡処理制御部114から構成されている。
ビデオカード200はビデオカメラなどで取得された画像データを格納するもので、ビデオカード200、追跡処理部110、結果利用処理部120およびメモリ300はバス400を介して接続されている。
追跡処理部110は、ビデオカード200がバス300を介して追跡処理部110へ出力する画像データに示される映像より、該当条件を満たす画素集合を抽出し、その画素集合ならびにその画素集合の代表点をフレーム毎に時系列にしたがって追跡する。
ここで、該当条件とは、例えば、「色相、明度、彩度あるいは輝度などのいずれか1つが所定の範囲内にある」などの条件である。また、色相、明度、彩度あるいは輝度など範囲条件の組み合わせをすべて満たすものであってもよい。
また、画素集合とは、上記の該当条件に該当し、かつ、隣接する画素のうち、少なくとも1つが同じ条件に該当する、連続的な画素の集合である。
代表点とは、上記画素集合の位置を代表する1つの画素であり、例えば、上記画素集合の重心位置、各座標軸それぞれに対する平均位置、あるいは重み付けした重心位置などに存在する画素である。
最初に、はじめに与えられた映像フレームの中から該当条件を満たす画素集合を抽出する処理は、フレーム全体を走査して該当条件をチェックするような従来手法を用いて抽出する必要がある。
本実施例の特徴は、
・過去nフレームの代表点の位置から次に代表点が移動するであろう位置を代表点予測部112によって推定し、
・上記で推定された位置を基点として次のフレーム上にある画素集合を探索(走査)する画素集合抽出方法を用いて代表点探索部113にて、次のフレームにおける該当画素集合を抽出する、
ことにある。このような特徴により、本実施例において実行される代表点抽出方法は従来の技術に比べて効率のよい代表点抽出が可能となる。また、処理効率の向上に伴い、よりスムーズなマン・マシンインターフェースが提供できる。
追跡処理制御部114は、ビデオカード200からの映像データをメモリ300に格納し、その内容に応じて初期位置探索部111(初回のみ)または代表点探索部113を用いて代表点探索処理を行い、代表点予測部112を用いて次のフレームにおける代表点の位置を予測する。この結果は代表点追跡結果を利用した処理を行う結果利用処理部120に引き渡され、結果利用処理部120は代表点追跡結果に基づく処理を追跡処理部110の処理と並列に行う。
以下に、本実施例の全体の処理の流れをAlgol風の擬似コードによって示す。
*全体の処理フロー*
procedure TrackingFlow(n)//過去nフレームの代表点を使う(メインルーチン)
begin
0:initialize(n);//初期化(配列など)
1:GetFrame();//映像フレームをカメラから受け取る
2:p=GetInitPoint();//最初(第1フレーム)の画素集合、代表点p算出
3:for i=1,n−1 do begin//2〜nフレーム目までの代表点追跡
*第i+1フレーム目のフレームの処理を実施している*
4:r=PredictCenter(i,p);//次(第i+1)の推定代表点計算
5:GetFrame();//映像フレームをカメラから受け取る
6:p=GetCenter(r);//代表点pの探索と出力
end;
*第n+1フレーム以後は同じ処理の繰り返し*
7:while true begin//無限に繰り返す
8:r=PredictCenter(n,p);//次の推定代表点計算
9:GetFrame();//映像フレームをカメラから受け取る
10:p=GetCenter(r);//代表点pの探索と出力
end;
end;
*以下、上述フローで用いる各処理の補足説明*
*初期化*
procedure Initialize()
begin
0: フレームデータ格納領域や代表点推定手段などの初期化を行う
end;
*フレームの取得*
procedure GetFrame()
begin
0: カメラから1フレームのデータを取得して処理可能にする
end;
*最初(第1フレーム)の画素集合,代表点p算出*
procedure GetInitPoint()
begin
0: 従来法などを使って画素集合を抽出、代表点を算出する
end;
*代表点pの探索と出力*
function PredictCenter(n,p)
begin
*検出結果←p、過去nフレーム分の代表点位置を用いて処理*
0: 差分更新処理を実施;
*過去nフレーム分の代表点位置を用いて処理*
1: 推定代表点(r)計算を実施;
2: return r;
end;
*代表点pの探索と出力*
function GetCenter(r)
begin
*推定代表点←rとして処理*
0: 画素集合の抽出処理を実施;
1: 画素集合から代表点pを算出;
*必要なら過去の代表点列の移動平均等を算出*
2: 代表点を出力;//非特許文献1などのシステムで利用可能な形で出力
3: return p;
end;
図2は、上記のコードに示される本実施例の動作を示すフローチャートである。
動作が開始されると、まず、初期化が行われ(ステップS201)、フレームデータ格納領域や代表点推定手段などの初期化が行われる。続いて、ビデオカードから1フレーム分の画像が取得され、メモリ300に格納される(ステップS202)。その後、初期位置探索部111により次のフレームの最初のフレームの画素集合,代表点pの算出が行われる(ステップS203)。ここでは、従来からの方法を使って画素集合を抽出、代表点が算出される。
次に、ループ変数iを1とし(ステップS204)、使用する過去のフレーム数i、現在フレームでの代表点位置pを引数として、代表点予測部112により、次のフレームにおける代表点位置が推定される(ステップS205)。
次に、ビデオカードからあらたな1フレーム分の画像が取得される(ステップS206)。その後、代表点探索部113によりフレームの画素集合,代表点pの算出が行われる(ステップS207)。
続いて、iをi+1とし(ステップS208)、iが所定数n未満であるかが確認される(ステップS209)。iが所定数n未満である場合にはステップS205に戻る。このため、ステップS205〜S209の動作はiが所定数nになるまで、繰り返し行われることとなる。
ステップS209にてiが所定数nであることが確認された場合には、終了の指示があるかの確認が行われる(ステップS210)。終了の指示がある場合には終了とし、終了の指示が無い場合には、代表点予測部112により、次のフレームにおける代表点位置が推定され(ステップS211)、次に、ビデオカードからあらたな1フレーム分の画像が取得される(ステップS212)。その後、代表点探索部113によりフレームの画素集合,代表点pの算出が行われ(ステップS213)、ステップS210に戻る。このため、ステップS210〜S213の動作は終了の指示が行われるまで、繰り返し行われることとなる。
上記の処理の中で、ステップS205、S211で行われる次の代表点位置推定では、代表点の推定計算、および、差分更新処理が行われ、、ステップS207、S213での代表点探索では、画素集合の抽出処理が行われる。これらの技術は、本発明の根幹をなすので、以下にさらに詳細に説明する。
次の代表点位置推定
代表点の推定計算
計算原理
図3は本実施例で行われる代表点の推定計算の過程を模式的に表現した図である。
画面上の物体(画素集合)の動きを予測する手段として、静止、等速運動、或いは等加速度運動を仮定して求めることが考えられる。本発明では、この仮定を拡張し、一般的な等n−1階微分運動に基づいた動きの予測を行う手段を考案し、採用する。nは、追跡対象物体の性質に合わせて外部から入力されるパラメータとする。
本発明は、n=0の場合に静止(つまり、移動予測を行わない非特許文献1のような手段)、n=1の場合に等速度運動、n=2の場合に等加速度運動になり、n=3以上の場合に、物体を移動させる(仮想的な)力の時間変化をモデル化することになる。数フレームの間に急激な力の変化がないと仮定できるならn10程度で良い近似が得られる。以下に、等n−1階時間微係数運動に基づく次フレームにおける物体位置推定のための効率的な算法について述べる。
通常の映像では、フレームの更新は30fps程度であり、フレーム間の時間間隔Δtはほぼ一定である。このため、第iフレームにおける画素集合の代表点座標(xi,yi)のx座標の第k階差分γ(k,i)を
Figure 0004814172
と定義すると、第k階時間微係数(dk/dtki)は、
Figure 0004814172
により近似的に求めることができる(k=1,…,n−1)。
以下では、y座標については議論しないが、全く同等に扱うことができるので省略する。
次に、等第n−1階時間微係数の仮定に従って、求めた第i+1フレームにおける第n−1階微係数が、式(3)によって求めた第iフレームにおける第n−1階微係数に等しいとすると、第i+1フレームにおける第j階微係数の推定値
Figure 0004814172
は、次式で算出できる(以下、推定値を実測値と区別するために * を付けて区別する)。
Figure 0004814172
さらに、式(4)に式(3)を代入して、両辺に(Δt)jを乗じると、
Figure 0004814172
を得る(j=n−2,…,1)。最終的に、x座標の代表点推定値は、
Figure 0004814172
によって得ることができる。y座標についても同様に求められる。
式(1,2,5,6)から明らかなように、
Figure 0004814172
を求めるためには微分係数を算出する必要はなく、差分γ(・,・)のみ計算すれば良い。
差分更新処理
図3からもわかるように、第i+1フレームにおける代表点推定位置の算出には、第i−n+1フレームから第iフレームまでのn点の座標情報が必要になり、図3に示されるように計算を実施するとnの二乗に比例する計算時間とメモリが必要になるが、次に示すような実現方法により、nに比例する計算時間・メモリで算出が可能である。
しかも、第i+1フレームの推定位置の計算の際に直接必要になるのは、式(5,6)からわかるように、第iフレームの差分値、代表点位置情報のみである。また、第i+1フレームの実測値が与えられた後に、第i+2フレームの推定位置計算を実施するための必要な更新作業でも、同じく第iフレームの差分値、代表点位置情報があれば良い。
従って、常に最新の差分値、代表点位置の蓄積と推定位置計算に必要な2個のメモリ領域(各々n個の1次元のメモリ要素からなる)、及び、両メモリ領域を示す2個の変数(a,b)を用いて、推定位置計算・データ更新を実現できる。このメモリ領域を用いて次の手順で推定位置計算、更新処理を行う。
図4(a)に第iフレームの更新済時点の状態を示す。aに示されるメモリ領域に最新の差分値、代表点位置が蓄積されている。aに示される領域の値に式(5,6)を適用した結果をbの示す領域に蓄積する。結果、bの領域の先頭に推定位置
Figure 0004814172
を得る。次に、領域探索処理の結果、新しい探索結果xi+fが得られれば、更新処理を行う。
更新処理は、bの先頭要素にxi+1を上書きし、aの領域のデータとxi+1に対し、差分の定義式(1,2)を適用した結果をbの2番目以降に上書きすることで実施する。この結果、図4(b)に示されるように、bの領域に第i+1フレームにおける代表点位置・差分データが蓄積される。最後に、aとbを入れ替えることにより、図4(a)の状態(iが1増加している)に戻る。本処理のフローは、以下のようになる。
通常の処理フロー(更新→推定の順に処理する)
1. 探索結果の代表点位置xiを受け取り、bのメモリ領域の先頭(b[0])にxiを上書きする。
2. k=0からk<nの間、kを1づつ加算しながら、b[k+1]=b[k]−a[k];を繰り返す(更新処理)。
3. a,bを入れ替える。
4. b[n]=a[n];
5. k=nからk>0の間、kを1づつ減算しながら、b[k−1]=a[k−1]+b[k];を繰り返す(推定処理)。
6. b[0]を推定位置として、探索処理を実施する。
7. step 1に戻る。
以上、過去nフレームの代表点情報から現在のフレームにおける代表点の位置を推定する方法を説明した。
なお、代表点の推定処理を開始して最初のnフレームまでは、過去nフレームの情報全部は得られていない。このため、/*全体の処理フロー*/の手続きTrackingFlow(n)の中に示したように、最初の第1フレーム目は従来手法(代表点推定によらない方法)、第2〜第nフレームまでは、各々過去1個〜n−1個の代表点情報で推定処理を進める。
実際の処理上は、本節の処理におけるnの値が1からn−1の各値に変わるだけで、処理内容はまったく同じである。フレームの番号が増えるにつれ、図2のアレイの使用領域が上から下に伸びていくので、初期化において、n個分の領域を確保しておけばよい。
代表点探索
画素集合の抽出処理
求められた推定代表点位置を起点として、条件を満たす画素集合を抽出するために、画素領域抽出手法を実現する。画素領域抽出手法は、推定代表点を起点として、画面を走査するように、検査開始点を移動させながら、検査領域を含む画素集合の検出を繰り返す。
図5に、推定代表点rを起点に螺旋状に検査を進めていく走査手順と、検査開始点から広さ優先探索により、波上に条件に該当する画素集合を検出する画素領域検査手法の概要を図示する。
なお、広さ優先探索とは、条件に該当する画素が連続して形成された領域(画素集合)を探索する手法で、探索開始画素から始め探索開始画素に近い隣接画素から優先的に探索する手法である。探索開始点に最も近い画素を全て探索し終えた後、次に近い画素を探索するように探索範囲を広げることにより条件に該当する画素集合全てを重複なく探索することができる。
また、探索された画素数は画素集合の面積であり、画素数が所定の個数より多い、あるいは所定の範囲内にあることを以って、探索の成否を判断できる。さらに、探索された画素の座標値の和や最大・最小を用いて、画素集合の重心位置や画素集合の包含矩形サイズなど、代表点決定処理で必要な情報を得ることができる。
図5中の領域Aは、色条件等の画素単位での条件に該当するものの、連続領域としての面積が小さすぎて条件を満たさない領域を、また、Bは、面積条件をも満たす領域を示す。
検査領域走査手法は螺旋状に走査を進めるが、領域Aの境界点aに検査開始点が到達すると、画素領域検査手法は、広さ優先探索の結果としてAを検出し、面積を確認して条件を満たさないという結果(検査失敗)を検査領域走査手法に返す。画素領域検査手法は、広さ優先探索において、A内の各画素が条件を満たすことを確認した上でチェック済みを意味するデータを画像データ中に残し、Aの領域探索が終了した段階で面積条件に基づいて失敗を返す。
検査領域走査手法は、引き続き螺旋状探索により走査を継続する。走査の過程でA領域にも検査開始点が移動するが、チェック済みデータが入っているため、画素領域検査手法は即座に失敗を返すことができて、同一領域で広さ優先探索を繰り返す必要はなくなる。
さらに、走査がB領域の境界に達すると、画素領域検査手法は広さ優先探索により、Bを検出し、探索の成功と、Bの代表点座標(例えば重心座標)を返す。この結果、新しい代表点位置が決定される。
このようにして得られた新しい代表点位置は非特許文献1に示されるようなアプリケーションに対して情報として提供され利用される。また、新しい代表点位置は、代表点推定手法に与えられ、次の推定代表点位置の推定にも使用される。
さらに、代表点の決定については、画素集合抽出手法の中で、画素集合抽出手法によって求めた代表点の過去m個(mは入力パラメータ)の点列を記憶し、その座標の平均位置(移動平均)を算出し、その結果を代表点としてアプリケーションに与えることで、画像条件の揺らぎなどによる代表点のふら付きを抑制することも可能である。
なお、上述した制御部100、メモリ300は、キーボード、マウス、受信装置等の入力装置、CPUなどの制御装置、ROM、RAM、HDDなどの記憶装置、ディスプレイ、プリンタ、送信装置などの出力装置からなる一般的なコンピュータシステムにより構成されるものである。制御100は、ROM、RAM、HDDに格納されているプログラムにより、コンピュータシステム内に仮想的に構築されるものである。
また、ROM、RAM、HDD内に格納されるプログラムは、CD-ROM、DVD-ROM、フロッピーディスク、USBメモリなどの読み取り可能な記録媒体からこれらの入力装置を介して移入される形態やインターネットなどのネットワークを介して受信装置より移入される形態がある。本発明によるシステムはこれらのプログラムにより一般的なコンピュータシステム上に構築されるものであり、本発明にはこれらのプログラムや該プログラムを格納した記録媒体が含まれる。
本発明による代表点追跡装置の一実施例の構成を示すブロック図である。 図1に示した実施例の動作を示すフローチャートである。 本発明の実施例で行われる代表点の推定計算の過程を模式的に表現した図である。 (a)、(b)のそれぞれは本発明の実施例で行われる代表点推定及び差分更新処理を示す図である。 本発明の実施例で行われる画素集合の抽出処理を示す図である。
符号の説明
100 制御部
110追跡処理部
111 初期位置探索部
112 代表点予測部
113 代表点探索部
114 追跡処理制御部
120 結果利用処理部
200 ビデオカード
300 メモリ
400 バス

Claims (8)

  1. 動画像取得手段から取得した動画像中の指定された特定の条件である該当条件を満たす画素集合を抽出し、その画素集合の代表点の位置を追跡する方法であって、
    過去n個の画像における代表点の軌跡から現在フレーム上の代表点位置を推定する代表点推定ステップと、
    推定された代表点位置を利用して現在フレームにおける前記該当条件を満たす画素集合を抽出する画素集合抽出ステップと、
    抽出された画素集合から現在フレームにおける代表点を決定する代表点決定ステップと、で構成され
    前記代表点推定ステップが、
    過去n点、つまり、現在フレームに対し、nフレーム前の画像から1フレーム前までの画像内の代表点である旧n点の軌跡から階差の集合を求める階差算出ステップと、
    求められた階差の集合から推定代表点を決定する推定代表点決定ステップと、からなり、
    前記階差算出ステップが、前記旧n点の座標の第1階階差(n−1個の並び)、第2階階差(n−2個の並び)、〜、第n−1階階差(1個)の全ての並びを求めるものであって、
    前記推定代表点決定ステップが、フレーム間の時間が一定であるならば、n=1の場合は直前の点を推定位置とし、n=2の場合は等速度運動を仮定し、n=3の時は等加速度運動を仮定して現在位置を推定するステップであって、任意の正整数nに対して、代表点の軌跡において第n−1階階差の値が不変であることを前提として、n−1フレーム前から現在フレームまでのn点(以下、新n点という)の第n−1階階差値を前記旧n点の第n−1階階差(1個)の最後尾値と等しいと定め、さらに、前記旧n点の第n−2階階差(2個)の最後尾の値に前記新n点の第n−1階階差推定値を加えたものを前記新n点の第n−2階階差(2個)の最後尾値と推定し、以下前記旧n点の第i階階差の最後尾値に前記新n点の第i+1階階差推定値を加算して前記新n点の第i階階差(n−i個)の最後尾推定値とする処理を、iを1づつ減算しながら繰り返すことにより、全ての前記新n点の階差列最後尾推定値を求め、最後に1フレーム前の代表値座標に前記新n点の第1階階差列最後尾推定値を加算したものを現在フレームの代表点座標推定値とするものであることを特徴とする代表点追跡方法。
  2. 請求項に記載の代表点追跡方法において、
    前記画素集合抽出ステップが、
    推定代表点を入力とし、該推定代表点を基点としてその周辺領域の画素を現在フレーム上の辺部に向かって走査し、かつ、走査中の画素が前記該当条件を満たすか否かを検査する検査領域走査ステップと、
    前記検査領域走査ステップで前記該当条件を満たす画素を発見した場合、その該当条件を満たす画素を基点として、その周辺領域の画素を走査し、かつ、走査中の画素が前記該当条件を満たすか否かを検査することにより、先の該当条件を満たす画素を含み前記該当条件を全ての画素が満たす連続した画素集合を抽出する画素領域検査ステップとを備える代表点追跡方法。
  3. 請求項に記載の代表点追跡方法において、
    前記画素領域検査ステップが、前記画素集合抽出ステップの中で繰り返し検査を行う過程で、それまでの検査において前記該当条件を満たす画素集合の候補として検査した全ての画素について検査済みであることを示すデータを保持し、それ以後の繰り返しの中では同一画素に関する検査を省略する機構を含む、代表点追跡方法。
  4. 請求項に記載の代表点追跡方法において、
    前記検査領域走査ステップが、前記推定代表点を起点として、推定代表点を中心に螺旋状に検査開始点を移動して周辺領域に検査範囲を広げるように画素領域検査ステップを繰り返す、代表点追跡方法。
  5. 請求項1ないし請求項のいずれかに記載の代表点追跡方法において、
    前記代表点決定ステップが、抽出された画素集合の重心位置を代表点として出力する、代表点追跡方法。
  6. 請求項1ないし請求項のいずれかに記載の代表点追跡方法において、
    前記該当条件は、色相、明度、彩度、輝度の少なくとも1つが所定の範囲内にある、画面上の連続画素領域という条件である、代表点追跡方法。
  7. 請求項に記載の代表点追跡方法において、
    前記該当条件が、さらに、前記連続画素領域の面積が指定された下限値以上である、あるいは、所定の面積範囲内であるという条件を含む、代表点追跡方法。
  8. 請求項1ないし請求項のいずれかに記載の代表点追跡方法をコンピュータに実行させるプログラム。
JP2007202841A 2007-08-03 2007-08-03 代表点追跡方法 Expired - Fee Related JP4814172B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007202841A JP4814172B2 (ja) 2007-08-03 2007-08-03 代表点追跡方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007202841A JP4814172B2 (ja) 2007-08-03 2007-08-03 代表点追跡方法

Publications (2)

Publication Number Publication Date
JP2009037518A JP2009037518A (ja) 2009-02-19
JP4814172B2 true JP4814172B2 (ja) 2011-11-16

Family

ID=40439345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007202841A Expired - Fee Related JP4814172B2 (ja) 2007-08-03 2007-08-03 代表点追跡方法

Country Status (1)

Country Link
JP (1) JP4814172B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5771778B2 (ja) * 2010-06-30 2015-09-02 パナソニックIpマネジメント株式会社 監視装置、プログラム
JP7105370B2 (ja) 2019-03-28 2022-07-22 オリンパス株式会社 トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法
WO2020194663A1 (ja) * 2019-03-28 2020-10-01 オリンパス株式会社 トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006654A (ja) * 2001-06-20 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> 動画像における移動体の特徴量抽出方法と自動追跡方法及びそれらの装置、並びに、それらの方法の実行プログラムとこの実行プログラムを記録した記録媒体

Also Published As

Publication number Publication date
JP2009037518A (ja) 2009-02-19

Similar Documents

Publication Publication Date Title
US10672131B2 (en) Control method, non-transitory computer-readable storage medium, and control apparatus
CN109284670B (zh) 一种基于多尺度注意力机制的行人检测方法及装置
EP2265023B1 (en) Subject tracking device and subject tracking method
EP0977151B1 (en) Image processing apparatus, image processing method, and storage medium
US8542928B2 (en) Information processing apparatus and control method therefor
US20130238295A1 (en) Method and apparatus for pose recognition
KR20050089266A (ko) 스테레오 카메라를 이용한 사람 검출 방법 및 장치
JP2010086482A (ja) 画像認識装置および画像認識方法
JP2011243200A (ja) コンテンツをアンカリングしかつデータを抽出するための画像テンプレートの学習方法
TWI514172B (zh) An animation search device, an animation search method, a recording medium, and a program
JP2023549036A (ja) 点群からの効率的な三次元物体検出
JP4814172B2 (ja) 代表点追跡方法
KR20230009641A (ko) 구조물의 균열 탐지 방법
JP4692969B2 (ja) 特徴点探索装置、画像解析装置、および最近傍特徴点検出方法
JP2010039617A (ja) 対象物追跡装置及びプログラム
Awadallah et al. Automated multiclass structural damage detection and quantification using augmented reality
Lee et al. Hierarchical active shape model with motion prediction for real-time tracking of non-rigid objects
KR101470367B1 (ko) 이중층 파티클 필터를 이용한 다중 객체 검출 및 추적 장치와 그 방법
JP2018180646A (ja) 物体候補領域推定装置、物体候補領域推定方法、及び物体候補領域推定プログラム
Ding et al. Object as distribution
US11875518B2 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
CN115375742A (zh) 生成深度图像的方法及系统
KR101373397B1 (ko) 증강현실의 호모그래피 정확도 향상을 위한 csp 기반의 ransac 샘플링 방법
Chen et al. Estimating dense optical flow of objects for autonomous vehicles
US20240135552A1 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110810

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110825

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140902

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees