JP3630569B2 - 映像領域追跡方法および装置 - Google Patents
映像領域追跡方法および装置 Download PDFInfo
- Publication number
- JP3630569B2 JP3630569B2 JP30260498A JP30260498A JP3630569B2 JP 3630569 B2 JP3630569 B2 JP 3630569B2 JP 30260498 A JP30260498 A JP 30260498A JP 30260498 A JP30260498 A JP 30260498A JP 3630569 B2 JP3630569 B2 JP 3630569B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- block
- image
- area
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【発明の属する技術分野】
本発明は、映像中の指定物体の領域を追跡する方法及び装置に関する。特に、ハイパーメディアのように動画像中の登場物体に関連情報を付与する際に、関連させたい動画像中の領域を指定する際に用いられる物体追跡装置を提供する。また、監視画像中で関心のある物体の画像中における位置をモニタする際の物体追跡装置を提供する。
【0002】
【従来の技術】
ハイパーメディアと呼ばれるメディアでは、文字や画像、そして画像中の物体などに対して関連情報をリンクしておき、簡単にこれら関連情報へのアクセスができるようになっている。しかしながら、ハイパーメディアを製作する段階においては、関連情報のリンク作業が必要となるため、従来とは比較にならないほど負荷が大きくなっている。
【0003】
関連情報がリンクされている文字や画像、画像中の物体などをアンカーと呼ぶ。文字や画像をアンカーとする場合のアンカー設定作業はさほど大きなものではないが、動画像中の物体、特に画像中で移動する物体にアンカーを設定する場合には、制作者の負荷は非常に大きい。例えば、特開平4−163589号公報に記載された方法では、動画像に10秒間映っている物体にアンカーを設定する場合、NTSC画像では1秒間に30枚の静止画像があるため、300枚の画像に対して物体の映っている領域を指定しなければならない。
【0004】
一方、特開平9−322155号公報に記載された技術は、映像監視装置を目的としたものであるが、移動物体の追跡に関してはハイパーメディア制作時における動画像中の移動する物体のアンカー設定作業の省力化に利用できる。すなわち、アンカー対象の物体に複数のテンプレートを設け、テンプレートマッチングにより他の画像におけるテンプレートの移動先を検出し、その結果から物体の移動先を自動的に設定できる。物体中に複数のテンプレートを設けているので大きさの変化にも対応可能である。このような方法を用いれば、ハイパーメディア制作者ははじめに1度だけアンカー領域を指定すれば、後に続く画像には自動的にアンカーが設定され、作業の負荷が大幅に軽減される。
【0005】
【発明が解決しようとする課題】
物体の追跡処理は一般に時間がかかるため、追跡処理中に制作者を待たせることになり、制作に時間がかかるという問題がある。これを避けるためにはハードウェア化する他なく、装置が高価になってしまう。すなわち、一般の計算機上で高速に動作することのできる物体の追跡処理が必要であった。
【0006】
また、物体の追跡能力が低ければ、何度も物体の領域を指定し直さなければならないため、制作者の負荷は依然として大きいままになってしまうため、追跡性能の向上が必要であった。
【0007】
【課題を解決するための手段】
前述の問題を解決するために、本発明では、時系列に入力される画像系列に対し、初期画像の追跡領域を指定する工程と、指定された追跡領域を複数の小領域に分割する工程と、前記追跡領域及び分割された複数の小領域毎に信頼度を算出する工程と、前記追跡領域及び分割された複数の小領域毎に算出された信頼度に基づいて追跡ブロックサイズ及び追跡すべきブロックを選択する工程と、当該選択された追跡ブロックと次画像との間のブロックマッチングを行ない、当該追跡ブロックの移動先を計算する工程と、当該追跡ブロックの移動先の位置から当該追跡領域の移動パラメータを推定する工程とを有することを特徴とする映像領域追跡方法を提供する。
【0008】
また本発明の映像領域追跡方法においては、前記信頼度を算出する工程は、前記追跡領域及び分割された複数の小領域毎にブロックの非類似度を算出することを特徴とする。
【0009】
また本発明の映像領域追跡方法においては、前記推定された移動パラメータに基づいて追跡ブロックの位置を更新する工程と、当該更新された追跡ブロックと次々画像との間のブロックマッチングを行ない、当該更新された追跡ブロックの移動先を計算する工程と、当該追跡ブロックの移動先の位置から当該追跡領域の移動パラメータを推定する工程とを有することを特徴とする。
【0010】
また本発明では、時系列に入力される画像系列に対し、初期画像の追跡領域を指定する手段と、指定された追跡領域を複数の小領域に分割する手段と、前記追跡領域及び分割された複数の小領域毎に信頼度を算出すると、前記追跡領域及び分割された複数の小領域毎に算出された信頼度に基づいて追跡ブロックサイズ及び追跡すべきブロックを選択する手段と、当該選択された追跡ブロックと次画像との間のブロックマッチングを行ない、当該追跡ブロックの移動先を計算する手段と、当該追跡ブロックの移動先の位置から当該追跡領域の移動パラメータを推定する手段とを有することを特徴とする映像領域追跡装置を提供する。
【0011】
また本発明の映像領域追跡装置においては、前記信頼度を算出する手段は、前記追跡領域及び分割された複数の小領域毎にブロックの非類似度を算出することを特徴とする。また本発明の映像領域追跡装置においては、前記推定された移動パラメータに基づいて追跡ブロックの位置を更新する手段と、当該更新された追跡ブロックと次々画像との間のブロックマッチングを行ない、当該更新された追跡ブロックの移動先を計算する手段と、当該追跡ブロックの移動先の位置から当該追跡領域の移動パラメータを推定する手段とを有することを特徴とする。
【0012】
【発明の実施の形態】
本発明の実施形態を、図面を参照しつつ詳細に説明する。
図1は、本発明の一実施形態に係る処理の流れを示す流れ図である。この流れ図に従って、処理の概要を説明する。
【0013】
まず、初期画像の入力が行われる(ステップ10)。この初期画像の入力は、ハイパーメディアオーサリングのように関連情報のアンカー領域を指定するような場合には、ユーザがグラフィカル・ユーザ・インタフェース(GUI)を用いて指定する。また、監視などの場合には、侵入物体を検出した時点が初期画像とされる。侵入物体の検出には、様々な方法があるが、最も簡単な方法は、連続して入力される画像の画素間の絶対値差分の総和が大きくなったところを検出点とする方法である。
【0014】
次に、初期画像内の追跡領域の指定を行う(ステップ11)。ハイパーメディア・オーサリングにおいては、この処理もやはりGUIを用いてユーザ自身が指定する。その指定方法は、画像中の追跡したい物体を矩形で囲んだり、多角形の各点を順に指定する方法などがある。一方、監視の場合には、輝度・色変化の大きな画素をしきい値処理で検出し、それら検出された画素が隣接している場合に統合する処理を繰り返すことにより侵入物体の領域を検出し、追跡領域とする。このとき、小さな領域は取り除いたり、検出領域に対して輝度・色が類似した隣接画素を追跡領域に取り込むことにより、より正確な追跡領域を得ることが可能である。
【0015】
次に、ステップ11において指定された追跡領域をブロックに分割し、その中のいくつかのブロックのみを実際に追跡する追跡ブロックとして選ぶ(ステップ12)。このときの追跡ブロックのブロックサイズは固定ではなく、数種類のサイズのブロックが選択される。図4は、追跡領域内をブロック分割した例である。40は追跡対象となっている物体、41は指定された追跡領域、そして42はブロックである。図5は、図4において作られたブロックを必要に応じて分割し、数種類のサイズのブロックとした例である。51は分割する必要のなかったブロック、52は分割されたブロックである。図6は、図5の複数のブロックのうち、追跡対象として選択された追跡ブロックの例を表したものである。60が追跡物体、61が追跡ブロックである。
【0016】
次は、後の処理であるブロックマッチングが精度良く行えるようにブロックごとに適したサイズを選択する処理が行われる(ステップ12)が、詳細な説明は後で行う。
【0017】
次は、次画像の入力である(ステップ13)。現在処理中の画像の次の画像が入力される。このときの画像入力は、処理能力や目標とする追跡精度に応じて適当に間引いても構わない。例えば、30フレーム/秒の画像が得られる場合に、処理が追いつかないため、1/2に間引いて2枚に1枚のみを処理対象としたりしても良い。ただし、追跡対象の物体の画像中の動きが大きい場合には、あまり間引きを多くすると追跡精度が極端に悪くなるので、避けなければならない。
【0018】
次に、各追跡ブロックごとに次画像との間でブロックマッチングを行い、追跡ブロックの移動先を計算する(ステップ14)。図7は、ブロックマッチングを行った例を示している。図中で、70は現画像、71は次画像である。また、72はもとのブロックの位置であり、73はブロックマッチングにより計算された次画像での同ブロックの移動先である。74はブロックマッチングにおけるブロックの移動先の探索範囲を示している。ブロックマッチングでは2つの画像間の非類似度(相関値)を尺度として最も非類似度の低い位置に移動したと推定するが、この非類似度の尺度としては、画素ごとの輝度や色の絶対値差分の総和や、画素ごとの輝度や色の差分の2乗和などを用いる。
【0019】
図8は、各追跡ブロックごとに現画像と次画像との間でブロックマッチングを実行した結果得られた移動先の例である。ブロックマッチングは簡単に実装が可能であるという反面、外れ値を生じやすいという欠点がある。従って、追跡物体の移動・変型モデルをあらかじめ用意しておき、各追跡ブロックの移動先の分布からモデルにあった移動・変形を推定する方が正確な追跡ができる。
【0020】
次に、各追跡ブロックごとのブロックマッチングの結果から、モデルを記述するパラメータを推定する(ステップ15)。追跡物体の移動・変型モデルとしては、未知パラメータ数が2の最も簡単な平行移動モデル、未知パラメータ数6のアフィン変換モデル、そして未知パラメータ数8の射影変換モデルなどがある。
【0021】
平行移動モデルでは、未知のパラメータベクトルを(t1,t2)とし、また、ブロックiの位置座標を(xi,yi)、そのブロックマッチングの結果を(x’i,y’i)としたとき、誤差は
ei=(x’i,y’i)−(xi,yi)−(t1,t2)
となる。誤差の2乗和を最小にする最小二乗法によれば、この解を容易に得ることができる。
【0022】
また、アフィン変換モデルでは、未知のパラメータベクトルを(a1,a2,a3,a4,a5,a6)とすると、誤差ベクトルは
ei=(x’i−a1*xi−a2*yi−a3,y’i−a4*xi−a5*yi−a6)
となるので、平行移動モデルの時と同様に誤差の2乗和を最小にする最小二乗法で解を得られる。
【0023】
次に、このようにして設定されたモデルの未知パラメータを推定する(ステップ15)。
そして、ステップ15において推定された追跡物体の移動・変形パラメータを用いて、各ブロックの位置を更新する(ステップ16)。例えば、平行移動モデルではセルiを(xi+t1,yi+t2)に更新し、アフィン変換モデルでは( a1*xi+a2*yi+a3,a4*xi+a5*yi+a6)に更新する。これらの位置は、次画像におけるブロックの最終的な位置となる。
【0024】
図9は、ステップ16によって更新されたブロック位置の例である。90は現画像における追跡物体の位置、91は次画像における追跡物体の位置、92は更新されたブロックである。
【0025】
なお、このブロックの更新を選択的に行うことも可能である。すなわち、追跡物体の移動・変形パラメータを推定した際に、パラメータの信頼度を同時に算出し、この信頼度が高いときにのみテンプレートの更新処理を行う。このように選択的に更新を行うと、一時的に追跡物体が他の物体により隠れてしまっても(オクルージョン)追跡を続けることが可能になる。なお、最小二乗法を用いて変形・移動パラメータを推定する際には、パラメータの信頼度の算出として推定誤差から見積もるパラメータの分散を利用することができる。
【0026】
次に、追跡処理の続行または終了を判定する(ステップ17)。ユーザによる追跡処理終了が指定されているか否か、次の画像が得られるか否か、追跡結果が信頼できるか否か、追跡物体が十分な大きさを保っているか否かなどにより、判定がなされる。追跡処理が続行される場合には、更新された追跡ブロック位置を新たな追跡の初期値として、ステップ13からの処理を繰り返し行う。以上が本発明の一実施形態における追跡処理全体の流れの説明である。
【0027】
次に、図1におけるステップ12のより詳細な説明を行う。
図2は、ステップ12に示した処理の流れを示す流れ図である。ステップ12はブロックマッチングの信頼性向上のために適当なブロックサイズを決定し、さらに、計算量を減らして高速処理を可能にするために信頼性の高いブロックのみを追跡ブロックとして選択する処理を行う。
【0028】
ステップ20では、ステップ11において指定された追跡領域内に、ブロックを配置する処理を行う。このときのブロックのサイズは、あらかじめ決められたブロックの最大サイズとする。図4は、追跡領域内にブロックを配置した例である。ステップ20ではさらに、配置した最大サイズのブロック全てに分割可能ラベルを付与しておく。分割可能ラベルは、ブロックをより小さなサイズのブロックに分割する可能性があることを示すラベルである。
【0029】
次のステップ21では、追跡ブロックから分割可能ラベルのついたものを一つ取り出し、これをブロックiとする。まず、ブロックiの信頼性Liを計算する。ここで用いる信頼性の算出方法については、後述する。そして、ブロックiを4分割して得られる4つの小ブロックをi1,i2,i3,i4とし、それぞれについて信頼性Li1,Li2,Li3,Li4を計算する。そして4つの小ブロックの信頼性の最大値を求め、これを小ブロックの信頼性Si=max(Li1,Li2,Li3,Li4)とする。
【0030】
ステップ22では、処理21で算出された二つの信頼性LiとSiとを比較し、もしもSiがLi以上であればステップ23へ処理を進める。すなわち、ブロックiの4分割を実行する。他方、SiがLiよりも小さければ、分割により信頼性の向上が見込めないのでブロックの分割は取りやめ、ステップ24においてブロックiから分割可能ラベルが取り去られる。ブロックiはこれ以上分割されることがないので、ブロックサイズが決定する。
【0031】
ステップ22においてブロックの分割が選択され、ステップ23において分割が実行された場合には、次のステップ25において小ブロックi1〜i4があらかじめ決められた最小サイズのブロックであるかどうかを判定する。小ブロックが最小サイズでない場合のみ、ステップ26においてその小ブロックに分割可能ラベルが付与される。
【0032】
次に、ステップ27で処理続行か終了かを判定する。分割可能ラベルがついたブロックが残っていれば、再びステップ21からの処理を行う。もし分割可能ラベルが付いたブロックがもう残っていなければ、全ての追跡ブロックのサイズが決定したことになり、処理を終了する。以上がステップ12の詳細な説明である。
【0033】
最後に各追跡ブロックの信頼性の算出方法について説明する。
図3は、ブロックの信頼性を算出する処理の流れを示した流れ図である。まず、ステップ30においては、初期画像内でブロックの位置を(u,v)だけずらした位置でのブロックの非類似度D(u,v)を計算する。D(u,v)は前述したように画素ごとの輝度や色の絶対値差分の総和や、画素ごとの輝度や色の差分の2乗和などを用いる。このとき、非類似度D(u,v)を算出する範囲は、ブロックの大きさに応じてあらかじめ決められた値Wにより、―W≦u,v≦Wと定める。図10は算出されたD(u,v)の例を示している。図中、100は初期画像、101は信頼性算出対象となっているブロック、102はブロックを(u,v)だけずらした位置、103は―W≦u,v≦Wにより定まる画像領域である。104は領域103において算出された非類似度の分布を表している。
【0034】
ステップ31では、ステップ30において算出されたD(u,v)の分布を用いて2行2列の行列Rを算出する。RはD(u,v)の(0,0)付近での曲率として計算される。ただし、ブロックの大きさが異なるものどうしを比較できるよう、ブロック内の画素数Mの2乗根でD(u,v)を除してから曲率を算出する。曲率は2次微分フィルタにより求められる。D(u,v)は一つの画像内でブロックマッチングを行い、算出されるものである。よって、この処理は追跡領域指定後直ちに実行することができるため、初期処理の時間短縮が可能である。
【0035】
ステップ32では、処理31で算出された行列Rから信頼度rを計算する。この方法としては、Rから算出される様々なものが利用可能である。例えばRの行列式r=det(R)とする方法、Rの二つの固有値λ1,λ2を算出し、このうちの最小値r=min(λ1,λ2)とする方法、固有値の和r=λ1+λ2とする方法などがある。以上により算出されたブロックの信頼度は、ブロックマッチングを行って得られる移動量の信頼性の一つの予測値となる。
【0036】
【発明の効果】
本発明の映像領域追跡方法および装置により、初期画像の追跡対象として指定された領域を複数の小領域に分割し、小領域ごとに他時刻の画像とブロックマッチングを行う処理を行い、小領域ごとに大きさを選択することにより追跡能力の向上が図れ、さらに個々に選択された大きさを有する小領域からブロックマッチングを行う小領域を選択することにより処理時間を短縮することができる。
また、本発明の動画像の領域追跡方法および装置により、小領域ごとに大きさを選択する際に、小領域と小領域を含む画像との間でブロックマッチングを行い、ブロックマッチングの際に算出された類似度または非類似度の分布から小領域の信頼度を算出し、また、小領域をさらに小さな領域に分割した際の分割後の領域の信頼度を同一画像内のブロックマッチングで算出された類似度または非類似度の分布から算出し、小領域の信頼度と分割後の信頼度との比較により分割を行うか否かを判定することにより、追跡処理前に小領域の選択ができるため、追跡処理の初期処理にかかる時間を短縮できる。
さらにまた、本発明の動画像の領域追跡方法および装置により、追跡領域を小領域に分割し、以後入力される画像においてブロックマッチングの処理対象となる小領域を選択する処理を追跡領域の指定された初期画像においてのみ行うことで、追跡時の処理時間を短縮することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態である追跡処理の流れ図。
【図2】図1におけるステップ12の詳細を説明する流れ図。
【図3】追跡ブロックの信頼性の算出方法を示す流れ図。
【図4】追跡領域をブロックに分割した例を示す図。
【図5】数種のブロックサイズに分割されたブロックの例を示す図。
【図6】追跡ブロックの選択例を示す図。
【図7】追跡ブロックのブロックマッチングの例を示す図。
【図8】ブロックマッチングにより得られた追跡ブロックの移動先の例を示す図。
【図9】追跡ブロックの更新例を示す図。
【図10】初期画像内でのブロックの非類似度の算出結果の例を示す図。
【符号の説明】
40,50,60 追跡対象物体
41 追跡領域
42,51,52,61、92,101 ブロック
70 現画像
71 次画像
90 現画像における追跡物体の位置
91 次画像における追跡物体の位置
100 初期画像
102 ブロックを(u,v)だけずらした位置
103 ―W≦u,v≦Wにより定まる画像領域
104 領域103において算出された非類似度の分布
Claims (6)
- 時系列に入力される画像系列に対し、初期画像の追跡領域を指定する工程と、
指定された追跡領域を複数の小領域に分割する工程と、
前記追跡領域及び分割された複数の小領域毎に信頼度を算出する工程と、
前記追跡領域及び分割された複数の小領域毎に算出された信頼度に基づいて追跡ブロックサイズ及び追跡すべきブロックを選択する工程と、
当該選択された追跡ブロックと次画像との間のブロックマッチングを行ない、当該追跡ブロックの移動先を計算する工程と、
当該追跡ブロックの移動先の位置から当該追跡領域の移動パラメータを推定する工程とを有することを特徴とする映像領域追跡方法。 - 前記信頼度を算出する工程は、前記追跡領域及び分割された複数の小領域毎にブロックの非類似度を算出することを特徴とする請求項1記載の映像領域追跡方法。
- 前記推定された移動パラメータに基づいて追跡ブロックの位置を更新する工程と、
当該更新された追跡ブロックと次々画像との間のブロックマッチングを行ない、当該更新された追跡ブロックの移動先を計算する工程と、
当該追跡ブロックの移動先の位置から当該追跡領域の移動パラメータを推定する工程とを有することを特徴とする請求項1または2記載の映像領域追跡方法。 - 時系列に入力される画像系列に対し、初期画像の追跡領域を指定する手段と、
指定された追跡領域を複数の小領域に分割する手段と、
前記追跡領域及び分割された複数の小領域毎に信頼度を算出すると、
前記追跡領域及び分割された複数の小領域毎に算出された信頼度に基づいて追跡ブロックサイズ及び追跡すべきブロックを選択する手段と、
当該選択された追跡ブロックと次画像との間のブロックマッチングを行ない、当該追跡ブロックの移動先を計算する手段と、
当該追跡ブロックの移動先の位置から当該追跡領域の移動パラメータを推定する手段とを有することを特徴とする映像領域追跡装置。 - 前記信頼度を算出する手段は、前記追跡領域及び分割された複数の小領域毎にブロックの非類似度を算出することを特徴とする請求項4記載の映像領域追跡装置。
- 前記推定された移動パラメータに基づいて追跡ブロックの位置を更新する手段と、
当該更新された追跡ブロックと次々画像との間のブロックマッチングを行ない、当該更新された追跡ブロックの移動先を計算する手段と、
当該追跡ブロックの移動先の位置から当該追跡領域の移動パラメータを推定する手段とを有することを特徴とする請求項4または5記載の映像領域追跡装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30260498A JP3630569B2 (ja) | 1998-10-23 | 1998-10-23 | 映像領域追跡方法および装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP30260498A JP3630569B2 (ja) | 1998-10-23 | 1998-10-23 | 映像領域追跡方法および装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004331615A Division JP2005063464A (ja) | 2004-11-16 | 2004-11-16 | 映像領域追跡方法および装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000132691A JP2000132691A (ja) | 2000-05-12 |
JP3630569B2 true JP3630569B2 (ja) | 2005-03-16 |
Family
ID=17910990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP30260498A Expired - Fee Related JP3630569B2 (ja) | 1998-10-23 | 1998-10-23 | 映像領域追跡方法および装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3630569B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002298141A (ja) | 2001-03-29 | 2002-10-11 | Nec Corp | パターン照合装置とそのパターン照合方法、及びパターン照合プログラム |
JP3677253B2 (ja) * | 2002-03-26 | 2005-07-27 | 株式会社東芝 | 映像編集方法及びプログラム |
EP2030152A1 (en) * | 2006-06-16 | 2009-03-04 | BAE Systems PLC | Improvements relating to target tracking |
JP5279653B2 (ja) * | 2009-08-06 | 2013-09-04 | キヤノン株式会社 | 画像追尾装置、画像追尾方法、及びコンピュータプログラム |
EP2345998B1 (en) * | 2009-12-01 | 2019-11-20 | Honda Research Institute Europe GmbH | Multi-object tracking with a knowledge-based, autonomous adaptation of the tracking modeling level |
EP2523161A1 (en) | 2010-01-08 | 2012-11-14 | Nec Corporation | Similarity degree calculation device, similarity degree calculation method, and program |
KR102472767B1 (ko) | 2017-09-14 | 2022-12-01 | 삼성전자주식회사 | 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치 |
-
1998
- 1998-10-23 JP JP30260498A patent/JP3630569B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000132691A (ja) | 2000-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8289402B2 (en) | Image processing apparatus, image pickup apparatus and image processing method including image stabilization | |
JP4564634B2 (ja) | 画像処理方法及び装置並びに記憶媒体 | |
JP2001043376A (ja) | 画像抽出方法及び装置並びに記憶媒体 | |
JP2004525472A (ja) | 分割ユニット、その方法、及び画像処理装置 | |
US10249046B2 (en) | Method and apparatus for object tracking and segmentation via background tracking | |
CN111709980A (zh) | 基于深度学习的多尺度图像配准方法和装置 | |
CN109389156B (zh) | 一种图像定位模型的训练方法、装置及图像定位方法 | |
CN111461036B (zh) | 一种利用背景建模增强数据的实时行人检测方法 | |
JP4407985B2 (ja) | 画像処理方法及び装置並びに記憶媒体 | |
JP3630569B2 (ja) | 映像領域追跡方法および装置 | |
CN112560704B (zh) | 一种多特征融合的视觉识别方法及系统 | |
CN111882546A (zh) | 基于弱监督学习的三分支卷积网络织物疵点检测方法 | |
CN112614184A (zh) | 基于2d检测的物体6d姿态估计方法、装置及计算机设备 | |
CN116266387A (zh) | 基于重参数化残差结构和坐标注意力机制的yolov4的图像识别算法及系统 | |
JP2000216979A (ja) | 画像抽出方法及び装置並びに記憶媒体 | |
JP2005063464A (ja) | 映像領域追跡方法および装置 | |
KR100312427B1 (ko) | 비디오 영상에서 템플레이트와 칼만 필터를 이용한 이동물체 추적방법 및 장치 | |
JP2002133423A (ja) | 顔画像データベース新規登録装置および記録媒体 | |
JP2002117409A (ja) | 画像処理方法及びその装置 | |
Xing et al. | An improved algorithm on image stitching based on SIFT features | |
JP2000132692A (ja) | 曲線の特徴点抽出方法及びこの方法を記録した記録媒体 | |
JPH11120351A (ja) | 画像マッチング装置および画像マッチングプログラムを格納する記憶媒体 | |
JP3569391B2 (ja) | 文字出現フレーム抽出装置 | |
CN117221466B (zh) | 基于网格变换的视频拼接方法及系统 | |
JPH08329253A (ja) | エッジ検出方法及びエッジ検出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040917 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041210 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041214 |
|
LAPS | Cancellation because of no payment of annual fees |