JP2000132691A - Method and device for tracking video area - Google Patents

Method and device for tracking video area

Info

Publication number
JP2000132691A
JP2000132691A JP10302604A JP30260498A JP2000132691A JP 2000132691 A JP2000132691 A JP 2000132691A JP 10302604 A JP10302604 A JP 10302604A JP 30260498 A JP30260498 A JP 30260498A JP 2000132691 A JP2000132691 A JP 2000132691A
Authority
JP
Japan
Prior art keywords
area
tracking
small
image
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10302604A
Other languages
Japanese (ja)
Other versions
JP3630569B2 (en
Inventor
Toshimitsu Kaneko
敏充 金子
Osamu Hori
修 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP30260498A priority Critical patent/JP3630569B2/en
Publication of JP2000132691A publication Critical patent/JP2000132691A/en
Application granted granted Critical
Publication of JP3630569B2 publication Critical patent/JP3630569B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a method and a device that is capable of realizing the improvement of the tracking processing of an object which can act on a general computer at a high speed and also the improvement of the tracking ability of the object. SOLUTION: The video area tracking method and device are the ones where the tracking area of an initial picture is designated against a time-sequentially inputted picture group (S11), the area is divided into plural small areas, a travelling destination detecting processing at every small area is executed by utilizing the correlation of the picture group between the small areas and the picture including them, a largeness is selected at every small area, the small area where the processing for detecting the travelling destination of the small areas in the picture in another time is selected among the ones provided with an individually selected largeness.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、映像中の指定物体
の領域を追跡する方法及び装置に関する。特に、ハイパ
ーメディアのように動画像中の登場物体に関連情報を付
与する際に、関連させたい動画像中の領域を指定する際
に用いられる物体追跡装置を提供する。また、監視画像
中で関心のある物体の画像中における位置をモニタする
際の物体追跡装置を提供する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and an apparatus for tracking an area of a specified object in an image. In particular, the present invention provides an object tracking device used when specifying an area in a moving image to be related when giving related information to an appearing object in the moving image like hypermedia. Also, an object tracking device for monitoring the position of an object of interest in a monitoring image in the image is provided.

【0002】[0002]

【従来の技術】ハイパーメディアと呼ばれるメディアで
は、文字や画像、そして画像中の物体などに対して関連
情報をリンクしておき、簡単にこれら関連情報へのアク
セスができるようになっている。しかしながら、ハイパ
ーメディアを製作する段階においては、関連情報のリン
ク作業が必要となるため、従来とは比較にならないほど
負荷が大きくなっている。
2. Description of the Related Art In a medium called hypermedia, related information is linked to characters, images, and objects in the image, and the related information can be easily accessed. However, at the stage of producing the hypermedia, a link operation of the related information is required, so that the load is so great as to be compared with the related art.

【0003】関連情報がリンクされている文字や画像、
画像中の物体などをアンカーと呼ぶ。文字や画像をアン
カーとする場合のアンカー設定作業はさほど大きなもの
ではないが、動画像中の物体、特に画像中で移動する物
体にアンカーを設定する場合には、制作者の負荷は非常
に大きい。例えば、特開平4−163589号公報に記
載された方法では、動画像に10秒間映っている物体に
アンカーを設定する場合、NTSC画像では1秒間に3
0枚の静止画像があるため、300枚の画像に対して物
体の映っている領域を指定しなければならない。
[0003] Characters and images to which related information is linked,
An object or the like in the image is called an anchor. The anchor setting work is not so large when using text and images as anchors, but when setting anchors on objects in moving images, especially moving objects in images, the load on the creator is very large . For example, according to the method described in Japanese Patent Application Laid-Open No. 4-163589, when an anchor is set to an object reflected in a moving image for 10 seconds, three times a second in an NTSC image.
Since there are 0 still images, it is necessary to specify an area where an object is reflected in 300 images.

【0004】一方、特開平9−322155号公報に記
載された技術は、映像監視装置を目的としたものである
が、移動物体の追跡に関してはハイパーメディア制作時
における動画像中の移動する物体のアンカー設定作業の
省力化に利用できる。すなわち、アンカー対象の物体に
複数のテンプレートを設け、テンプレートマッチングに
より他の画像におけるテンプレートの移動先を検出し、
その結果から物体の移動先を自動的に設定できる。物体
中に複数のテンプレートを設けているので大きさの変化
にも対応可能である。このような方法を用いれば、ハイ
パーメディア制作者ははじめに1度だけアンカー領域を
指定すれば、後に続く画像には自動的にアンカーが設定
され、作業の負荷が大幅に軽減される。
On the other hand, the technique described in Japanese Patent Application Laid-Open No. 9-322155 is aimed at a video surveillance device. It can be used for labor saving of anchor setting work. That is, a plurality of templates are provided for the object to be anchored, and the destination of the template in another image is detected by template matching,
The destination of the object can be automatically set from the result. Since a plurality of templates are provided in the object, it is possible to cope with a change in size. By using such a method, the hypermedia creator only needs to specify the anchor area once at first, and the anchor is automatically set in the subsequent image, so that the work load is greatly reduced.

【0005】[0005]

【発明が解決しようとする課題】物体の追跡処理は一般
に時間がかかるため、追跡処理中に制作者を待たせるこ
とになり、制作に時間がかかるという問題がある。これ
を避けるためにはハードウェア化する他なく、装置が高
価になってしまう。すなわち、一般の計算機上で高速に
動作することのできる物体の追跡処理が必要であった。
Since the tracking process of an object generally takes a long time, the creator is made to wait during the tracking process, and there is a problem that the production takes a long time. In order to avoid this, hardware is required, and the apparatus becomes expensive. That is, it is necessary to perform a tracking process for an object that can operate at high speed on a general computer.

【0006】また、物体の追跡能力が低ければ、何度も
物体の領域を指定し直さなければならないため、制作者
の負荷は依然として大きいままになってしまうため、追
跡性能の向上が必要であった。
[0006] Further, if the tracking ability of the object is low, the region of the object must be re-designated many times, and the load on the creator is still large, so that the tracking performance needs to be improved. Was.

【0007】[0007]

【課題を解決するための手段】前述の問題を解決するた
めに、本発明では、時系列に入力される画像系列に対
し、初期画像の追跡領域を指定し、指定された該領域を
複数の小領域に分割し、前記小領域と該小領域を含む画
像との間で、画像系列の相関を利用した該小領域ごとの
移動先検出処理を行い、前記小領域ごとに大きさを選択
し、個々に選択された大きさを有する前記小領域のう
ち、他時刻の画像における該小領域の移動先を検出する
処理を行う小領域を選択することを特徴とする映像領域
追跡方法及び装置を提供する。
In order to solve the above-mentioned problem, according to the present invention, a tracking area of an initial image is designated for an image sequence input in time series, and the designated area is divided into a plurality of areas. Dividing into small areas, performing a destination detection process for each of the small areas using the correlation of the image sequence between the small area and the image including the small area, and selecting a size for each of the small areas A video area tracking method and apparatus, wherein among the small areas having individually selected sizes, a small area for performing a process of detecting a movement destination of the small area in an image at another time is selected. provide.

【0008】ここで、前記小領域ごとに大きさを選択す
る際は、前記画像系列の相関を利用した移動先検出処理
を行う際に算出される相関値の分布から前記小領域の信
頼度を算出し、前記小領域をさらに小さな領域に分割し
た際の分割後の領域の信頼度を、同一画像内の該領域の
前記移動先検出処理を行う際に算出される相関値の分布
から算出し、前記小領域の分割前の信頼度と分割後の信
頼度との比較により分割を行うか否かを判定するように
してもよい。
Here, when the size is selected for each of the small areas, the reliability of the small area is determined from the distribution of correlation values calculated when performing the destination detection processing using the correlation of the image sequence. Calculating and calculating the reliability of the divided area when the small area is further divided into smaller areas from the distribution of correlation values calculated when performing the destination detection processing of the area in the same image. Alternatively, it may be determined whether to perform the division by comparing the reliability of the small area before the division and the reliability after the division.

【0009】また、前記移動先を検出する処理を行う小
領域を選択する際は、前記移動先検出処理を行う際に算
出される相関値の分布から前記小領域の信頼度を算出
し、前記信頼度に応じて、他時刻の画像における前記小
領域の移動先を検出する処理を行う小領域として選択す
るか否かを判定するようにしてもよい。
When selecting a small area for performing the processing for detecting the destination, the reliability of the small area is calculated from a distribution of correlation values calculated when performing the destination detection processing. In accordance with the degree of reliability, it may be determined whether or not to select a small area for performing a process of detecting a destination of the small area in an image at another time.

【0010】また、本発明では、時系列に入力される画
像系列に対し、画像中の一部領域を追跡領域として追跡
する際に、追跡領域の移動・変型モデルを予め定めてお
き、予め選択された追跡領域内の複数の小領域をテンプ
レートとして検出した小領域の移動先から移動・変型モ
デルを表現するパラメータの値を推定し、推定された前
記移動・変型モデルのパラメータに従って追跡領域内の
複数の小領域を移動・変形し、移動・変形された前記小
領域を新たなテンプレートとすること特徴とする映像領
域追跡方法及び装置を提供する。
According to the present invention, when a partial region in an image is tracked as a tracking region for an image sequence input in a time series, a movement / modification model of the tracking region is determined in advance and selected. Estimate the value of the parameter representing the moving / modified model from the destination of the small area detected as a template with a plurality of small areas in the tracking area, and calculate the value of the parameter in the tracking area in accordance with the estimated parameter of the moving / modified model. A video area tracking method and apparatus, wherein a plurality of small areas are moved and deformed, and the moved and deformed small areas are used as a new template.

【0011】ここで、予め選択された追跡領域内の複数
の小領域をテンプレートとして検出した小領域の移動先
から移動・変型モデルを表現するパラメータの値を推定
する際、推定されたパラメータの信頼度を算出し、算出
された信頼度が所定値よりも小さいときにはテンプレー
トを変更しないこととしてもよい。
Here, when estimating a value of a parameter representing a movement / modification model from a destination of a small area detected as a template using a plurality of small areas in a previously selected tracking area, the reliability of the estimated parameter is The degree may be calculated, and the template may not be changed when the calculated reliability is smaller than a predetermined value.

【0012】[0012]

【発明の実施の形態】本発明の実施形態を、図面を参照
しつつ詳細に説明する。図1は、本発明の一実施形態に
係る処理の流れを示す流れ図である。この流れ図に従っ
て、処理の概要を説明する。
Embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a flowchart showing a processing flow according to an embodiment of the present invention. An outline of the processing will be described according to this flowchart.

【0013】まず、初期画像の入力が行われる(ステッ
プ10)。この初期画像の入力は、ハイパーメディアオ
ーサリングのように関連情報のアンカー領域を指定する
ような場合には、ユーザがグラフィカル・ユーザ・イン
タフェース(GUI)を用いて指定する。また、監視な
どの場合には、侵入物体を検出した時点が初期画像とさ
れる。侵入物体の検出には、様々な方法があるが、最も
簡単な方法は、連続して入力される画像の画素間の絶対
値差分の総和が大きくなったところを検出点とする方法
である。
First, an initial image is input (step 10). The input of the initial image is specified by a user using a graphical user interface (GUI) in a case where an anchor area of related information is specified as in hypermedia authoring. In the case of monitoring or the like, a point in time when an intruding object is detected is set as an initial image. There are various methods for detecting an intruding object, and the simplest method is a method in which a point at which the sum of absolute value differences between pixels of a continuously input image becomes large is set as a detection point.

【0014】次に、初期画像内の追跡領域の指定を行う
(ステップ11)。ハイパーメディア・オーサリングに
おいては、この処理もやはりGUIを用いてユーザ自身
が指定する。その指定方法は、画像中の追跡したい物体
を矩形で囲んだり、多角形の各点を順に指定する方法な
どがある。一方、監視の場合には、輝度・色変化の大き
な画素をしきい値処理で検出し、それら検出された画素
が隣接している場合に統合する処理を繰り返すことによ
り侵入物体の領域を検出し、追跡領域とする。このと
き、小さな領域は取り除いたり、検出領域に対して輝度
・色が類似した隣接画素を追跡領域に取り込むことによ
り、より正確な追跡領域を得ることが可能である。
Next, a tracking area in the initial image is designated (step 11). In the hypermedia authoring, this process is also specified by the user himself using the GUI. As a specification method, there is a method of enclosing an object to be tracked in an image with a rectangle or specifying each point of a polygon in order. On the other hand, in the case of monitoring, the area of the intruding object is detected by repeating the process of detecting pixels with large luminance and color changes by threshold processing and integrating the detected pixels when they are adjacent. , A tracking area. At this time, it is possible to obtain a more accurate tracking area by removing a small area or taking in an adjacent pixel having similar luminance and color to the detection area into the tracking area.

【0015】次に、ステップ11において指定された追
跡領域をブロックに分割し、その中のいくつかのブロッ
クのみを実際に追跡する追跡ブロックとして選ぶ(ステ
ップ12)。このときの追跡ブロックのブロックサイズ
は固定ではなく、数種類のサイズのブロックが選択され
る。図4は、追跡領域内をブロック分割した例である。
40は追跡対象となっている物体、41は指定された追
跡領域、そして42はブロックである。図5は、図4に
おいて作られたブロックを必要に応じて分割し、数種類
のサイズのブロックとした例である。51は分割する必
要のなかったブロック、52は分割されたブロックであ
る。図6は、図5の複数のブロックのうち、追跡対象と
して選択された追跡ブロックの例を表したものである。
60が追跡物体、61が追跡ブロックである。
Next, the tracking area designated in step 11 is divided into blocks, and only some of the blocks are selected as tracking blocks to be actually tracked (step 12). The block size of the tracking block at this time is not fixed, and blocks of several types are selected. FIG. 4 shows an example in which the tracking area is divided into blocks.
40 is an object to be tracked, 41 is a designated tracking area, and 42 is a block. FIG. 5 shows an example in which the block created in FIG. 4 is divided as necessary to obtain blocks of several sizes. 51 is a block that did not need to be divided, and 52 is a divided block. FIG. 6 illustrates an example of a tracking block selected as a tracking target among the plurality of blocks in FIG.
Reference numeral 60 denotes a tracking object, and reference numeral 61 denotes a tracking block.

【0016】次は、後の処理であるブロックマッチング
が精度良く行えるようにブロックごとに適したサイズを
選択する処理が行われる(ステップ12)が、詳細な説
明は後で行う。
Next, a process of selecting an appropriate size for each block so that block matching, which is a subsequent process, can be performed with high accuracy is performed (step 12). A detailed description will be given later.

【0017】次は、次画像の入力である(ステップ1
3)。現在処理中の画像の次の画像が入力される。この
ときの画像入力は、処理能力や目標とする追跡精度に応
じて適当に間引いても構わない。例えば、30フレーム
/秒の画像が得られる場合に、処理が追いつかないた
め、1/2に間引いて2枚に1枚のみを処理対象とした
りしても良い。ただし、追跡対象の物体の画像中の動き
が大きい場合には、あまり間引きを多くすると追跡精度
が極端に悪くなるので、避けなければならない。
Next is the input of the next image (step 1).
3). The next image after the image currently being processed is input. At this time, the image input may be appropriately thinned out according to the processing capacity and the target tracking accuracy. For example, when an image of 30 frames / sec is obtained, the processing cannot catch up, and therefore, it may be possible to thin out the image by half and to process only one out of two images. However, if the movement of the object to be tracked in the image is large, if the number of thinnings is too large, the tracking accuracy becomes extremely poor.

【0018】次に、各追跡ブロックごとに次画像との間
でブロックマッチングを行い、追跡ブロックの移動先を
計算する(ステップ14)。図7は、ブロックマッチン
グを行った例を示している。図中で、70は現画像、7
1は次画像である。また、72はもとのブロックの位置
であり、73はブロックマッチングにより計算された次
画像での同ブロックの移動先である。74はブロックマ
ッチングにおけるブロックの移動先の探索範囲を示して
いる。ブロックマッチングでは2つの画像間の非類似度
(相関値)を尺度として最も非類似度の低い位置に移動
したと推定するが、この非類似度の尺度としては、画素
ごとの輝度や色の絶対値差分の総和や、画素ごとの輝度
や色の差分の2乗和などを用いる。
Next, for each tracking block, block matching is performed with the next image, and the destination of the tracking block is calculated (step 14). FIG. 7 shows an example in which block matching is performed. In the figure, 70 is the current image, 7
1 is a next image. Reference numeral 72 denotes the position of the original block, and reference numeral 73 denotes the destination of the same block in the next image calculated by block matching. Reference numeral 74 denotes a search range of a destination of a block in block matching. In block matching, it is estimated that the image has moved to the position with the lowest degree of dissimilarity using the degree of dissimilarity (correlation value) between two images as a measure. The sum of value differences, the sum of squares of differences in luminance and color for each pixel, and the like are used.

【0019】図8は、各追跡ブロックごとに現画像と次
画像との間でブロックマッチングを実行した結果得られ
た移動先の例である。ブロックマッチングは簡単に実装
が可能であるという反面、外れ値を生じやすいという欠
点がある。従って、追跡物体の移動・変型モデルをあら
かじめ用意しておき、各追跡ブロックの移動先の分布か
らモデルにあった移動・変形を推定する方が正確な追跡
ができる。
FIG. 8 is an example of a destination obtained as a result of performing block matching between the current image and the next image for each tracking block. Block matching is easy to implement, but has the disadvantage of outliers. Therefore, accurate tracking can be achieved by preparing a movement / deformation model of the tracking object in advance and estimating the movement / deformation of the model from the distribution of the movement destination of each tracking block.

【0020】次に、各追跡ブロックごとのブロックマッ
チングの結果から、モデルを記述するパラメータを推定
する(ステップ15)。追跡物体の移動・変型モデルと
しては、未知パラメータ数が2の最も簡単な平行移動モ
デル、未知パラメータ数6のアフィン変換モデル、そし
て未知パラメータ数8の射影変換モデルなどがある。
Next, parameters describing the model are estimated from the result of block matching for each tracking block (step 15). Examples of the movement / deformation model of the tracking object include a simplest translation model having two unknown parameters, an affine transformation model having six unknown parameters, and a projective transformation model having eight unknown parameters.

【0021】平行移動モデルでは、未知のパラメータベ
クトルを(t1,t2)とし、また、ブロックiの位置
座標を(xi,yi)、そのブロックマッチングの結果
を(x’i,y’i)としたとき、誤差は ei=(x’i,y’i)−(xi,yi)−(t1,
t2) となる。誤差の2乗和を最小にする最小二乗法によれ
ば、この解を容易に得ることができる。
In the translation model, the unknown parameter vector is (t1, t2), the position coordinate of block i is (xi, yi), and the result of the block matching is (x'i, y'i). Then, the error is ei = (x′i, y′i) − (xi, yi) − (t1,
t2). According to the least squares method that minimizes the sum of squares of the error, this solution can be easily obtained.

【0022】また、アフィン変換モデルでは、未知のパ
ラメータベクトルを(a1,a2,a3,a4,a5,
a6)とすると、誤差ベクトルは ei=(x’i−a1*xi−a2*yi−a3,y’
i−a4*xi−a5*yi−a6) となるので、平行移動モデルの時と同様に誤差の2乗和
を最小にする最小二乗法で解を得られる。
In the affine transformation model, unknown parameter vectors are represented by (a1, a2, a3, a4, a5,
a6), the error vector is ei = (x'ia1 * xi-a2 * yi-a3, y '
i−a4 * xi−a5 * yi−a6) As in the case of the translation model, a solution can be obtained by the least squares method that minimizes the sum of squares of the error.

【0023】次に、このようにして設定されたモデルの
未知パラメータを推定する(ステップ15)。そして、
ステップ15において推定された追跡物体の移動・変形
パラメータを用いて、各ブロックの位置を更新する(ス
テップ16)。例えば、平行移動モデルではセルiを
(xi+t1,yi+t2)に更新し、アフィン変換モ
デルでは( a1*xi+a2*yi+a3,a4*x
i+a5*yi+a6)に更新する。これらの位置は、
次画像におけるブロックの最終的な位置となる。
Next, the unknown parameters of the model thus set are estimated (step 15). And
The position of each block is updated using the movement / deformation parameters of the tracking object estimated in step 15 (step 16). For example, in the translation model, the cell i is updated to (xi + t1, yi + t2), and in the affine transformation model, (a1 * xi + a2 * yi + a3, a4 * x
i + a5 * yi + a6). These positions are
This is the final position of the block in the next image.

【0024】図9は、ステップ16によって更新された
ブロック位置の例である。90は現画像における追跡物
体の位置、91は次画像における追跡物体の位置、92
は更新されたブロックである。
FIG. 9 shows an example of the block position updated in step 16. 90 is the position of the tracked object in the current image, 91 is the position of the tracked object in the next image, 92
Is the updated block.

【0025】なお、このブロックの更新を選択的に行う
ことも可能である。すなわち、追跡物体の移動・変形パ
ラメータを推定した際に、パラメータの信頼度を同時に
算出し、この信頼度が高いときにのみテンプレートの更
新処理を行う。このように選択的に更新を行うと、一時
的に追跡物体が他の物体により隠れてしまっても(オク
ルージョン)追跡を続けることが可能になる。なお、最
小二乗法を用いて変形・移動パラメータを推定する際に
は、パラメータの信頼度の算出として推定誤差から見積
もるパラメータの分散を利用することができる。
It is also possible to selectively update the block. That is, when estimating the movement / deformation parameters of the tracking object, the reliability of the parameters is calculated at the same time, and the template updating process is performed only when the reliability is high. When the selective update is performed in this manner, even if the tracked object is temporarily hidden by another object (occlusion), the tracking can be continued. When estimating the deformation / movement parameters using the least squares method, the variance of the parameters estimated from the estimation error can be used to calculate the reliability of the parameters.

【0026】次に、追跡処理の続行または終了を判定す
る(ステップ17)。ユーザによる追跡処理終了が指定
されているか否か、次の画像が得られるか否か、追跡結
果が信頼できるか否か、追跡物体が十分な大きさを保っ
ているか否かなどにより、判定がなされる。追跡処理が
続行される場合には、更新された追跡ブロック位置を新
たな追跡の初期値として、ステップ13からの処理を繰
り返し行う。以上が本発明の一実施形態における追跡処
理全体の流れの説明である。
Next, continuation or termination of the tracking process is determined (step 17). The determination is made based on whether the end of the tracking process is designated by the user, whether the next image can be obtained, whether the tracking result is reliable, whether the tracking object is sufficiently large, and the like. Done. When the tracking processing is continued, the processing from step 13 is repeated using the updated tracking block position as a new tracking initial value. The above is the description of the flow of the entire tracking process according to the embodiment of the present invention.

【0027】次に、図1におけるステップ12のより詳
細な説明を行う。図2は、ステップ12に示した処理の
流れを示す流れ図である。ステップ12はブロックマッ
チングの信頼性向上のために適当なブロックサイズを決
定し、さらに、計算量を減らして高速処理を可能にする
ために信頼性の高いブロックのみを追跡ブロックとして
選択する処理を行う。
Next, step 12 in FIG. 1 will be described in more detail. FIG. 2 is a flowchart showing the flow of the process shown in step 12. In step 12, an appropriate block size is determined to improve the reliability of block matching, and a process of selecting only a highly reliable block as a tracking block to reduce the amount of calculation and enable high-speed processing is performed. .

【0028】ステップ20では、ステップ11において
指定された追跡領域内に、ブロックを配置する処理を行
う。このときのブロックのサイズは、あらかじめ決めら
れたブロックの最大サイズとする。図4は、追跡領域内
にブロックを配置した例である。ステップ20ではさら
に、配置した最大サイズのブロック全てに分割可能ラベ
ルを付与しておく。分割可能ラベルは、ブロックをより
小さなサイズのブロックに分割する可能性があることを
示すラベルである。
In step 20, processing for arranging the blocks in the tracking area designated in step 11 is performed. The block size at this time is a predetermined maximum block size. FIG. 4 is an example in which blocks are arranged in the tracking area. In step 20, a dividable label is given to all the arranged blocks of the maximum size. A divisible label is a label indicating that a block may be divided into smaller sized blocks.

【0029】次のステップ21では、追跡ブロックから
分割可能ラベルのついたものを一つ取り出し、これをブ
ロックiとする。まず、ブロックiの信頼性Liを計算
する。ここで用いる信頼性の算出方法については、後述
する。そして、ブロックiを4分割して得られる4つの
小ブロックをi1,i2,i3,i4とし、それぞれに
ついて信頼性Li1,Li2,Li3,Li4を計算す
る。そして4つの小ブロックの信頼性の最大値を求め、
これを小ブロックの信頼性Si=max(Li1,Li
2,Li3,Li4)とする。
In the next step 21, one of the tracking blocks with a dividable label is taken out, and this is set as a block i. First, the reliability Li of the block i is calculated. The reliability calculation method used here will be described later. Then, four small blocks obtained by dividing the block i into four are defined as i1, i2, i3, and i4, and the reliability Li1, Li2, Li3, and Li4 are calculated for each of them. Then, find the maximum value of the reliability of the four small blocks,
This is taken as the reliability of the small block, Si = max (Li1, Li
2, Li3, Li4).

【0030】ステップ22では、処理21で算出された
二つの信頼性LiとSiとを比較し、もしもSiがLi
以上であればステップ23へ処理を進める。すなわち、
ブロックiの4分割を実行する。他方、SiがLiより
も小さければ、分割により信頼性の向上が見込めないの
でブロックの分割は取りやめ、ステップ24においてブ
ロックiから分割可能ラベルが取り去られる。ブロック
iはこれ以上分割されることがないので、ブロックサイ
ズが決定する。
In step 22, the two reliability values Li and Si calculated in the process 21 are compared with each other.
If so, the process proceeds to step S23. That is,
The block i is divided into four parts. On the other hand, if Si is smaller than Li, the division cannot be improved because the division cannot improve the reliability. In step 24, the divisible label is removed from the block i. Since the block i is not further divided, the block size is determined.

【0031】ステップ22においてブロックの分割が選
択され、ステップ23において分割が実行された場合に
は、次のステップ25において小ブロックi1〜i4が
あらかじめ決められた最小サイズのブロックであるかど
うかを判定する。小ブロックが最小サイズでない場合の
み、ステップ26においてその小ブロックに分割可能ラ
ベルが付与される。
If division of a block is selected in step 22 and division is performed in step 23, it is determined in next step 25 whether the small blocks i1 to i4 are blocks of a predetermined minimum size. I do. Only when the small block is not the minimum size, a dividable label is given to the small block in step 26.

【0032】次に、ステップ27で処理続行か終了かを
判定する。分割可能ラベルがついたブロックが残ってい
れば、再びステップ21からの処理を行う。もし分割可
能ラベルが付いたブロックがもう残っていなければ、全
ての追跡ブロックのサイズが決定したことになり、処理
を終了する。以上がステップ12の詳細な説明である。
Next, at step 27, it is determined whether the processing is to be continued or terminated. If a block with a dividable label remains, the processing from step 21 is performed again. If there are no more blocks with a divisible label, the sizes of all tracking blocks have been determined, and the process ends. The above is the detailed description of Step 12.

【0033】最後に各追跡ブロックの信頼性の算出方法
について説明する。図3は、ブロックの信頼性を算出す
る処理の流れを示した流れ図である。まず、ステップ3
0においては、初期画像内でブロックの位置を(u,
v)だけずらした位置でのブロックの非類似度D(u,
v)を計算する。D(u,v)は前述したように画素ご
との輝度や色の絶対値差分の総和や、画素ごとの輝度や
色の差分の2乗和などを用いる。このとき、非類似度D
(u,v)を算出する範囲は、ブロックの大きさに応じ
てあらかじめ決められた値Wにより、―W≦u,v≦W
と定める。図10は算出されたD(u,v)の例を示し
ている。図中、100は初期画像、101は信頼性算出
対象となっているブロック、102はブロックを(u,
v)だけずらした位置、103は―W≦u,v≦Wによ
り定まる画像領域である。104は領域103において
算出された非類似度の分布を表している。
Finally, a method of calculating the reliability of each tracking block will be described. FIG. 3 is a flowchart showing the flow of processing for calculating the reliability of a block. First, step 3
0, the position of the block in the initial image is (u,
v), the block dissimilarity D (u,
Calculate v). As described above, D (u, v) uses the sum of absolute differences of luminance and color of each pixel, the sum of squares of luminance and color of each pixel, and the like. At this time, the dissimilarity D
The range in which (u, v) is calculated is as follows: −W ≦ u, v ≦ W by a value W that is predetermined according to the size of the block.
Is determined. FIG. 10 shows an example of the calculated D (u, v). In the figure, 100 is an initial image, 101 is a block whose reliability is to be calculated, and 102 is a block (u,
A position shifted by v), 103 is an image area determined by -W ≦ u, v ≦ W. Reference numeral 104 denotes the distribution of the dissimilarity calculated in the area 103.

【0034】ステップ31では、ステップ30において
算出されたD(u,v)の分布を用いて2行2列の行列
Rを算出する。RはD(u,v)の(0,0)付近での
曲率として計算される。ただし、ブロックの大きさが異
なるものどうしを比較できるよう、ブロック内の画素数
Mの2乗根でD(u,v)を除してから曲率を算出す
る。曲率は2次微分フィルタにより求められる。D
(u,v)は一つの画像内でブロックマッチングを行
い、算出されるものである。よって、この処理は追跡領
域指定後直ちに実行することができるため、初期処理の
時間短縮が可能である。
In step 31, a matrix R of 2 rows and 2 columns is calculated using the distribution of D (u, v) calculated in step 30. R is calculated as the curvature of D (u, v) near (0,0). However, the curvature is calculated after D (u, v) is divided by the square root of the number M of pixels in the block so that blocks having different sizes can be compared. The curvature is obtained by a second derivative filter. D
(U, v) is calculated by performing block matching in one image. Therefore, since this processing can be executed immediately after the tracking area is specified, the time for the initial processing can be reduced.

【0035】ステップ32では、処理31で算出された
行列Rから信頼度rを計算する。この方法としては、R
から算出される様々なものが利用可能である。例えばR
の行列式r=det(R)とする方法、Rの二つの固有
値λ1,λ2を算出し、このうちの最小値r=min
(λ1,λ2)とする方法、固有値の和r=λ1+λ2
とする方法などがある。以上により算出されたブロック
の信頼度は、ブロックマッチングを行って得られる移動
量の信頼性の一つの予測値となる。
In step 32, the reliability r is calculated from the matrix R calculated in the process 31. As this method, R
Various things calculated from are available. For example, R
And calculating two eigenvalues λ1 and λ2 of R, and among these, the minimum value r = min
(Λ1, λ2), sum of eigenvalues r = λ1 + λ2
And the like. The reliability of the block calculated as described above is one predicted value of the reliability of the movement amount obtained by performing the block matching.

【0036】[0036]

【発明の効果】本発明の映像領域追跡方法および装置に
より、初期画像の追跡対象として指定された領域を複数
の小領域に分割し、小領域ごとに他時刻の画像とブロッ
クマッチングを行う処理を行い、小領域ごとに大きさを
選択することにより追跡能力の向上が図れ、さらに個々
に選択された大きさを有する小領域からブロックマッチ
ングを行う小領域を選択することにより処理時間を短縮
することができる。また、本発明の動画像の領域追跡方
法および装置により、小領域ごとに大きさを選択する際
に、小領域と小領域を含む画像との間でブロックマッチ
ングを行い、ブロックマッチングの際に算出された類似
度または非類似度の分布から小領域の信頼度を算出し、
また、小領域をさらに小さな領域に分割した際の分割後
の領域の信頼度を同一画像内のブロックマッチングで算
出された類似度または非類似度の分布から算出し、小領
域の信頼度と分割後の信頼度との比較により分割を行う
か否かを判定することにより、追跡処理前に小領域の選
択ができるため、追跡処理の初期処理にかかる時間を短
縮できる。さらにまた、本発明の動画像の領域追跡方法
および装置により、追跡領域を小領域に分割し、以後入
力される画像においてブロックマッチングの処理対象と
なる小領域を選択する処理を追跡領域の指定された初期
画像においてのみ行うことで、追跡時の処理時間を短縮
することができる。
According to the video area tracking method and apparatus of the present invention, a process of dividing an area designated as an initial image tracking target into a plurality of small areas and performing block matching with an image at another time for each small area is performed. To improve the tracking ability by selecting the size for each small area, and to further shorten the processing time by selecting the small area to be subjected to block matching from the small areas having individually selected sizes. Can be. In addition, according to the moving image region tracking method and apparatus of the present invention, when selecting the size for each small region, block matching is performed between the small region and the image including the small region, and calculation is performed at the time of block matching. Calculate the reliability of the small area from the distribution of similarity or dissimilarity obtained,
In addition, when the small area is further divided into smaller areas, the reliability of the divided area is calculated from the similarity or dissimilarity distribution calculated by block matching in the same image, and the reliability of the small area and the division are calculated. By determining whether or not to perform division by comparing with later reliability, a small area can be selected before the tracking processing, so that the time required for the initial processing of the tracking processing can be reduced. Still further, according to the moving image region tracking method and apparatus of the present invention, the tracking region is divided into small regions, and the process of selecting a small region to be subjected to block matching processing in the subsequently input image is designated as the tracking region. By performing the process only on the initial image, the processing time at the time of tracking can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態である追跡処理の流れ図。FIG. 1 is a flowchart of a tracking process according to an embodiment of the present invention.

【図2】図1におけるステップ12の詳細を説明する流
れ図。
FIG. 2 is a flowchart illustrating details of step 12 in FIG. 1;

【図3】追跡ブロックの信頼性の算出方法を示す流れ
図。
FIG. 3 is a flowchart showing a method of calculating the reliability of a tracking block.

【図4】追跡領域をブロックに分割した例を示す図。FIG. 4 is a diagram showing an example in which a tracking area is divided into blocks.

【図5】数種のブロックサイズに分割されたブロックの
例を示す図。
FIG. 5 is a diagram showing an example of a block divided into several types of block sizes.

【図6】追跡ブロックの選択例を示す図。FIG. 6 is a diagram showing an example of selecting a tracking block.

【図7】追跡ブロックのブロックマッチングの例を示す
図。
FIG. 7 is a diagram showing an example of block matching of a tracking block.

【図8】ブロックマッチングにより得られた追跡ブロッ
クの移動先の例を示す図。
FIG. 8 is a diagram showing an example of a destination of a tracking block obtained by block matching.

【図9】追跡ブロックの更新例を示す図。FIG. 9 is a diagram illustrating an example of updating a tracking block.

【図10】初期画像内でのブロックの非類似度の算出結
果の例を示す図。
FIG. 10 is a diagram illustrating an example of a calculation result of a dissimilarity of a block in an initial image.

【符号の説明】[Explanation of symbols]

40,50,60 追跡対象物体 41 追跡領域 42,51,52,61、92,101 ブロック 70 現画像 71 次画像 90 現画像における追跡物体の位置 91 次画像における追跡物体の位置 100 初期画像 102 ブロックを(u,v)だけずらした位置 103 ―W≦u,v≦Wにより定まる画像領域 104 領域103において算出された非類似度の分布 40, 50, 60 Tracking target object 41 Tracking area 42, 51, 52, 61, 92, 101 Block 70 Current image 71 Next image 90 Position of tracking object in current image 91 Position of tracking object in next image 100 Initial image 102 block 103 shifted by (u, v) 103-Image area determined by W ≦ u, v ≦ W 104 Distribution of dissimilarity calculated in area 103

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】時系列に入力される画像系列に対し、初期
画像の追跡領域を指定する工程と、 指定された該領域を複数の小領域に分割する工程と、 前記小領域と該小領域を含む画像との間で、画像系列の
相関を利用した該小領域ごとの移動先検出処理を行う工
程と、 前記小領域ごとに大きさを選択する工程と、 個々に選択された大きさを有する前記小領域のうち、他
時刻の画像における該小領域の移動先を検出する処理を
行う小領域を選択する工程とを有することを特徴とする
映像領域追跡方法。
A step of designating a tracking area of an initial image for an image sequence input in time series; a step of dividing the designated area into a plurality of small areas; A step of performing a destination detection process for each of the small areas using the correlation of the image sequence between the image and the image including; a step of selecting a size for each of the small areas; Selecting a small area for performing a process of detecting a movement destination of the small area in an image at another time from among the small areas included in the image area tracking method.
【請求項2】前記小領域ごとに大きさを選択する工程
は、 前記画像系列の相関を利用した移動先検出処理を行う工
程の際に算出される相関値の分布から前記小領域の信頼
度を算出する工程と、 前記小領域をさらに小さな領域に分割した際の分割後の
領域の信頼度を、同一画像内の該領域の前記移動先検出
処理を行う際に算出される相関値の分布から算出する工
程と、 前記小領域の分割前の信頼度と分割後の信頼度との比較
により分割を行うか否かを判定する工程とを有すること
を特徴とする請求項1記載の映像領域追跡方法。
2. The method according to claim 2, wherein the step of selecting a size for each of the small areas comprises: determining a reliability of the small area from a distribution of correlation values calculated in a step of performing a destination detection process using correlation of the image sequence. Calculating the reliability of the divided area when the small area is further divided into smaller areas, and a distribution of correlation values calculated when performing the destination detection processing of the area in the same image. 2. The video area according to claim 1, further comprising: a step of calculating whether or not to perform the division by comparing the reliability of the small area before the division and the reliability after the division. Tracking method.
【請求項3】前記移動先を検出する処理を行う小領域を
選択する工程は、 前記移動先検出処理を行う工程の際に算出される相関値
の分布から前記小領域の信頼度を算出する工程と、 前記信頼度に応じて、他時刻の画像における前記小領域
の移動先を検出する処理を行う小領域として選択するか
否かを判定する工程とを有することを特徴とする請求項
1記載の映像領域追跡方法。
3. The step of selecting a small area in which the processing for detecting the destination is performed comprises calculating reliability of the small area from a distribution of correlation values calculated in the step of performing the destination detection processing. The method according to claim 1, further comprising: determining whether or not to select a small area for performing a process of detecting a movement destination of the small area in an image at another time according to the reliability. Image area tracking method as described.
【請求項4】時系列に入力される画像系列に対し、画像
中の一部領域を追跡領域として追跡する際に、追跡領域
の移動・変型モデルを予め定めておき、予め選択された
追跡領域内の複数の小領域をテンプレートとして検出し
た小領域の移動先から移動・変型モデルを表現するパラ
メータの値を推定する工程と、 推定された前記移動・変型モデルのパラメータに従って
追跡領域内の複数の小領域を移動・変形する工程と、 移動・変形された前記小領域を新たなテンプレートとす
る工程とを有すること特徴とする映像領域追跡方法。
4. When a partial region in an image is tracked as a tracking region for an image sequence input in a time series, a movement / modification model of the tracking region is determined in advance, and a tracking region selected in advance is selected. Estimating a value of a parameter representing a moving / modified model from a destination of the small region detected as a template using a plurality of small regions in the; and A video area tracking method, comprising: moving and deforming a small area; and using the moved and deformed small area as a new template.
【請求項5】予め選択された追跡領域内の複数の小領域
をテンプレートとして検出した小領域の移動先から移動
・変型モデルを表現するパラメータの値を推定する工程
は、 推定されたパラメータの信頼度を算出し、算出された信
頼度が所定値よりも小さいときにはテンプレートを変更
しないことを特徴とする請求項3の映像領域追跡方法。
5. A step of estimating a value of a parameter representing a movement / modification model from a destination of a small area detected using a plurality of small areas in a preselected tracking area as a template, comprising: 4. The video area tracking method according to claim 3, wherein the degree is calculated, and the template is not changed when the calculated reliability is smaller than a predetermined value.
【請求項6】時系列に入力される画像系列に対し、初期
画像の追跡領域を指定する手段と、 指定された該領域を複数の小領域に分割する手段と、 前記小領域と該小領域を含む画像との間で、画像系列の
相関を利用した該小領域ごとの移動先検出処理を行う手
段と、 前記小領域ごとに大きさを選択する手段と、 個々に選択された大きさを有する前記小領域のうち、他
時刻の画像における該小領域の移動先を検出する処理を
行う小領域を選択する手段と、 を有することを特徴とする映像領域追跡装置。
6. A means for designating a tracking area of an initial image for an image sequence input in time series, means for dividing the designated area into a plurality of small areas, the small area and the small area Means for performing a destination detection process for each of the small areas using the correlation of the image sequence, and means for selecting a size for each of the small areas; and Means for selecting a small area for performing a process of detecting a movement destination of the small area in an image at another time, among the small areas having the image data.
【請求項7】前記小領域ごとに大きさを選択する手段
は、 前記画像系列の相関を利用した移動先検出処理を行う際
に算出される相関値の分布から前記小領域の信頼度を算
出する手段と、 前記小領域をさらに小さな領域に分割した際の分割後の
領域の信頼度を、同一画像内の該領域の前記移動先検出
処理を行う際に算出される相関値の分布から算出する手
段と、 前記小領域の分割前の信頼度と分割後の信頼度との比較
により分割を行うか否かを判定する手段とを有すること
を特徴とする請求項6記載の映像領域追跡装置。
7. A means for selecting a size for each of the small areas, comprising: calculating a reliability of the small area from a distribution of correlation values calculated when performing a destination detection process using correlation of the image sequence. Means for calculating the reliability of the divided area when the small area is further divided into smaller areas from the distribution of correlation values calculated when the destination detection processing of the area in the same image is performed. 7. The video area tracking apparatus according to claim 6, further comprising: means for comparing the reliability of the small area before the division and the reliability after the division to determine whether to perform the division. .
【請求項8】前記移動先を検出する処理を行う小領域を
選択する手段は、 前記移動先検出処理を行う際に算出される相関値の分布
から前記小領域の信頼度を算出する手段と、 前記信頼度に応じて、他時刻の画像における前記小領域
の移動先を検出する処理を行う小領域として選択するか
否かを判定する手段とを有することを特徴とする請求項
6記載の映像領域追跡装置。
8. A means for selecting a small area for performing the processing for detecting the movement destination, comprising: means for calculating reliability of the small area from a distribution of correlation values calculated when performing the movement detection processing. 7. The apparatus according to claim 6, further comprising: means for determining whether or not to select a small area for performing a process of detecting a destination of the small area in an image at another time according to the reliability. Image area tracking device.
【請求項9】時系列に入力される画像系列に対し、画像
中の一部領域を追跡領域として追跡する際に、追跡領域
の移動・変型モデルを予め定めておき、予め選択された
追跡領域内の複数の小領域をテンプレートとして検出し
た小領域の移動先から移動・変型モデルを表現するパラ
メータの値を推定する手段と、 推定された前記移動・変型モデルのパラメータに従って
追跡領域内の複数の小領域を移動・変形する手段と、 移動・変形された前記小領域を新たなテンプレートとす
る手段とを有すること特徴とする映像領域追跡装置。
9. When a partial area in an image is tracked as a tracking area for an image sequence input in time series, a movement / modification model of the tracking area is determined in advance, and a tracking area selected in advance is selected. Means for estimating a value of a parameter representing a movement / variant model from a destination of the small area detected as a template using a plurality of small areas in the plurality of small areas, and a plurality of parameters in the tracking area according to the estimated parameters of the movement / variant model. An image area tracking apparatus comprising: means for moving and deforming a small area; and means for using the moved and deformed small area as a new template.
【請求項10】予め選択された追跡領域内の複数の小領
域をテンプレートとして検出した小領域の移動先から移
動・変型モデルを表現するパラメータの値を推定する手
段は、 推定されたパラメータの信頼度を算出し、算出された信
頼度が所定値よりも小さいときにはテンプレートを変更
しないことを特徴とする請求項9の映像領域追跡装置。
10. A method for estimating a value of a parameter representing a movement / modification model from a movement destination of a small area detected using a plurality of small areas in a tracking area selected in advance as a template, comprising the steps of: 10. The video area tracking apparatus according to claim 9, wherein the degree is calculated, and the template is not changed when the calculated reliability is smaller than a predetermined value.
JP30260498A 1998-10-23 1998-10-23 Image area tracking method and apparatus Expired - Fee Related JP3630569B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30260498A JP3630569B2 (en) 1998-10-23 1998-10-23 Image area tracking method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30260498A JP3630569B2 (en) 1998-10-23 1998-10-23 Image area tracking method and apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2004331615A Division JP2005063464A (en) 2004-11-16 2004-11-16 Method and device for tracking video area

Publications (2)

Publication Number Publication Date
JP2000132691A true JP2000132691A (en) 2000-05-12
JP3630569B2 JP3630569B2 (en) 2005-03-16

Family

ID=17910990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30260498A Expired - Fee Related JP3630569B2 (en) 1998-10-23 1998-10-23 Image area tracking method and apparatus

Country Status (1)

Country Link
JP (1) JP3630569B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003281548A (en) * 2002-03-26 2003-10-03 Toshiba Corp Video editing method and program
US7027624B2 (en) 2001-03-29 2006-04-11 Nec Corporation Pattern collation device and pattern collating method thereof, and pattern collation program
JP2009512908A (en) * 2006-06-16 2009-03-26 ビ−エイイ− システムズ パブリック リミテッド カンパニ− Improvements to goal tracking
JP2011039596A (en) * 2009-08-06 2011-02-24 Canon Inc Device and method for tracking image, and computer program
JP2011118891A (en) * 2009-12-01 2011-06-16 Honda Research Inst Europe Gmbh Many object tracking which use autonomous adaptation of knowledge base of tracking modeling level
WO2011083665A1 (en) * 2010-01-08 2011-07-14 日本電気株式会社 Similarity degree calculation device, similarity degree calculation method, and program
US11049270B2 (en) 2017-09-14 2021-06-29 Samsung Electronics Co., Ltd. Method and apparatus for calculating depth map based on reliability

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7027624B2 (en) 2001-03-29 2006-04-11 Nec Corporation Pattern collation device and pattern collating method thereof, and pattern collation program
JP2003281548A (en) * 2002-03-26 2003-10-03 Toshiba Corp Video editing method and program
JP2009512908A (en) * 2006-06-16 2009-03-26 ビ−エイイ− システムズ パブリック リミテッド カンパニ− Improvements to goal tracking
JP4787322B2 (en) * 2006-06-16 2011-10-05 ビ−エイイ− システムズ パブリック リミテッド カンパニ− Improvements to goal tracking
JP2011039596A (en) * 2009-08-06 2011-02-24 Canon Inc Device and method for tracking image, and computer program
JP2011118891A (en) * 2009-12-01 2011-06-16 Honda Research Inst Europe Gmbh Many object tracking which use autonomous adaptation of knowledge base of tracking modeling level
WO2011083665A1 (en) * 2010-01-08 2011-07-14 日本電気株式会社 Similarity degree calculation device, similarity degree calculation method, and program
US8855373B2 (en) 2010-01-08 2014-10-07 Nec Corporation Similarity calculation device, similarity calculation method, and program
JP5717055B2 (en) * 2010-01-08 2015-05-13 日本電気株式会社 Similarity calculation device, similarity calculation method, and program
US11049270B2 (en) 2017-09-14 2021-06-29 Samsung Electronics Co., Ltd. Method and apparatus for calculating depth map based on reliability

Also Published As

Publication number Publication date
JP3630569B2 (en) 2005-03-16

Similar Documents

Publication Publication Date Title
US6337917B1 (en) Rule-based moving object segmentation
US6535213B1 (en) Curve edition system, curve-loop detecting system, curve-loop removing system
JP4564634B2 (en) Image processing method and apparatus, and storage medium
US5845006A (en) Method of processing image formation
US20120321134A1 (en) Face tracking method and device
US20090052783A1 (en) Similar shot detecting apparatus, computer program product, and similar shot detecting method
JP2008158774A (en) Image processing method, image processing device, program, and storage medium
US5173865A (en) Method and apparatus for detecting motion of moving picture
JP2001043376A (en) Image extraction method and device and storage medium
JP2003508994A (en) Video image stabilization and registration
JP2004525472A (en) Division unit, method thereof, and image processing apparatus
CN112541491B (en) End-to-end text detection and recognition method based on image character region perception
CN111199556A (en) Indoor pedestrian detection and tracking method based on camera
KR20170015299A (en) Method and apparatus for object tracking and segmentation via background tracking
JP4407985B2 (en) Image processing method and apparatus, and storage medium
US8929587B2 (en) Multi-tracking of video objects
JP3630569B2 (en) Image area tracking method and apparatus
CN109872343B (en) Weak texture object posture tracking method, system and device
CN110969646A (en) Face tracking method adaptive to high frame rate
US6553069B1 (en) Digital image segmenting method and device
JP2005063464A (en) Method and device for tracking video area
JP2002117409A (en) Image processing method and device thereof
JP2002133423A (en) New registration device for face image database and recording medium
EP4099264B1 (en) Learning device and learning method
JP2000132692A (en) Method for extracting feature point of curve and recording medium recording the method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040917

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041214

LAPS Cancellation because of no payment of annual fees