JP2000270337A - Device and method for motion detection - Google Patents

Device and method for motion detection

Info

Publication number
JP2000270337A
JP2000270337A JP7361099A JP7361099A JP2000270337A JP 2000270337 A JP2000270337 A JP 2000270337A JP 7361099 A JP7361099 A JP 7361099A JP 7361099 A JP7361099 A JP 7361099A JP 2000270337 A JP2000270337 A JP 2000270337A
Authority
JP
Japan
Prior art keywords
motion vector
image
moving image
matching distance
image object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7361099A
Other languages
Japanese (ja)
Inventor
Atsunobu Hiraiwa
篤信 平岩
Keisuke Fuse
圭介 布施
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Telecommunications Advancement Organization
Original Assignee
Sony Corp
Telecommunications Advancement Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Telecommunications Advancement Organization filed Critical Sony Corp
Priority to JP7361099A priority Critical patent/JP2000270337A/en
Publication of JP2000270337A publication Critical patent/JP2000270337A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately detect a motion vector of a dynamic picture object even when the dynamic picture object is moved in a moving picture so as to be overlapped with a still object resulting in deforming the dynamic picture object. SOLUTION: A forward motion vector is detected by matching a dynamic picture object included in a 1st picture with a dynamic picture object included in a 2nd picture so as to obtain a forward matching distance (ST41). Furthermore, a reverse motion vector is detected by matching the dynamic picture object included in the 1st picture with a dynamic picture object included in a 3rd picture so as to obtain a reverse matching distance (ST42). On the basis of a comparison result between the forward matching distance and the reverse matching distance (ST43), the forward motion vector or the reverse motion vector is detected as a motion vector of the dynamic picture object included in the 1st picture (ST44, 45).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画像に含まれる
動画像オブジェクトについての動きベクトルを検出する
動き検出装置及び方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion detecting apparatus and method for detecting a motion vector of a moving image object included in a moving image.

【0002】[0002]

【従来の技術】近年のコンピュータ計算機の処理能力の
飛躍的進歩により、画像処理の対象が動画像にまで広が
ってきている。また、インターネットの分野において
も、動画ブラウザ、動画像を検索する動画像検索システ
ム等の登場が要望されている。そして、上記動画ブラウ
ザ及び動画像検索システムにおいては、高精度に動画像
の動きベクトルを検出して画像処理を行う必要がある。
2. Description of the Related Art Due to the remarkable progress in the processing capability of computer computers in recent years, the object of image processing has been extended to moving images. Also in the field of the Internet, the appearance of a moving image browser, a moving image search system for searching for moving images, and the like have been demanded. In the moving picture browser and the moving picture search system, it is necessary to detect a motion vector of a moving picture with high accuracy and perform image processing.

【0003】動画像内に動きを有する動画像オブジェク
トが含まれる場合、動画像オブジェクトが動きを有して
動きを有しない静止オブジェクトと重複することで動画
像オブジェクトの輪郭が変形するオクルージョンが発生
する。静止オブジェクトAの動きベクトルが“0”であ
り動画像オブジェクトBが動きベクトルBを有し、動画
像オブジェクトBが静止オブジェクトAの背景とされた
とき、図20に示すように重複してオクルージョンが発
生していることが分かる。また、この図20によれば、
フレームtとフレームt+1とで静止オブジェクトAと
動画像オブジェクトBとの重複率が変化していることが
分かる。
When a moving image includes a moving image object having motion, an occlusion occurs in which the outline of the moving image object is deformed when the moving image object overlaps with a still object having motion and no motion. . When the motion vector of the still object A is “0”, the moving image object B has the motion vector B, and the moving image object B is set as the background of the still object A, as shown in FIG. It can be seen that this has occurred. According to FIG. 20,
It can be seen that the overlap ratio between the still object A and the moving image object B changes between the frames t and t + 1.

【0004】ここで、フレームtとフレームt+1とで
静止オブジェクトA、動画像オブジェクトB自体の変形
がないとしたとき、フレームtは複数の領域に分割する
領域分割されることで静止オブジェクトAを示す領域A
tと、動画像オブジェクトBを示す領域Btからなる画像
とされる。また、フレームt+1は領域分割されること
で静止オブジェクトAを示す領域At+1と、動画像オブ
ジェクトBを示す領域Bt+1とからなる画像とされる。
そして、静止オブジェクトAに対する背景の動画像オブ
ジェクトBを示す領域Bは、前景である静止オブジェク
トAを示す領域Aに浸食され、浸食された部分を含んだ
疑似輪郭を形成する。
[0004] Here, assuming that there is no deformation of the still object A and the moving image object B itself between the frame t and the frame t + 1, the frame t indicates the still object A by being divided into a plurality of regions. Area A
t and an area Bt indicating the moving image object B. In addition, the frame t + 1 is divided into regions to form an image including a region At + 1 indicating the still object A and a region Bt + 1 indicating the moving image object B.
Then, the area B indicating the background moving image object B with respect to the stationary object A is eroded by the area A indicating the stationary object A which is the foreground, and forms a pseudo contour including the eroded portion.

【0005】そして、時刻tから時刻t+1となると、
前景の領域Atが領域At+1となっても領域Aの形状に変
化はないが、背景の領域Btが領域Bt+1となるとオクル
ージョンにより領域Bt+1は領域Btとは異なる形状とな
る。
[0005] Then, from time t to time t + 1,
Even if the foreground area At becomes the area At + 1, the shape of the area A does not change. However, if the background area Bt becomes the area Bt + 1, the area Bt + 1 has a different shape from the area Bt due to occlusion.

【0006】このように領域Btから領域Bt+1に変形す
ることの有無を検出することにより、オクルージョンを
検出することができる。
[0006] Occlusion can be detected by detecting the presence or absence of the deformation from the area Bt to the area Bt + 1.

【0007】[0007]

【発明が解決しようとする課題】また、領域をテンプレ
ートとしたマッチングによりフレームtからフレームt
+1への動きベクトルを検出するときには、領域Atか
ら領域At+1への動きベクトルはフレーム間における変
形がないので類似度が大きく、すなわち最小マッチング
距離が小さくなり、正確な動きベクトルを検出すること
ができる。
[0006] Further, by performing matching using an area as a template, a frame t to a frame t
When detecting a motion vector to +1, the motion vector from the region At to the region At + 1 has a large similarity because there is no deformation between frames, that is, the minimum matching distance becomes small, and an accurate motion vector is detected. Can be.

【0008】一方、領域Btから領域Bt+1への動きベク
トルはフレーム間においてオクルージョンによる変形が
生ずることにより類似度が小さく、すなわち最小マッチ
ング距離が小さくならないことが多い。すなわち、領域
Btから領域Bt+1への動きベクトルは、領域Btから領
域Bt+1に変化することで疑似輪郭が変形することによ
り、正確に検出されないことが多い。
On the other hand, the motion vector from the area Bt to the area Bt + 1 has a small similarity due to deformation due to occlusion between frames, that is, the minimum matching distance often does not become small. That is, the motion vector from the region Bt to the region Bt + 1 is often not accurately detected because the pseudo contour is deformed by changing from the region Bt to the region Bt + 1.

【0009】そこで、本発明は、上述したような実情に
鑑みて提案されたものであり、動画像中において動画像
オブジェクトが動きを有して静止オブジェクトと重複す
ることにより動画像オブジェクトが変形しても正確に動
画像オブジェクトについての動きベクトルを検出するこ
とができる動き検出装置及び方法を提供することを目的
とする。
In view of the above, the present invention has been proposed in view of the above-described circumstances, and the moving image object is deformed when the moving object overlaps with the still object in the moving image. It is another object of the present invention to provide a motion detection device and method capable of accurately detecting a motion vector of a moving image object.

【0010】[0010]

【課題を解決するための手段】上述の課題を解決する本
発明に係る動き検出装置は、動画像を構成する第1の画
像、該第1の画像に対し時間的に後に位置する第2の画
像及び第1の画像に対し時間的に前に位置する第3の画
像に含まれる動画像オブジェクトの動きを検出する動き
検出装置において、第1の画像に含まれる動画像オブジ
ェクトを第2の画像に含まれる動画像オブジェクトにマ
ッチングさせて順方向マッチング距離を求め、順方向動
きベクトルを検出する順方向動き検出手段と、第1の画
像に含まれる動画像オブジェクトを第3の画像に含まれ
る動画像オブジェクトにマッチングさせて逆方向マッチ
ング距離を求め、逆方向動きベクトルを検出する逆方向
動き検出手段と、順方向マッチング距離と逆方向マッチ
ング距離とを比較した比較結果に基づいて、上記順方向
動きベクトル又は逆方向動きベクトルを第1の画像に含
まれる動画像オブジェクトの動きベクトルとするように
検出する動きベクトル検出手段とを備えることを特徴と
するものである。
A motion detecting apparatus according to the present invention for solving the above-mentioned problems comprises a first image constituting a moving image, and a second image which is temporally located behind the first image. In a motion detection device for detecting the motion of a moving image object included in a third image positioned temporally before the image and the first image, a moving image object included in the first image is converted to a second image. A forward motion detecting means for obtaining a forward matching distance by matching a moving object included in the first image and a moving object included in the third image; Comparing the forward direction matching distance and the backward direction matching distance with the backward direction detecting unit that calculates the backward direction matching distance by matching the image object and detects the backward direction motion vector Motion vector detecting means for detecting the forward motion vector or the backward motion vector as a motion vector of a moving image object included in the first image based on the comparison result. It is.

【0011】このような動き検出装置は、第1の画像に
含まれる動画像オブジェクトの動きベクトルを、順方向
マッチング距離と逆方向マッチング距離とに応じて、順
方向動きベクトル又は逆方向動きベクトルを選択するこ
とができる。
[0011] Such a motion estimating device converts a motion vector of a moving image object included in a first image into a forward motion vector or a backward motion vector according to a forward matching distance and a backward matching distance. You can choose.

【0012】また、本発明に係る動き検出方法は、動画
像を構成する第1の画像、該第1の画像に対し時間的に
後に位置する第2の画像及び第1の画像に対し時間的に
前に位置する第3の画像に含まれる動画像オブジェクト
の動きを検出する動き検出方法において、第1の画像に
含まれる動画像オブジェクトを第2の画像に含まれる動
画像オブジェクトにマッチングさせて順方向マッチング
距離を求め、順方向動きベクトルを検出するとともに、
第1の画像に含まれる動画像オブジェクトを第3の画像
に含まれる動画像オブジェクトにマッチングさせて逆方
向マッチング距離を求め、逆方向動きベクトルを検出
し、順方向マッチング距離と逆方向マッチング距離とを
比較した比較結果に基づいて、上記順方向動きベクトル
又は逆方向動きベクトルを第1の画像に含まれる動画像
オブジェクトの動きベクトルとするように検出すること
を特徴とする。
Further, the motion detection method according to the present invention is characterized in that a first image constituting a moving image, a second image temporally behind the first image and a first image are temporally shifted. In the motion detection method for detecting the motion of the moving image object included in the third image located before, the moving image object included in the first image is matched with the moving image object included in the second image. A forward matching distance is obtained, a forward motion vector is detected,
The moving image object included in the first image is matched with the moving image object included in the third image to obtain a backward matching distance, a backward motion vector is detected, and a forward matching distance and a backward matching distance are calculated. , Based on the comparison result of the comparison, the forward motion vector or the backward motion vector is detected as the motion vector of the moving image object included in the first image.

【0013】このような動き検出方法は、第1の画像に
含まれる動画像オブジェクトの動きベクトルを、順方向
マッチング距離と逆方向マッチング距離とに応じて、順
方向動きベクトル又は逆方向動きベクトルを選択するこ
とができる。
According to such a motion detection method, a motion vector of a moving image object included in a first image is converted into a forward motion vector or a backward motion vector according to a forward matching distance and a backward matching distance. You can choose.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照しながら詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0015】本発明は、例えば図1に示すように構成さ
れた画像処理装置1に適用される。この画像処理装置1
は、以下に説明する動画像に含まれる動画像オブジェク
トについての動きベクトル検出するための動き検出プロ
グラムを格納した記録媒体2と、この記録媒体2に格納
された動き検出プログラムに従って処理を行うCPU3
とを備える。
The present invention is applied to, for example, an image processing apparatus 1 configured as shown in FIG. This image processing device 1
Is a recording medium 2 storing a motion detection program for detecting a motion vector of a moving image object included in a moving image described below, and a CPU 3 which performs processing according to the motion detection program stored in the recording medium 2.
And

【0016】CPU3は、例えば外部からインターフェ
イス(I/F)回路4を介して動画像データが入力され
たことに応じて、一旦動画像データを画像メモリ5に格
納し、記録媒体2に格納された動き検出プログラムを読
み込んで実行する処理を行うことで、入力された動画像
データを構成する複数のフレームに含まれる動画像オブ
ジェクトについての動きベクトルを検出する処理を行
う。
The CPU 3 temporarily stores the moving image data in the image memory 5, for example, in response to the input of the moving image data from the outside via the interface (I / F) circuit 4, and stores the moving image data in the recording medium 2. By performing a process of reading and executing the motion detection program, a process of detecting a motion vector of a moving image object included in a plurality of frames included in the input moving image data is performed.

【0017】そして、この画像処理装置1においては、
入力した動画像データや動画像オブジェクトについての
動きベクトル等を表示モニタ6に表示することで例えば
ユーザに処理結果等を提示する。
In the image processing apparatus 1,
By displaying the input moving image data, the motion vector of the moving image object, and the like on the display monitor 6, for example, the processing result is presented to the user.

【0018】このCPU3は、複数のフレームに含まれ
る動画像オブジェクトについての動きベクトルを検出す
る処理を行うとき、記録媒体2に格納された動き検出プ
ログラムを起動するとともに、処理の対象となる動画像
データを構成するフレームを画像メモリ5から読み込
む。このとき、CPU3は、フレームtについての動き
ベクトルを検出する処理を行うときには、例えば、図2
に示すように、動きを有しない静止オブジェクトA及び
動きを有する動画像オブジェクトBとを含む動画像を構
成するフレームt−1、フレームt、フレームt+1を
読み込む処理を行う。また、この図2に示す動画像オブ
ジェクトBは静止オブジェクトAの背景であり、該動画
像オブジェクトBを含む動画像には、時刻t−1から時
刻t、時刻t+1となるにしたがって静止オブジェクト
Aと重複する量が多くなるとともに動画像オブジェクト
Bの形状が変化するオクルージョンが発生している。
When performing processing for detecting a motion vector for a moving image object included in a plurality of frames, the CPU 3 activates a motion detecting program stored in the recording medium 2 and simultaneously executes a moving image to be processed. The frames constituting the data are read from the image memory 5. At this time, when the CPU 3 performs the process of detecting the motion vector for the frame t, for example, FIG.
As shown in (1), a process of reading a frame t-1, frame t, and frame t + 1 constituting a moving image including a still object A having no motion and a moving image object B having motion is performed. The moving image object B shown in FIG. 2 is the background of the still object A, and the moving image including the moving object B is added to the still object A as time t-1 to time t and time t + 1. Occlusion occurs in which the amount of overlap increases and the shape of the moving image object B changes.

【0019】画像メモリ5から読み込まれた動画像デー
タは、図3に示すように、フレームt−1,フレーム
t,フレームt+1と時系列に複数のフレームが配列さ
れてなり、ステップST1において各フレーム毎に領域
分割処理がCPU3によりなされる。これにより、各フ
レームは、画素値に応じて複数の領域に分割される。な
お、上述の領域分割処理においてCPU3が行う詳細な
処理内容については後述する。
As shown in FIG. 3, the moving image data read from the image memory 5 includes a plurality of frames arranged in a time series such as a frame t-1, a frame t, and a frame t + 1. The area division processing is performed by the CPU 3 every time. Thereby, each frame is divided into a plurality of regions according to the pixel values. The details of the processing performed by the CPU 3 in the above-described area division processing will be described later.

【0020】次のステップST2において、領域分割処
理がなされた動画像データは、フレームt−1とフレー
ムtとを用いてフレームtについて動きベクトルが検出
されるとともに、フレームtとフレームt+1とを用い
てフレームtについての動きベクトルがCPU3により
検出される。なお、以下の説明において、フレームt−
1とフレームtとを用いて検出したフレームtについて
動きベクトルを「順方向動きベクトル」と呼び、フレー
ムtとフレームt+1とを用いて検出したフレームtに
ついての動きベクトルを「逆方向動きベクトル」と呼
ぶ。
In the next step ST2, in the moving image data subjected to the area division processing, a motion vector is detected for the frame t using the frame t-1 and the frame t, and a motion vector is detected using the frame t and the frame t + 1. Thus, the motion vector for the frame t is detected by the CPU 3. In the following description, the frame t-
The motion vector for frame t detected using frame 1 and frame t is referred to as a “forward motion vector”, and the motion vector for frame t detected using frame t and frame t + 1 is referred to as “reverse motion vector”. Call.

【0021】次のステップST3において、ステップS
T2において検出された順方向動きベクトル及び逆方向
動きベクトルを用いて、フレームtについての動きベク
トルをCPU3により検出する。なお、このステップS
T3におけるCPU3が行う詳細な処理内容については
後述する。
In the next step ST3, step S
Using the forward motion vector and the backward motion vector detected at T2, the CPU 3 detects a motion vector for the frame t. This step S
The details of the processing performed by the CPU 3 at T3 will be described later.

【0022】次に、上述のステップST1における領域
分割処理について説明する。CPU3は、例えば図4に
示すようなフローチャートにしたがった処理を行うこと
で、画像メモリ5に読み込んだフレームt−1、フレー
ムt及びフレームt+1のそれぞれのフレームついて領
域分割処理を行う。なお、以下の領域分割処理の説明に
おいては、フレームt−1、フレームt及びフレームt
+1を総称して単に「フレーム」と呼ぶ。
Next, the area dividing process in step ST1 will be described. The CPU 3 performs, for example, a process according to a flowchart shown in FIG. 4 to perform a region division process on each of the frames t-1, t, and t + 1 read into the image memory 5. In the following description of the area division processing, the frame t-1, the frame t, and the frame t
+1 is simply called a "frame".

【0023】領域分割処理を行うときにおいて、CPU
3は、例えば記録媒体2に記憶された領域分割プログラ
ムを実行することでフレームを複数の領域に分割する。
このとき、CPU3は、任意に選択した基準領域と、当
該基準領域を中心として設定された検索範囲内に含まれ
る参照領域とを比較し、比較結果に応じて基準領域と参
照領域とを併合することで領域を生成して入力されたフ
レームを複数の領域に分割する。これにより、CPU3
は、例えば画素値が均一な部分を示すフレーム、画素値
が周期的に変化する部分(テクスチャ)を示す領域等に
分類してフレームを分割する領域分割処理を行って、フ
レームに含まれる複数のオブジェクトを示す領域を生成
する。
When performing the area dividing process, the CPU
3 divides a frame into a plurality of areas by executing, for example, an area dividing program stored in the recording medium 2.
At this time, the CPU 3 compares the arbitrarily selected reference region with a reference region included in a search range set around the reference region, and merges the reference region and the reference region according to the comparison result. Thus, an area is generated, and the input frame is divided into a plurality of areas. Thereby, the CPU 3
For example, a plurality of frames included in a frame are divided by classifying the frame into a frame indicating a portion having uniform pixel values, a region indicating a portion (texture) in which pixel values change periodically, and dividing the frame. Creates an area representing the object.

【0024】図4に示すフローチャートによれば、先
ず、ステップS11において、CPU3は、上記検索範
囲Sを構成する画素数を設定するとともに、上記基準領
域と上記参照領域との画素パターンの関係を示すピクセ
ル閾値Tを零に近い値とする初期設定を行う。また、C
PU3は、領域とするときの最小限の面積を示す最小面
積値MSAを設定する。なお、この初期設定は、例えば
ユーザからの指示に基づいて行っても良く、さらには領
域分割プログラムに従って行っても良い。
According to the flowchart shown in FIG. 4, first, in step S11, the CPU 3 sets the number of pixels constituting the search range S and shows the relationship between the reference area and the reference area in the pixel pattern. Initial setting is performed so that the pixel threshold value T is close to zero. Also, C
PU3 sets a minimum area value MSA indicating a minimum area when the area is set as a region. This initial setting may be performed based on, for example, an instruction from the user, or may be performed according to a region division program.

【0025】次のステップST12において、CPU3
は、上述のステップST11で設定したピクセル閾値
T、検索範囲S及び最小面積値MSAを用いて、入力さ
れたフレームを構成する複数の領域を生成する処理を行
う。なお、このステップST12の処理の詳細について
は後述する。
In the next step ST12, the CPU 3
Performs a process of generating a plurality of regions constituting the input frame using the pixel threshold value T, the search range S, and the minimum area value MSA set in step ST11 described above. The details of the process in step ST12 will be described later.

【0026】ステップST13において、CPU3は、
ステップST12で示す処理を行うことにより、フレー
ムの全体について領域を生成して、複数の領域に分割さ
れてなるフレームを生成したか否かを判断する。そし
て、CPU3は、フレームの全体について領域を生成し
たと判断したときには処理を終了し、フレームの全体に
ついて領域を生成していないと判断したときにはステッ
プST14に進む。
In step ST13, the CPU 3
By performing the process shown in step ST12, an area is generated for the entire frame, and it is determined whether a frame divided into a plurality of areas has been generated. Then, when CPU 3 determines that an area has been generated for the entire frame, it ends the process, and when it determines that an area has not been generated for the entire frame, it proceeds to step ST14.

【0027】ステップST14において、CPU3は、
ピクセル閾値T及び検索範囲Sを変更する処理を行いス
テップST12に戻る処理を行う。すなわち、CPU3
は、設定したピクセル閾値T及び検索範囲Sでフレーム
全体について処理を行うことで、当該ピクセル閾値T及
び検索範囲Sに適合するフレームの一部に領域を生成
し、ステップST14で新たに設定したピクセル閾値T
及び検索範囲Sで更に領域を生成することで、結果的に
全体が領域で分割されてなるフレームを生成する。更
に、このステップST14において、CPU3は、上述
のピクセル閾値T及び検索範囲Sを変更するとともに、
上記最小面積値MSAを変更する処理を行っても良い。
In step ST14, the CPU 3
A process for changing the pixel threshold value T and the search range S and a process for returning to step ST12 are performed. That is, the CPU 3
Generates an area in a part of the frame that matches the pixel threshold T and the search range S by performing processing on the entire frame with the set pixel threshold T and the search range S, and generates the pixel newly set in step ST14. Threshold T
Further, by generating an area in the search range S, a frame is generated as a result of which the entire area is divided by the area. Further, in this step ST14, the CPU 3 changes the above-described pixel threshold T and the search range S,
A process for changing the minimum area value MSA may be performed.

【0028】次に、上述のステップST12において示
した処理について図5に示すフローチャートを参照して
説明する。
Next, the processing shown in step ST12 will be described with reference to the flowchart shown in FIG.

【0029】先ず、ステップST21において、CPU
3は、上記検索範囲Sを例えば図6に示す3×3画素と
し、上記基準領域と上記参照領域との画素パターンの関
係を示すピクセル閾値Tを零に近い正の値とする初期設
定を行う。また、CPU3は、領域とするときの最低限
の面積を示す最小面積値MSAを設定する。なお、この
初期設定は、例えばユーザからの指示に基づいて行って
も良く、領域分割プログラムに従って行っても良い。
First, in step ST21, the CPU
3, initialization is performed such that the search range S is, for example, 3 × 3 pixels shown in FIG. 6 and the pixel threshold value T indicating the pixel pattern relationship between the reference region and the reference region is a positive value close to zero. . Further, the CPU 3 sets a minimum area value MSA indicating a minimum area as a region. This initial setting may be performed based on, for example, an instruction from a user, or may be performed according to a region division program.

【0030】次のステップST22において、CPU3
は、フレーム内に含まれる複数の画素からなる領域を上
記基準領域Pとして指定する処理を行う。ここで、CP
U3は、フレームを構成するi=1,2,・・・,nか
らなり基準領域Pからi=1番目の基準領域を指定す
る。また、CPU3は、領域の初期値をA=Pとする。
すなわち、CPU3は、領域Aの面積を基準領域Pと同
じ面積とする処理を行う。また、CPU3は、基準領域
Pを中心とし、当該基準領域Pよりも画素数が大きい検
索範囲Sを設定するとともに、上記参照領域として、ス
テップS23において当該基準領域Pを中心とした検索
範囲Sに含まれる微小領域Qを指定する処理を行う。ま
た、微小領域Qは、j=1,2,・・・,mからなりm
個で検索領域Pを構成している。
In the next step ST22, the CPU 3
Performs a process of designating a region including a plurality of pixels included in a frame as the reference region P. Where CP
U3 designates the i = 1st reference region from the reference region P which is composed of i = 1, 2,..., N constituting the frame. The CPU 3 sets the initial value of the area to A = P.
That is, the CPU 3 performs a process of making the area of the area A the same as the area of the reference area P. The CPU 3 sets the search range S around the reference region P and having a larger number of pixels than the reference region P, and sets the search range S around the reference region P in step S23 as the reference region. A process for designating the included minute area Q is performed. The minute area Q is composed of j = 1, 2,.
The search area P is composed of the individual pieces.

【0031】次のステップST24において、CPU3
は、下記式1に示すように、上述のステップST22に
おいて指定した基準領域Pの画素値と上述のステップS
T23において指定した微小領域Qの画素値との差分の
絶対値と、上述のステップST21で設定したピクセル
閾値Tとを比較する処理を行う。 |P−Q|<T (式1) ここで、上記式1は、微小領域Qと基準領域Pとの関係
が、ピクセル閾値Tで略同一の画素パターンであると許
容する範囲内であることを示す。そして、CPU3は、
上記差分の絶対値がピクセル閾値Tよりも小さいと判断
したときにはステップST25に進み、上記差分の絶対
値がピクセル閾値Tよりも小さくないと判断したときに
はステップST26に進む。
In the next step ST24, the CPU 3
Is, as shown in the following equation 1, the pixel value of the reference area P designated in step ST22 and the pixel value of step S22.
A process of comparing the absolute value of the difference between the pixel value of the minute area Q designated in T23 and the pixel threshold T set in step ST21 described above is performed. | P−Q | <T (Equation 1) Here, Expression 1 indicates that the relationship between the minute area Q and the reference area P is within a range that allows the pixel threshold T to be substantially the same pixel pattern. Is shown. Then, the CPU 3
When it is determined that the absolute value of the difference is smaller than the pixel threshold T, the process proceeds to step ST25. When it is determined that the absolute value of the difference is not smaller than the pixel threshold T, the process proceeds to step ST26.

【0032】ステップST25において、CPU3は、
微小領域Qを、基準領域Pに併合する処理を行う。この
ようにCPU3は、上述のステップST24において基
準領域Pの画素値と微小領域Qの画素値との差分の絶対
値が、ピクセル閾値T以下の値となるとき、すなわち基
準領域Pと微小領域Qとの関係がピクセル閾値T以下で
あるときには基準領域Pと微小領域Qとが略同一の画素
パターンであると判断して、基準領域Pと微小領域Qと
を併合して領域の面積を増加させる処理を行う。
In step ST25, the CPU 3
A process of merging the minute area Q with the reference area P is performed. As described above, the CPU 3 determines that the absolute value of the difference between the pixel value of the reference area P and the pixel value of the minute area Q is equal to or less than the pixel threshold T in the above-described step ST24, that is, the reference area P and the minute area Q Is smaller than or equal to the pixel threshold T, it is determined that the reference area P and the minute area Q have substantially the same pixel pattern, and the area of the area is increased by merging the reference area P and the minute area Q. Perform processing.

【0033】次のステップST26において、上述のス
テップST23で指定した微小領域Qについてインクリ
メントすることで、次の微小領域を指定してステップS
T27に進む。
In the next step ST26, the next minute area is designated by incrementing the minute area Q designated in the above-mentioned step ST23, and step S23 is executed.
Proceed to T27.

【0034】次のステップST27において、上述のス
テップST23において指定された微小領域Qを用い
て、上述のステップST24〜ステップST26までの
処理を検索範囲S(j=m)の全体に亘って行ったか否
かを判断する。そして、CPU3は、検索範囲Sの全体
に亘ってステップST24〜ステップST26までの処
理を行ったと判断したときにはステップST28に進
み、検索範囲Sの全体に亘ってステップST24〜ステ
ップST26までの処理を行っていないと判断したとき
には、ステップST24に戻り、検索範囲Sの全体に亘
って処理を行うまでステップST24〜ステップST2
6までの処理を繰り返す。
In the next step ST27, whether or not the processing from the above-mentioned steps ST24 to ST26 has been performed over the entire search range S (j = m) using the minute area Q specified in the above-mentioned step ST23 Determine whether or not. When the CPU 3 determines that the processing from step ST24 to step ST26 has been performed over the entire search range S, the process proceeds to step ST28, and performs the processing from step ST24 to step ST26 over the entire search range S. When it is determined that the search has not been performed, the process returns to step ST24, and steps ST24 to ST2 are performed until the processing is performed over the entire search range S.
The processing up to 6 is repeated.

【0035】ステップST28において、CPU3は、
上述したステップST24〜ステップST27を繰り返
すことで生成した領域の面積と上述のステップST21
で設定した最小面積値MSAとの大きさを比較する。そ
して、CPU3は、領域の面積が最小面積値MSAより
も小さいときには、ステップST29に進み、領域の面
積が最小面積値MSAよりも小さくないときには、ステ
ップST30に進む。
In step ST28, the CPU 3
The area of the region generated by repeating steps ST24 to ST27 described above and step ST21
Compare the size with the minimum area value MSA set in the above. When the area of the region is smaller than the minimum area value MSA, the CPU 3 proceeds to step ST29, and when the area of the region is not smaller than the minimum area value MSA, the CPU 3 proceeds to step ST30.

【0036】ステップST29において、CPU3は、
上述のステップST26で上述のステップST24〜ス
テップST27までの処理を行うことによりで生成され
た領域を、フレームを構成する領域として認識しない処
理を行ってステップST31に進む。
In step ST29, the CPU 3
At step ST26, the area generated by performing the processing from step ST24 to step ST27 is not recognized as an area constituting a frame, and the process proceeds to step ST31.

【0037】ステップST30において、CPU3は、
上述のステップST28で上述のステップST24〜ス
テップST27までの処理を行うことにより生成された
領域を、フレームを構成する領域として認識する処理を
行ってステップST31に進む。
At step ST30, the CPU 3
In step ST28, a process of recognizing a region generated by performing the processes in steps ST24 to ST27 as a region forming a frame is performed, and the process proceeds to step ST31.

【0038】次のステップST31において、CPU3
は、上述した処理の対象となっていた基準領域から次の
基準領域に進める処理を行う。
In the next step ST31, the CPU 3
Performs a process of proceeding from the reference region targeted for the above-described process to the next reference region.

【0039】次のステップST32において、CPU3
は、上述のステップST31で処理の対象を進めたこと
に応じて、上述のステップST21で設定したピクセル
閾値T及び検索範囲Sを用いてフレームの全体について
領域を生成する処理を行ったか否かを判断する。そし
て、CPU3は、フレームの全体について領域を生成す
る処理を行ったと判断したときには処理を終了し、フレ
ームの全体について領域を生成する処理を行っていない
と判断したときにはステップST23に戻ってステップ
ST23〜ステップST31に示す処理を繰り返し行う
ことで入力された画像を複数の領域に分割する。
In the next step ST32, the CPU 3
Determines whether or not the process of generating an area for the entire frame using the pixel threshold T and the search range S set in the above-described step ST21 in accordance with the advance of the processing target in the above-mentioned step ST31 to decide. Then, when CPU 3 determines that the processing for generating the area has been performed for the entire frame, the processing ends, and when it determines that the processing for generating the area has not been performed for the entire frame, the CPU 3 returns to step ST23 and returns to steps ST23 to ST23. The input image is divided into a plurality of regions by repeatedly performing the process shown in step ST31.

【0040】ステップST12でこのような処理を行う
CPU3は、図6に示すように、フレーム内において画
素値が均一な部分10についてはステップST11又は
ステップST14において検索範囲Sを3×3画素とし
て図5に示すフローチャートに示す処理を行い、画素値
がテクスチャ状の部分についてはステップST14にお
いて検索範囲Sを5×5画素として図5に示すフローチ
ャートに示す処理を行うことにより、フレームを複数の
領域に分割する処理を行う。これにより、CPU3は、
ピクセル閾値Tを用いてステップST24〜ステップS
T27の処理を行うことで、図6中の星印で示す検索範
囲S内の微小領域Qと丸印で示す基準領域Pとを併合す
る処理を行い、テクスチャ領域であっても単一の領域を
設定する。すなわち、上述した領域分割処理を行うこと
により、フレーム内に含まれるオブジェクトの絵柄に応
じて領域を分割することができ、例えばフレームに含ま
れるオブジェクトを構成する領域を設定する。
As shown in FIG. 6, the CPU 3 performing such processing in step ST12 sets the search range S to 3 × 3 pixels in step ST11 or step ST14 for the portion 10 having uniform pixel values in the frame. 5 is performed, and the process shown in the flowchart shown in FIG. 5 is performed on the portion having a textured pixel value in step ST14 by setting the search range S to 5 × 5 pixels in step ST14. Perform division processing. Thereby, the CPU 3
Steps ST24 to S using the pixel threshold T
By performing the process of T27, the process of merging the minute region Q within the search range S indicated by the star in FIG. 6 and the reference region P indicated by the circle is performed, and even if it is a texture region, a single region is obtained. Set. That is, by performing the above-described region division processing, the region can be divided according to the pattern of the object included in the frame, and for example, the region constituting the object included in the frame is set.

【0041】具体的には、CPU3は、図2に示すよう
に、静止オブジェクトA及び動画像オブジェクトBを含
む各フレームを領域Aと領域Bとを含むフレームとする
ように領域分割する。
More specifically, as shown in FIG. 2, the CPU 3 divides each frame including the still object A and the moving image object B into a frame including the region A and the region B.

【0042】次に、上述のステップST2及びステップ
ST3に相当する、フレームtについての動きベクトル
を決定する処理について図7のフローチャートを用いて
説明する。この図7に示す動きベクトルを決定する処理
を行うときには、フレームt−1、フレームt、フレー
ムt+1を画像メモリ5に読み込むとともに、動き検出
プログラムを読み込んで実行することにより以下に説明
する処理を行う。
Next, processing for determining a motion vector for a frame t, which corresponds to the above-described steps ST2 and ST3, will be described with reference to the flowchart of FIG. When the processing for determining the motion vector shown in FIG. 7 is performed, the processing described below is performed by reading the frame t-1, the frame t, and the frame t + 1 into the image memory 5 and reading and executing the motion detection program. .

【0043】この図7に示すフローチャートによれば、
先ずステップST41において、CPU3は、フレーム
tに含まれる動画像オブジェクトBを構成する領域をテ
ンプレートとし、フレームt−1に含まれる動画像オブ
ジェクトBを構成する領域とのマッチングを行う。この
とき、CPU3は、テンプレートをフレームt−1に含
まれる動画像オブジェクトBを構成する領域の近傍で重
複する部分が最も大きい位置をマッチング距離MDt-1
とし、マッチング距離MDt-1を用いてフレームtにつ
いての順方向動きベクトルVt-1を求める。
According to the flowchart shown in FIG.
First, in step ST41, the CPU 3 performs matching with the region constituting the moving image object B included in the frame t-1 using the region constituting the moving image object B included in the frame t as a template. At this time, the CPU 3 determines the position where the overlapping portion is the largest in the vicinity of the region constituting the moving image object B included in the frame t-1 as the matching distance MDt-1.
Then, a forward motion vector Vt-1 for the frame t is obtained using the matching distance MDt-1.

【0044】ステップST42において、CPU3は、
フレームtに含まれる動画像オブジェクトBを構成する
領域をテンプレートとし、フレームt+1に含まれる動
画像オブジェクトBを構成する領域とのマッチングを行
う。このとき、CPU3は、テンプレートをフレームt
+1に含まれる動画像オブジェクトBを構成する領域の
近傍で重複する部分が最も大きく、距離が最小の位置を
マッチング距離MDt+1とし、マッチング距離MDt+1を
用いてフレームtについての逆方向動きベクトルVt+1
を求める。
In step ST42, the CPU 3
Using the region constituting the moving image object B included in the frame t as a template, matching with the region constituting the moving image object B included in the frame t + 1 is performed. At this time, the CPU 3 sets the template to the frame t
+1 is the largest overlapping part near the region constituting the moving image object B and the position having the smallest distance is the matching distance MDt + 1, and the backward movement of the frame t is performed using the matching distance MDt + 1. Vector Vt + 1
Ask for.

【0045】ステップST43において、CPU3は、
上述のステップST41で求めたマッチング距離MDt-
1とステップST42で求めたマッチング距離MDt+1と
を比較し、マッチング距離MDt-1がマッチング距離M
Dt+1より大きいか否かを判定する。そして、CPU3
は、マッチング距離MDt-1がマッチング距離MDt+1よ
り大きいと判定したときにはステップST44に進み、
マッチング距離MDt-1がマッチング距離MDt+1より大
きくないと判定したときにはステップST45に進む。
In step ST43, the CPU 3
The matching distance MDt− obtained in step ST41 described above.
1 is compared with the matching distance MDt + 1 obtained in step ST42, and the matching distance MDt-1 is determined as the matching distance M
It is determined whether it is greater than Dt + 1. And CPU3
Proceeds to step ST44 when it is determined that the matching distance MDt-1 is larger than the matching distance MDt + 1,
When it is determined that the matching distance MDt-1 is not larger than the matching distance MDt + 1, the process proceeds to step ST45.

【0046】ステップST44において、CPU3は、
フレームtについての動きベクトルを順方向動きベクト
ルVt-1とする。
In step ST44, the CPU 3
The motion vector for the frame t is defined as a forward motion vector Vt-1.

【0047】ステップST45において、CPU3は、
フレームtについての動きベクトルを逆方向動きベクト
ルVt+1とする。
In step ST45, the CPU 3
The motion vector for the frame t is defined as a backward motion vector Vt + 1.

【0048】具体的に説明すると、例えば図8に示すよ
うに、フレームt−1、フレームt、フレームt+1に
進むにしたがって動画像オブジェクトBが静止オブジェ
クトAに向かって動きを有し動画像オブジェクトBの面
積が次第に小さくなるときに、フレームtに含まれる動
画像オブジェクトBについての動きベクトルを検出する
場合、フレームtに含まれる動画像オブジェクトBを構
成する領域をテンプレートとし、ステップST41でフ
レームt−1に含まれる動画像オブジェクトBを構成す
る領域とマッチングを行うことでマッチング距離MDt-
1及び動きベクトルVt-1を求め、ステップST42でフ
レームt+1に含まれる動画像オブジェクトBを構成す
る領域とマッチングを行うことでマッチング距離MDt+
1及び逆方向動きベクトルVt+1を求める。そして、ステ
ップST43でマッチング距離MDt-1がマッチング距
離MDt+1よりも小さいことを判定し、フレームtに含
まれる動画像オブジェクトBについての順方向動きベク
トルをVt-1とする。
More specifically, as shown in FIG. 8, for example, the moving image object B moves toward the still object A and moves toward the frame t-1, frame t, and frame t + 1. When the motion vector of the moving image object B included in the frame t is detected when the area of the moving image object B gradually decreases, the region configuring the moving image object B included in the frame t is used as a template, and in step ST41, the frame t− 1 by performing matching with the region forming the moving image object B included in the moving image object B.
1 and the motion vector Vt-1 are obtained, and in step ST42, matching is performed with the region constituting the moving image object B included in the frame t + 1 to obtain a matching distance MDt +
1 and the backward motion vector Vt + 1 are obtained. Then, in step ST43, it is determined that the matching distance MDt-1 is smaller than the matching distance MDt + 1, and the forward motion vector of the moving image object B included in the frame t is set to Vt-1.

【0049】また、図9に示すように、フレームt−
1、フレームt、フレームt+1に進むにしたがって動
画像オブジェクトBが静止オブジェクトAに向かって動
きを有し動画像オブジェクトBの面積が次第に小さくな
るときに、フレームtに含まれる動画像オブジェクトB
についての動きベクトルを検出する場合、フレームtに
含まれる動画像オブジェクトBを構成する領域をテンプ
レートとし、ステップST41でフレームt−1に含ま
れる動画像オブジェクトBを構成する領域とマッチング
を行うことでマッチング距離MDt-1及び順方向動きベ
クトルVt-1を求め、ステップST42でフレームt+
1に含まれる動画像オブジェクトBを構成する領域とマ
ッチングを行うことでマッチング距離MDt+1及び逆方
向動きベクトルVt+1を求める。そして、ステップST
43でマッチング距離MDt+1がマッチング距離MDt-1
よりも小さいことを判定し、フレームtに含まれる動画
像オブジェクトBについての逆方向動きベクトルをVt+
1とする。
Further, as shown in FIG.
When the moving image object B moves toward the still object A and progresses to the frame t and the frame t + 1, and the area of the moving image object B gradually decreases, the moving image object B included in the frame t is reduced.
When detecting a motion vector for, the region constituting the moving image object B included in the frame t is used as a template, and in step ST41, matching is performed with the region constituting the moving image object B included in the frame t-1. The matching distance MDt-1 and the forward motion vector Vt-1 are obtained, and the frame t +
The matching distance MDt + 1 and the backward motion vector Vt + 1 are obtained by performing matching with the region constituting the moving image object B included in No. 1. And step ST
At 43, the matching distance MDt + 1 is the matching distance MDt-1
Is determined to be smaller than Vt +
Set to 1.

【0050】このような図7に示すフレームtについて
の動きベクトルを決定する処理を行うCPU3は、フレ
ームt−1を用いて求めたマッチング距離MDt-1及び
フレームt+1を用いて求めたマッチング距離MDt+1
を求め、マッチング距離MDt-1とマッチング距離MDt
+1とで小さい方のマッチング距離を用いて順方向動きベ
クトル又は逆方向動きベクトルのいずれかをフレームt
に含まれる動画像オブジェクトBを構成する領域の動き
ベクトルとするので、フレームt−1、フレームt、フ
レームt−1と進むことにしたがって動画像オブジェク
トBが静止オブジェクトAと重複して変形してオクルー
ジョンが発生しても、マッチング距離に応じて動画像オ
ブジェクトBを構成する各領域についての動きベクトル
を決定することができ、静止オブジェクトAと動画像オ
ブジェクトBとの境界付近の領域の動きベクトルを正確
に検出することができる。
The CPU 3 which performs the processing for determining the motion vector for the frame t shown in FIG. 7 has the matching distance MDt-1 obtained using the frame t-1 and the matching distance MDt obtained using the frame t + 1. +1
, And the matching distance MDt-1 and the matching distance MDt
+1 and either the forward motion vector or the backward motion vector using the smaller matching distance in frame t
Is a motion vector of an area constituting the moving image object B included in the moving image object B, so that the moving image object B is deformed so as to overlap the still object A as the frame t-1, frame t, and frame t-1 progress. Even if occlusion occurs, it is possible to determine a motion vector for each area constituting the moving image object B according to the matching distance, and to calculate a motion vector of an area near the boundary between the still object A and the moving image object B. It can be detected accurately.

【0051】次に、上述のステップST2及びステップ
ST3に相当する、フレームtについての動きベクトル
を決定する他の処理について図10及び図11のフロー
チャートを用いて説明する。
Next, another process for determining a motion vector for the frame t, which corresponds to the above-described steps ST2 and ST3, will be described with reference to the flowcharts of FIGS.

【0052】ステップST51において、CPU3は、
上述のステップST41に示す処理と同様の処理を行
う。すなわち、CPU3は、フレームtに含まれる動画
像オブジェクトBを構成する領域をテンプレートとし、
フレームt−1に含まれる動画像オブジェクトBを構成
する領域とのマッチングを行う。このとき、CPU3
は、テンプレートをフレームt−1に含まれる動画像オ
ブジェクトBを構成する領域の近傍で重複する部分が最
も大きいときの距離をマッチング距離MDt-1とし、マ
ッチング距離MDt-1を用いてフレームtについての動
きベクトルVt-1を求める。
At step ST51, the CPU 3
The same processing as the processing shown in step ST41 is performed. That is, the CPU 3 uses the region constituting the moving image object B included in the frame t as a template,
Matching is performed with the region constituting the moving image object B included in the frame t-1. At this time, CPU3
Is the distance when the overlapping portion is the largest in the vicinity of the region constituting the moving image object B included in the frame t-1 as the matching distance MDt-1, and the matching distance MDt-1 is used for the frame t. Is determined.

【0053】ステップST52において、CPU3は、
上述のステップST42に示す処理と同様の処理を行
う。すなわち、CPU3は、フレームtに含まれる動画
像オブジェクトBを構成する領域をテンプレートとし、
フレームt+1に含まれる動画像オブジェクトBを構成
する領域とのマッチングを行う。このとき、CPU3
は、テンプレートをフレームt+1に含まれる動画像オ
ブジェクトBを構成する領域の近傍で重複する部分が最
も大きいときの距離をマッチング距離MDt+1とし、マ
ッチング距離MDt+1を用いてフレームtについての動
きベクトルVt+1を求める。
At step ST52, the CPU 3
A process similar to the process shown in step ST42 is performed. That is, the CPU 3 uses the region constituting the moving image object B included in the frame t as a template,
Matching is performed with the region constituting the moving image object B included in the frame t + 1. At this time, CPU3
Is the distance when the overlapping portion is the largest in the vicinity of the region constituting the moving image object B included in the frame t + 1 as the matching distance MDt + 1, and the motion for the frame t is calculated using the matching distance MDt + 1. Find the vector Vt + 1.

【0054】ステップST53において、CPU3は、
上述のステップST51で求めたマッチング距離MDt-
1が閾値T1よりも小さいか否かを判定するとともに、
ステップST52で求めたテンプレートの面積で正規化
されたマッチング距離MDt+1が閾値よりも小さいか否
かを判定する。なお、以下の説明において、閾値と比較
するマッチング距離MDは、テンプレートの面積で正規
化されているものとする。そして、CPU3は、マッチ
ング距離MDt-1が閾値T1よりも小さく、且つ、マッ
チング距離MDt+1が閾値よりも小さいと判定したとき
にはステップST54に進み、マッチング距離MDt-1
が閾値T1よりも小さく、且つ、マッチング距離MDt+
1が閾値よりも小さいという条件を満たさないと判定し
たときには図11に示すステップST58に進む。
In step ST53, the CPU 3
The matching distance MDt− obtained in step ST51 described above.
It is determined whether 1 is smaller than a threshold value T1 and
It is determined whether or not the matching distance MDt + 1 normalized by the area of the template determined in step ST52 is smaller than a threshold. In the following description, it is assumed that the matching distance MD to be compared with the threshold is normalized by the area of the template. If the CPU 3 determines that the matching distance MDt-1 is smaller than the threshold value T1 and the matching distance MDt + 1 is smaller than the threshold value, the process proceeds to step ST54, where the matching distance MDt-1 is determined.
Is smaller than the threshold value T1, and the matching distance MDt +
If it is determined that the condition that 1 is smaller than the threshold is not satisfied, the process proceeds to step ST58 shown in FIG.

【0055】ステップST54において、CPU3は、
ステップST51で求めた動きベクトルVt-1及びステ
ップST52で求めた動きベクトルVt+1に信頼マーク
を付加する。すなわち、CPU3は、上述のステップS
T53でマッチング距離が閾値T1以下となると判定さ
れた動きベクトルについては信頼度が高い動きベクトル
を示すフラグとして信頼マークを付加する。
In step ST54, the CPU 3
A confidence mark is added to the motion vector Vt-1 obtained in step ST51 and the motion vector Vt + 1 obtained in step ST52. That is, the CPU 3 executes the above-described step S
For the motion vector for which the matching distance is determined to be equal to or smaller than the threshold value T1 in T53, a reliability mark is added as a flag indicating a motion vector with high reliability.

【0056】ステップST55において、CPU3は、
マッチング距離MDt-1の値とマッチング距離MDt+1の
値とを比較し、マッチング距離MDt-1がマッチング距
離MDt+1より大きいか否かを判定する。そして、CP
U3は、マッチング距離MDt-1がマッチング距離MDt
+1より大きいと判定したときにはステップST56に進
み、マッチング距離MDt-1がマッチング距離MDt+1よ
り大きくないと判定したときにはステップST57に進
む。
In step ST55, the CPU 3
The value of the matching distance MDt-1 is compared with the value of the matching distance MDt + 1 to determine whether the matching distance MDt-1 is greater than the matching distance MDt + 1. And CP
U3 indicates that the matching distance MDt-1 is equal to the matching distance MDt.
When it is determined that it is greater than +1, the process proceeds to step ST56, and when it is determined that the matching distance MDt-1 is not greater than the matching distance MDt + 1, the process proceeds to step ST57.

【0057】ステップST56において、CPU3は、
フレームtについての動きベクトルを動きベクトルVt+
1とする。
In step ST56, the CPU 3
The motion vector for frame t is represented by motion vector Vt +
Set to 1.

【0058】ステップST57において、CPU3は、
フレームtについての動きベクトルを動きベクトルVt-
1とする。
In step ST57, the CPU 3
The motion vector for frame t is calculated as motion vector Vt-
Set to 1.

【0059】具体的にステップST51〜ステップST
57の一連の処理について説明する。例えば図12に示
すように、フレームt−1、フレームt、フレームt+
1に進むにしたがって動画像オブジェクトBが静止オブ
ジェクトAに向かって動きベクトルVRt-1で表現され
る動きベクトルを有する動画像オブジェクトBの面積が
次第に小さくなるときであって、動画像オブジェクトB
の変形が微小な場合には、動画像オブジェクトBを構成
する領域の面積をそれぞれBt-1、Bt、Bt+1とする
と、これらBt-1、Bt、Bt+1は略同一面積となる。
More specifically, steps ST51 to ST
A series of processes of 57 will be described. For example, as shown in FIG. 12, a frame t-1, a frame t, a frame t +
When the area of the moving image object B having the motion vector expressed by the motion vector VRt-1 gradually decreases toward the still object A as the moving image object B progresses to 1, the moving image object B
Is small, assuming that the areas of the regions constituting the moving image object B are Bt-1, Bt, and Bt + 1, respectively, these Bt-1, Bt, and Bt + 1 have substantially the same area.

【0060】図12のフレームtに含まれる動画像オブ
ジェクトBについての動きベクトルを検出する場合、フ
レームtに含まれる動画像オブジェクトBを構成する領
域をテンプレートとし、ステップST51でマッチング
距離MDt-1及び動きベクトルVt-1を求め、ステップS
T52でマッチング距離MDt+1及び動きベクトルVt+1
を求める。そして、ステップST53でマッチング距離
MDt-1がマッチング距離MDt+1よりも小さいことを判
定したときにはフレームtに含まれる動画像オブジェク
トBについての動きベクトルをVt-1とし、マッチング
距離MDt-1がマッチング距離MDt+1よりも小さくない
と判定したときにはフレームtに含まれる動画像オブジ
ェクトBについての動きベクトルをVt+1とする。
When detecting a motion vector of the moving image object B included in the frame t in FIG. 12, the region constituting the moving image object B included in the frame t is used as a template, and in step ST51, the matching distance MDt-1 and the matching distance MDt-1 are determined. A motion vector Vt-1 is obtained, and step S
At T52, the matching distance MDt + 1 and the motion vector Vt + 1
Ask for. When it is determined in step ST53 that the matching distance MDt-1 is smaller than the matching distance MDt + 1, the motion vector of the moving image object B included in the frame t is set to Vt-1, and the matching distance MDt-1 is set to match. When it is determined that the distance is not smaller than the distance MDt + 1, the motion vector of the moving image object B included in the frame t is set to Vt + 1.

【0061】上述のステップST53でマッチング距離
MDt-1が閾値T1よりも小さく、且つ、マッチング距
離MDt+1が閾値よりも小さいという条件を満たさない
と判定したときの図11に示すステップST58におい
て、CPU3は、マッチング距離MDt-1の値とマッチ
ング距離MDt+1の値とを比較し、マッチング距離MDt
-1がマッチング距離MDt+1より大きいか否かを判定す
る。そして、CPU3は、マッチング距離MDt-1がマ
ッチング距離MDt+1より大きいと判定したときにはス
テップST65に進み、マッチング距離MDt-1がマッ
チング距離MDt+1より大きくないと判定したときには
ステップST59に進む。
When it is determined in step ST53 that the condition that the matching distance MDt-1 is smaller than the threshold value T1 and the condition that the matching distance MDt + 1 is smaller than the threshold value is not satisfied, in step ST58 shown in FIG. The CPU 3 compares the value of the matching distance MDt−1 with the value of the matching distance MDt + 1, and determines the matching distance MDt.
It is determined whether -1 is greater than the matching distance MDt + 1. When the CPU 3 determines that the matching distance MDt-1 is larger than the matching distance MDt + 1, the process proceeds to step ST65, and when the CPU 3 determines that the matching distance MDt-1 is not larger than the matching distance MDt + 1, the process proceeds to step ST59.

【0062】ステップST59において、CPU3は、
動きベクトルを検出する対象となっており上述のステッ
プST51及びステップST52でテンプレートとして
用いた領域と対応するフレームt−1の領域の動きベク
トルに信頼マークが付加されているか否かを判定する。
そして、CPU3は、フレームt−1の領域の動きベク
トルに信頼マークが付加されていないと判定したときに
は図10に示すステップST55に戻ってステップST
55〜ステップST57に示す処理を行ってフレームt
についての動きベクトルを決定し、フレームt−1の領
域の動きベクトルに信頼マークが付加されていると判定
したときにはステップST60に進む。
In step ST59, the CPU 3 sets
It is determined whether or not a confidence mark has been added to the motion vector of the area of the frame t-1 corresponding to the area used as the template in steps ST51 and ST52 for which the motion vector is to be detected.
Then, when the CPU 3 determines that the confidence mark has not been added to the motion vector in the area of the frame t-1, the process returns to step ST55 shown in FIG.
55 to perform the processing shown in step ST57 to obtain the frame t
Is determined, and when it is determined that the confidence mark has been added to the motion vector in the region of the frame t-1, the process proceeds to step ST60.

【0063】ステップST60において、CPU3は、
上述のステップST59において信頼マークが付加され
ていると判定した動きベクトルVRt-1を有する領域を
用い、テンプレートとして用いた領域を用いてマッチン
グを行ってマッチング距離MDt-1を求める。
In step ST60, the CPU 3
Using the area having the motion vector VRt-1 determined to have the confidence mark added in step ST59 described above, matching is performed using the area used as the template to obtain a matching distance MDt-1.

【0064】ステップST61において、CPU3は、
上述のステップST60において求めたマッチング距離
MDt-1と閾値T2とを比較し、マッチング距離MDt-1
が閾値T2よりも小さいと判定したときにはステップS
T62に進み、マッチング距離MDt-1が閾値T2より
も小さくないと判定したときにはステップST63に進
む。ここで、閾値T2は、マッチング距離の値について
閾値T1よりも広い値域を有する。
In step ST61, the CPU 3 sets
The matching distance MDt-1 obtained in step ST60 is compared with the threshold value T2, and the matching distance MDt-1 is determined.
Is determined to be smaller than the threshold value T2, step S
Proceeding to T62, if it is determined that the matching distance MDt-1 is not smaller than the threshold value T2, the process proceeds to step ST63. Here, the threshold T2 has a value range wider than the threshold T1 for the value of the matching distance.

【0065】ステップST63において、CPU3は、
フレームt−1の動画像オブジェクトBについての動き
ベクトルVRt-1を有する領域の近傍を探索し、フレー
ムtを構成するテンプレートとのマッチング距離MDt-
1が閾値T2よりも小さいことを満たす領域を検出す
る。そして、CPU3は、マッチング距離MDt-1が閾
値T2よりも小さいことを満たす領域を用いて動きベク
トルVRNt-1を求め、動きベクトルVRNt-1をフレー
ムtを構成するテンプレートの動きベクトルとしてステ
ップST64に進む。
At step ST63, the CPU 3
The vicinity of the region having the motion vector VRt-1 for the moving image object B of the frame t-1 is searched for, and the matching distance MDt- with the template constituting the frame t is searched.
An area that satisfies that 1 is smaller than the threshold value T2 is detected. Then, the CPU 3 obtains the motion vector VRNt-1 using an area satisfying that the matching distance MDt-1 is smaller than the threshold value T2, and sets the motion vector VRNt-1 as a motion vector of a template constituting the frame t in step ST64. move on.

【0066】ステップST62において、CPU3は、
フレームtについての動きベクトルを動きベクトルVR
t-1としてステップST64に進む。
In step ST62, the CPU 3
The motion vector for frame t is represented by motion vector VR.
The process proceeds to step ST64 as t-1.

【0067】ステップST64において、CPU3は、
ステップST63で求めた動きベクトルVRNt-1及び
ステップST62における動きベクトルVRt-1に信頼
マークを付加する。すなわち、CPU3は、上述のステ
ップST61又はステップST63でマッチング距離が
閾値T2以下となると判定された動きベクトルについて
は信頼度が高い動きベクトルを示すフラグとして信頼マ
ークを付加して処理を終了する。
In step ST64, the CPU 3
A confidence mark is added to the motion vector VRNt-1 obtained in step ST63 and the motion vector VRt-1 in step ST62. That is, the CPU 3 adds a confidence mark as a flag indicating a motion vector having a high degree of reliability to the motion vector for which the matching distance is determined to be equal to or smaller than the threshold value T2 in step ST61 or ST63, and ends the process.

【0068】ステップST58〜ステップST64の一
連の処理は、例えば図13に示すように、フレームt−
1、フレームt、フレームt+1に進むにしたがって動
画像オブジェクトBが静止オブジェクトAに向かって動
きベクトルVRt-1で表現される動きを有し動画像オブ
ジェクトBの面積が次第に大きくなる場合、動画像オブ
ジェクトBの変形が微小でなくマッチング距離MDt-
1、MDt+1が閾値T1以上となるときであって、動画像
オブジェクトBを構成する領域の面積をそれぞれBt-
1、Bt、Bt+1とすると、Bt-1>Bt>Bt+1という関係
となるときに行われる。
A series of processing in steps ST58 to ST64 is performed, for example, as shown in FIG.
When the moving image object B has a movement expressed by the motion vector VRt-1 toward the still object A as the moving image object B progresses to 1, frame t, and frame t + 1, the moving image object B gradually increases in area. Matching distance MDt-
1, when MDt + 1 is equal to or greater than the threshold value T1, and the area of the region constituting the moving image object B is Bt−
Assuming that 1, Bt and Bt + 1, the processing is performed when the relation of Bt-1>Bt> Bt + 1 is satisfied.

【0069】図13のフレームtに含まれる動画像オブ
ジェクトBについての動きベクトルを検出する場合、フ
レームtに含まれる動画像オブジェクトBを構成する領
域をテンプレートとし、ステップST59でフレームt
−1に含まれ動画像オブジェクトBを構成する領域の動
きベクトルに信頼マークが付加されているかを判定し、
信頼マークが付加されていないときには上述のステップ
ST55〜ステップST57までの処理によりフレーム
tに含まれる動画像オブジェクトBを構成する領域につ
いての動きベクトルを決定する。
When detecting a motion vector for the moving image object B included in the frame t in FIG. 13, the region constituting the moving image object B included in the frame t is used as a template, and in step ST59, the frame t is detected.
-1 to determine whether a confidence mark is added to the motion vector of the area constituting the moving image object B,
When the confidence mark is not added, the motion vector for the area constituting the moving image object B included in the frame t is determined by the above-described processing from step ST55 to step ST57.

【0070】また、ステップST59でフレームt−1
に含まれ動画像オブジェクトBを構成する領域の動きベ
クトルに信頼マークが付加されているときには、信頼マ
ークの付加されたフレームt−1の動きベクトルVRt-
1又はVRt+1の近傍の動きベクトルVRNt-1を使いマ
ッチング距離MDt-1が閾値T2以下であるときの動き
ベクトルをフレームtに含まれる動画像オブジェクトB
を構成する領域についての動きベクトルとする。
In step ST59, frame t-1
When the confidence mark is added to the motion vector of the region constituting the moving image object B included in the moving image object B, the motion vector VRt- of the frame t-1 to which the confidence mark is added is added.
1 or a motion vector VRNt-1 in the vicinity of VRt + 1, and a motion vector when the matching distance MDt-1 is equal to or less than the threshold value T2.
Is the motion vector for the region constituting.

【0071】一方、ステップST58でマッチング距離
MDt-1がマッチング距離MDt+1より大きいと判定した
ときのステップST65において、CPU3は、動きベ
クトルを検出する対象となっており上述のステップST
51及びステップST52でテンプレートとして用いた
領域と対応するフレームt+1の領域の動きベクトルに
信頼マークが付加されているか否かを判定する。そし
て、CPU3は、フレームt+1の領域の動きベクトル
に信頼マークが付加されていないと判定したときには図
10に示すステップST55に戻ってステップST55
〜ステップST57に示す処理を行ってフレームtにつ
いての動きベクトルを決定し、フレームt+1の領域の
動きベクトルに信頼マークが付加されていると判定した
ときにはステップST66に進む。
On the other hand, when it is determined in step ST58 that the matching distance MDt-1 is larger than the matching distance MDt + 1, in step ST65, the CPU 3 is a target for detecting a motion vector.
It is determined whether or not a confidence mark is added to the motion vector of the area of the frame t + 1 corresponding to the area used as the template in 51 and step ST52. Then, when the CPU 3 determines that the confidence mark has not been added to the motion vector in the area of the frame t + 1, the CPU 3 returns to step ST55 shown in FIG.
The motion vector for the frame t is determined by performing the processing shown in steps ST57 to ST57. When it is determined that the confidence mark has been added to the motion vector in the area of the frame t + 1, the process proceeds to step ST66.

【0072】ステップST66において、CPU3は、
上述のステップST65において信頼マークが付加され
ていると判定した動きベクトルVRt+1を有する領域を
用い、テンプレートとして用いた領域を用いてマッチン
グを行ってマッチング距離MDt+1を求める。
At step ST66, the CPU 3
Using the region having the motion vector VRt + 1 determined to have the confidence mark added in the above-described step ST65, matching is performed using the region used as the template to obtain a matching distance MDt + 1.

【0073】ステップST67において、CPU3は、
上述のステップST66において求めたマッチング距離
MDt+1と閾値T2とを比較し、マッチング距離MDt+1
が閾値T2よりも小さいと判定したときにはステップS
T68に進み、マッチング距離MDt+1が閾値T2より
も小さくないと判定したときにはステップST69に進
む。
At step ST67, the CPU 3
The matching distance MDt + 1 obtained in step ST66 described above is compared with the threshold value T2, and the matching distance MDt + 1 is determined.
Is determined to be smaller than the threshold value T2, step S
Proceeding to T68, if it is determined that the matching distance MDt + 1 is not smaller than the threshold value T2, the process proceeds to step ST69.

【0074】ステップST69において、CPU3は、
フレームt+1の動画像オブジェクトBについての動き
ベクトルVRt+1を有する領域の近傍を探索し、フレー
ムtを構成するテンプレートとのマッチング距離MDt+
1が閾値T2よりも小さいことを満たす領域を検出す
る。そして、CPU3は、マッチング距離MDt+1が閾
値T2よりも小さいことを満たす領域を用いて動きベク
トルVRNt+1を求め、動きベクトルVRNt+1をフレー
ムtを構成するテンプレートの動きベクトルとしてステ
ップST70に進む。
At step ST69, the CPU 3
The vicinity of the area having the motion vector VRt + 1 for the moving image object B of the frame t + 1 is searched for, and the matching distance MDt + with the template constituting the frame t is searched.
An area that satisfies that 1 is smaller than the threshold value T2 is detected. Then, the CPU 3 obtains a motion vector VRNt + 1 using an area satisfying that the matching distance MDt + 1 is smaller than the threshold value T2, and sets the motion vector VRNt + 1 as a motion vector of a template constituting the frame t in step ST70. move on.

【0075】ステップST68において、CPU3は、
フレームtについての動きベクトルを動きベクトルVR
t+1としてステップST70に進む。
At step ST68, the CPU 3
The motion vector for frame t is represented by motion vector VR.
The process proceeds to step ST70 as t + 1.

【0076】ステップST70において、CPU3は、
ステップST69で求めた動きベクトルVRNt+1及び
ステップST68における動きベクトルVRt+1に信頼
マークを付加する。すなわち、CPU3は、上述のステ
ップST67又はステップST69でマッチング距離が
閾値T2以下となると判定された動きベクトルについて
は信頼度が高い動きベクトルを示すフラグとして信頼マ
ークを付加して処理を終了する。
In step ST70, the CPU 3
A confidence mark is added to the motion vector VRNt + 1 obtained in step ST69 and the motion vector VRt + 1 in step ST68. That is, the CPU 3 adds a confidence mark as a flag indicating a motion vector with high reliability to the motion vector for which the matching distance is determined to be equal to or smaller than the threshold value T2 in the above-described step ST67 or ST69, and ends the process.

【0077】ステップST65〜ステップST70の一
連の処理は、例えば図14に示すように、フレームt−
1、フレームt、フレームt+1に進むにしたがって動
画像オブジェクトBが静止オブジェクトAに向かって動
きベクトルVRt+1で表現される動きを有し動画像オブ
ジェクトBの面積が次第に大きくなる場合、動画像オブ
ジェクトBの変形が微小でなくマッチング距離MDt-
1、MDt+1が閾値T1以上となるときであって、動画像
オブジェクトBを構成する領域の面積をそれぞれBt-
1、Bt、Bt+1とすると、Bt+1>Bt>Bt-1という関係
となるときに行われる。
A series of processes in steps ST65 to ST70 is performed, for example, as shown in FIG.
1. When the moving image object B has a movement represented by the motion vector VRt + 1 toward the still object A as the frame progresses to the frame t and the frame t + 1, and the area of the moving image object B gradually increases, Matching distance MDt-
1, when MDt + 1 is equal to or greater than the threshold value T1, and the area of the region constituting the moving image object B is Bt−
Assuming that 1, Bt, Bt + 1, the processing is performed when the relation of Bt + 1>Bt> Bt-1 is satisfied.

【0078】図14のフレームtに含まれる動画像オブ
ジェクトBについての動きベクトルを検出する場合、フ
レームtに含まれる動画像オブジェクトBを構成する領
域をテンプレートとし、ステップST65でフレームt
+1に含まれ動画像オブジェクトBを構成する領域の動
きベクトルに信頼マークが付加されているかを判定し、
信頼マークが付加されていないときには上述のステップ
ST55〜ステップST57までの処理によりフレーム
tに含まれる動画像オブジェクトBを構成する領域につ
いての動きベクトルを決定する。
When detecting the motion vector of the moving image object B included in the frame t in FIG. 14, the region constituting the moving image object B included in the frame t is used as a template, and in step ST65, the frame t is detected.
It is determined whether a confidence mark has been added to the motion vector of the area included in +1 and constituting the moving image object B,
When the confidence mark is not added, the motion vector for the area constituting the moving image object B included in the frame t is determined by the above-described processing from step ST55 to step ST57.

【0079】また、ステップST65でフレームt+1
に含まれ動画像オブジェクトBを構成する領域の動きベ
クトルに信頼マークが付加されているときには、信頼マ
ークの付加されたフレームt+1の動きベクトルVRt+
1又はVRt+1の近傍の動きベクトルVRNt+1を使いマ
ッチング距離MDt+1が閾値T2以下であるときの動き
ベクトルをフレームtに含まれる動画像オブジェクトB
を構成する領域についての動きベクトルとする。
In step ST65, frame t + 1
When the confidence mark is added to the motion vector of the region constituting the moving image object B included in the motion vector object B, the motion vector VRt + of the frame t + 1 to which the confidence mark is added
1 or a motion vector VRNt + 1 in the vicinity of VRt + 1, and a motion vector when the matching distance MDt + 1 is equal to or smaller than the threshold T2 using the motion vector VRNt + 1.
Is the motion vector for the region constituting.

【0080】このような動きベクトルを決定する処理を
行うCPU3は、マッチング距離MDt-1及びマッチン
グ距離MDt+1が閾値T1以下であるときには上述のス
テップST55に示した判定を行ってフレームtに含ま
れる動画像オブジェクトBを構成する領域についての動
きベクトルを順方向動きベクトルVt-1又は逆方向動き
ベクトルVt+1とするので、フレームt−1、フレーム
t、フレームt−1と進むことにしたがって動画像オブ
ジェクトBが静止オブジェクトAと重複して変形してオ
クルージョンが発生しても、マッチング距離に応じて動
画像オブジェクトBを構成する各領域についての動きベ
クトルを決定することができ、静止オブジェクトAと動
画像オブジェクトBとの境界付近の領域の動きベクトル
を正確に検出することができる。
When the matching distance MDt-1 and the matching distance MDt + 1 are equal to or less than the threshold value T1, the CPU 3 performing the processing for determining such a motion vector performs the determination shown in the above-mentioned step ST55 and includes the frame t. The motion vector for the area constituting the moving image object B to be moved is set to the forward motion vector Vt-1 or the backward motion vector Vt + 1. Even if the moving image object B overlaps with the still object A and deforms to generate occlusion, it is possible to determine a motion vector for each region constituting the moving image object B according to the matching distance. Can accurately detect the motion vector in the area near the boundary between the object and the moving image object B. That.

【0081】また、このCPU3は、マッチング距離M
Dt-1及びマッチング距離MDt+1が閾値T1又は閾値T
2以下であることを示す信頼マークが付加された動きベ
クトルを用い、閾値T2以下のマッチング距離の領域に
ついての順方向動きベクトル又は逆方向動きベクトルを
フレームtについての動きベクトルとするので、フレー
ムt−1、フレームt、フレームt−1と進むことにし
たがって動画像オブジェクトBが静止オブジェクトAと
重複して変形し大きなオクルージョンが発生しても、マ
ッチング距離に応じて動画像オブジェクトBを構成する
各領域についての動きベクトルを決定することができ、
静止オブジェクトAと動画像オブジェクトBとの境界付
近の領域の動きベクトルを正確に検出することができ
る。
The CPU 3 calculates the matching distance M
Dt-1 and the matching distance MDt + 1 are equal to the threshold T1 or the threshold T
Since a motion vector to which a confidence mark indicating that the distance is equal to or less than 2 is used, and a forward motion vector or a backward motion vector for a region with a matching distance equal to or less than the threshold T2 is used as a motion vector for the frame t, the frame t Even when the moving image object B overlaps with the still object A and deforms as advancing to −1, frame t, and frame t−1, large occlusion occurs, each of the moving image objects B constituting the moving image object B according to the matching distance. A motion vector for the region can be determined,
A motion vector in an area near the boundary between the still object A and the moving image object B can be accurately detected.

【0082】このような処理を行うCPU3を備えた画
像処理装置1は、動画像を構成する図15に示すような
フレームtについて、上述のステップST41又はステ
ップST51に示す処理を行うことで順方向動きベクト
ルを求め、図16に示すような順方向動きベクトルから
なる画像を生成する。図15に示すフレームtにおいて
は、背景の山や水面が静止オブジェクトAに相当し、ヘ
リコプター及びボートが動画像オブジェクトBに相当す
る。図16を観ると、背景とヘリコプター及びボートと
の境界近傍においてオクルージョンにより不正確な動き
ベクトルが検出されていることが分かる。
The image processing apparatus 1 provided with the CPU 3 for performing such processing performs the above-described processing in step ST41 or ST51 on the frame t as shown in FIG. A motion vector is obtained, and an image composed of forward motion vectors as shown in FIG. 16 is generated. In the frame t shown in FIG. 15, the background mountain and the water surface correspond to the stationary object A, and the helicopter and the boat correspond to the moving image object B. It can be seen from FIG. 16 that an incorrect motion vector is detected due to occlusion near the boundary between the background and the helicopter or boat.

【0083】また、画像処理装置1は、図15に示すよ
うなフレームtにおける動画像を構成するフレームtに
ついて、上述のステップST42又はステップST52
に示す処理を行うことで逆方向動きベクトルを求め、図
17に示すような動きベクトルからなる画像を生成す
る。図17を観ると、背景とヘリコプター及びボートと
の境界近傍においてオクルージョンにより不正確な動き
ベクトルが検出されていることが分かる。
The image processing apparatus 1 performs the above-described step ST42 or step ST52 on the frame t constituting the moving image in the frame t as shown in FIG.
By performing the processing shown in (1), a backward motion vector is obtained, and an image composed of the motion vectors as shown in FIG. 17 is generated. It can be seen from FIG. 17 that an incorrect motion vector is detected due to occlusion near the boundary between the background and the helicopter or boat.

【0084】そして、画像処理装置1は、上述の図7に
示すステップST43〜ステップST45又は図10及
び図11に示すステップST53〜ステップST70に
示す処理を行うことで、順方向動きベクトル及び逆方向
動きベクトルを用いて、図18に示すような動きベクト
ルからなる画像を生成する。図18を観ると、背景とヘ
リコプター及びボートとの境界近傍において背景と重複
しても正確な動きベクトルが検出されていることが分か
る。
The image processing apparatus 1 performs the processing shown in steps ST43 to ST45 shown in FIG. 7 or the processing shown in steps ST53 to ST70 shown in FIGS. Using the motion vector, an image including the motion vector as shown in FIG. 18 is generated. From FIG. 18, it can be seen that an accurate motion vector is detected near the boundary between the background and the helicopter or boat even if it overlaps with the background.

【0085】これに対し、ブロックマッチングにより決
定したフレームtについての動きベクトルは、図19に
示すように、背景と動画像オブジェクトBとの境界近傍
においてオクルージョンが発生して不正確な動きベクト
ルが検出されていることが分かる。
On the other hand, as shown in FIG. 19, the motion vector of the frame t determined by the block matching is such that an occlusion occurs near the boundary between the background and the moving image object B and an incorrect motion vector is detected. You can see that it is done.

【0086】[0086]

【発明の効果】以上詳細に説明したように、本発明に係
る動き検出装置及び方法は、動画像を構成する第1の画
像、該第1の画像に対し時間的に後に位置する第2の画
像及び第1の画像に対し時間的に前に位置する第3の画
像に含まれる動画像オブジェクトの動きを検出する動き
検出方法において、第1の画像に含まれる動画像オブジ
ェクトを第2の画像に含まれる動画像オブジェクトにマ
ッチングさせて順方向マッチング距離を求めて順方向動
きベクトルを検出するとともに、第1の画像に含まれる
動画像オブジェクトを第3の画像に含まれる動画像オブ
ジェクトにマッチングさせて逆方向マッチング距離を求
めて逆方向動きベクトルを検出し、順方向マッチング距
離と逆方向マッチング距離とを比較した比較結果に基づ
いて、上記順方向動きベクトル又は逆方向動きベクトル
を第1の画像に含まれる動画像オブジェクトの動きベク
トルとするように検出するので、第1の画像に含まれる
動画像オブジェクトの動きベクトルを、順方向マッチン
グ距離と逆方向マッチング距離とに応じて、順方向動き
ベクトル又は逆方向動きベクトルを選択することができ
る。したがって、この動き検出装置及び方法によれば、
動画像中において動画像オブジェクトが動きを有して静
止オブジェクトと重複することにより動画像オブジェク
トが変形しても、小さいマッチング距離で求めた順方向
動きベクトル又は逆方向動きベクトルを選択して動きベ
クトルを決定することができ、正確に動画像オブジェク
トについての動きベクトルを検出することができる。
As described above in detail, the motion detecting apparatus and method according to the present invention provide a first image constituting a moving image and a second image temporally located after the first image. In a motion detection method for detecting a motion of a moving image object included in a third image temporally preceding the image and the first image, a moving image object included in the first image is converted to a second image. And the forward motion vector is detected by obtaining a forward matching distance by matching the moving image object included in the first image, and the moving image object included in the first image is matched with the moving image object included in the third image. The backward matching distance is calculated to detect the backward motion vector, and based on the comparison result of comparing the forward matching distance and the backward matching distance, the forward In this case, the motion vector of the moving image object included in the first image is calculated as the motion vector of the moving image object included in the first image. Depending on the direction matching distance, a forward motion vector or a backward motion vector can be selected. Therefore, according to the motion detection device and method,
Even if the moving image object is deformed by the moving image object having a motion and overlapping the still object in the moving image, a forward motion vector or a backward motion vector obtained by a small matching distance is selected and a motion vector is selected. Can be determined, and the motion vector of the moving image object can be accurately detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した画像処理装置の構成を示すブ
ロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus to which the present invention has been applied.

【図2】静止オブジェクトAと動画像オブジェクトBと
の関係を説明するための図である。
FIG. 2 is a diagram for explaining a relationship between a still object A and a moving image object B;

【図3】動画像データについて行う処理について説明す
るための図である。
FIG. 3 is a diagram for describing processing performed on moving image data.

【図4】フレームt及びフレームt+1のそれぞれにつ
いて行う領域分割プログラムによる処理手順を説明する
ためのフローチャートである。
FIG. 4 is a flowchart illustrating a processing procedure according to a region division program performed for each of a frame t and a frame t + 1.

【図5】指定したピクセル閾値及び検索範囲で領域を生
成する処理を示すフローチャートである。
FIG. 5 is a flowchart illustrating a process of generating a region with a specified pixel threshold and a search range.

【図6】検索範囲を変化させて領域分割処理を行うこと
を説明するための図である。
FIG. 6 is a diagram for explaining that an area dividing process is performed by changing a search range.

【図7】本発明を適用した画像処理装置のCPUにより
フレームtについての動きベクトルを決定する処理の一
例を示すフローチャートである。
FIG. 7 is a flowchart illustrating an example of a process of determining a motion vector for a frame t by a CPU of an image processing apparatus to which the present invention has been applied.

【図8】フレームt−1、フレームt、フレームt+1
に進むにしたがって変化する静止オブジェクトAと動画
像オブジェクトBとの関係の一例を説明するための図で
ある。
FIG. 8 shows a frame t-1, a frame t, and a frame t + 1.
FIG. 9 is a diagram for explaining an example of a relationship between a still object A and a moving image object B that changes as the process proceeds to FIG.

【図9】フレームt−1、フレームt、フレームt+1
に進むにしたがって変化する静止オブジェクトAと動画
像オブジェクトBとの関係の他の一例を説明するための
図である。
FIG. 9 shows a frame t-1, a frame t, and a frame t + 1.
FIG. 10 is a diagram for explaining another example of the relationship between the still object A and the moving image object B that changes as the process proceeds to FIG.

【図10】本発明を適用した画像処理装置のCPUによ
りフレームtについての動きベクトルを決定する他の処
理を示すフローチャートである。
FIG. 10 is a flowchart illustrating another process of determining a motion vector for a frame t by a CPU of an image processing apparatus to which the present invention has been applied.

【図11】本発明を適用した画像処理装置のCPUによ
りフレームtについての動きベクトルを決定する他の処
理を示すフローチャートである。
FIG. 11 is a flowchart illustrating another process of determining a motion vector for a frame t by the CPU of the image processing apparatus to which the present invention has been applied.

【図12】フレームt−1、フレームt、フレームt+
1に進むにしたがって変化する静止オブジェクトAと動
画像オブジェクトBとの関係の他の一例を説明するため
の図である。
FIG. 12 shows a frame t-1, a frame t, and a frame t +
FIG. 11 is a diagram for explaining another example of the relationship between the still object A and the moving image object B that changes as the process proceeds to 1.

【図13】フレームt−1、フレームt、フレームt+
1に進むにしたがって変化する静止オブジェクトAと動
画像オブジェクトBとの関係の他の一例を説明するため
の図である。
FIG. 13 shows a frame t-1, a frame t, and a frame t +
FIG. 11 is a diagram for explaining another example of the relationship between the still object A and the moving image object B that changes as the process proceeds to 1.

【図14】フレームt−1、フレームt、フレームt+
1に進むにしたがって変化する静止オブジェクトAと動
画像オブジェクトBとの関係の他の一例を説明するため
の図である。
FIG. 14 shows a frame t-1, a frame t, and a frame t +
FIG. 11 is a diagram for explaining another example of the relationship between the still object A and the moving image object B that changes as the process proceeds to 1.

【図15】動画像を構成するフレームtを示す図であ
る。
FIG. 15 is a diagram showing a frame t constituting a moving image.

【図16】順方向動きベクトルからなる画像を示す図で
ある。
FIG. 16 is a diagram showing an image composed of forward motion vectors.

【図17】逆方向動きベクトルからなる画像を示す図で
ある。
FIG. 17 is a diagram showing an image composed of a backward motion vector.

【図18】本発明を適用した画像処理装置により生成さ
れる動きベクトルからなる画像を示す図である。
FIG. 18 is a diagram showing an image composed of motion vectors generated by an image processing device to which the present invention has been applied.

【図19】ブロックマッチングにより決定したフレーム
tについての動きベクトルからなる画像を示す図であ
る。
FIG. 19 is a diagram showing an image composed of motion vectors for a frame t determined by block matching.

【図20】オクルージョンが発生することを説明するた
めの図である。
FIG. 20 is a diagram for explaining that occlusion occurs.

【符号の説明】[Explanation of symbols]

1 画像処理装置、3 CPU 1 image processing device, 3 CPU

───────────────────────────────────────────────────── フロントページの続き (72)発明者 布施 圭介 東京都港区芝二丁目31番19号 通信・放送 機構内 Fターム(参考) 5C059 KK00 MA05 MB04 NN01 NN08 NN11 NN28 PP04 UA31 5L096 DA02 FA41 FA59 FA66 GA07 GA19 GA34 GA51 HA04 JA09 9A001 HH30  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Keisuke Fuse 2-31-19 Shiba, Minato-ku, Tokyo F-term in the Communications and Broadcasting Corporation (reference) 5C059 KK00 MA05 MB04 NN01 NN08 NN11 NN28 PP04 UA31 5L096 DA02 FA41 FA59 FA66 GA07 GA19 GA34 GA51 HA04 JA09 9A001 HH30

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 動画像を構成する第1の画像、該第1の
画像に対し時間的に後に位置する第2の画像及び第1の
画像に対し時間的に前に位置する第3の画像に含まれる
動画像オブジェクトの動きを検出する動き検出装置にお
いて、 第1の画像に含まれる動画像オブジェクトを第2の画像
に含まれる動画像オブジェクトにマッチングさせて順方
向マッチング距離を求め、順方向動きベクトルを検出す
る順方向動き検出手段と、 第1の画像に含まれる動画像オブジェクトを第3の画像
に含まれる動画像オブジェクトにマッチングさせて逆方
向マッチング距離を求め、逆方向動きベクトルを検出す
る逆方向動き検出手段と、 順方向マッチング距離と逆方向マッチング距離とを比較
した比較結果に基づいて、上記順方向動きベクトル又は
逆方向動きベクトルを第1の画像に含まれる動画像オブ
ジェクトの動きベクトルとするように検出する動きベク
トル検出手段とを備えることを特徴とする動き検出装
置。
1. A first image constituting a moving image, a second image temporally located after the first image, and a third image temporally located before the first image. A motion detection device that detects a motion of a moving image object included in the first image; a moving image object included in the first image is matched with a moving image object included in the second image to obtain a forward matching distance; A forward motion detecting means for detecting a motion vector, and a backward moving distance is obtained by matching a moving image object included in the first image to a moving image object included in the third image to detect a backward motion vector. A forward motion vector or a backward motion vector based on a comparison result of comparing the forward matching distance and the backward matching distance. A motion vector detecting means for detecting a vector as a motion vector of a moving image object included in the first image.
【請求項2】 第1の画像、第2の画像及び第3の画像
を、画素値の変化量に基づいた複数の領域に分割する領
域分割手段を備え、 上記順方向動き検出手段は、第1の画像に含まれる動画
像オブジェクトを構成し上記領域分割手段により生成さ
れた領域を、第2の画像に含まれる動画像オブジェクト
を構成し上記領域分割手段により生成された領域にマッ
チングさせて順方向マッチング距離を求めて順方向動き
ベクトルを検出し、 上記逆方向動き検出手段は、第1の画像に含まれる動画
像オブジェクトを構成し上記領域分割手段により生成さ
れた領域を、第3の画像に含まれる動画像オブジェクト
を構成し上記領域分割手段により生成された領域にマッ
チングさせて逆方向マッチング距離を求め逆方向動きベ
クトルを検出することを特徴とする請求項1記載の動き
検出装置。
2. The image processing apparatus according to claim 1, further comprising: an area dividing unit that divides the first image, the second image, and the third image into a plurality of areas based on an amount of change in a pixel value. The area generated by the area dividing means which constitutes the moving image object included in the first image is matched with the area generated by the area dividing means which constitutes the moving image object included in the second image. Calculating a direction matching distance to detect a forward motion vector; the reverse direction motion detecting means forming a moving image object included in the first image and generating an area generated by the area dividing means into a third image; And a reverse motion vector is detected by calculating a reverse matching distance by matching a moving image object included in the Motion detection apparatus according to claim 1.
【請求項3】 予め設定した第1の閾値と上記順方向マ
ッチング距離及び逆方向マッチング距離の値を比較し、
順方向マッチング距離及び逆方向マッチング距離が第1
の閾値よりも小さいときには、動きベクトルの信頼度が
高いことを示す信頼マークを、第1の画像に含まれる動
画像オブジェクトを構成する領域についての動きベクト
ルに付加する信頼マーク付加手段を備え、 上記順方向動き検出手段又は逆方向動き検出手段は、上
記信頼マーク付加手段により信頼マークが付加された動
きベクトルを有し第2の画像又は第3の画像に含まれる
動画像オブジェクトを構成する領域を用いて、第1の画
像に含まれ動画像オブジェクトを構成する領域とマッチ
ングを行ってマッチング距離を求めることを特徴とする
請求項2記載の動き検出装置。
3. Comparing a first threshold value set in advance with values of the forward matching distance and the backward matching distance,
The forward matching distance and the backward matching distance are the first
A confidence mark indicating that the reliability of the motion vector is high, the confidence mark indicating that the reliability of the motion vector is high, is added to the motion vector of the region constituting the moving image object included in the first image. The forward motion detecting means or the backward motion detecting means may define a region having a motion vector to which a trust mark has been added by the trust mark adding means and constituting a moving image object included in the second image or the third image. 3. The motion detecting apparatus according to claim 2, wherein a matching distance is determined by performing matching with a region included in the first image and constituting a moving image object.
【請求項4】 上記動きベクトル検出手段は、上記信頼
マーク付加手段により信頼マークが付加された動きベク
トルを有する領域を用いて求められたマッチング距離と
第2の閾値とを比較した比較結果に基づいて順方向動き
ベクトル又は逆方向動きベクトルを第1の画像に含まれ
る動画像オブジェクトの動きベクトルとするように検出
することを特徴とする請求項3記載の動き検出装置。
4. The motion vector detecting means based on a comparison result of comparing a matching distance obtained using a region having a motion vector to which a confidence mark has been added by the confidence mark adding means with a second threshold value. 4. The motion detecting device according to claim 3, wherein the forward motion vector or the backward motion vector is detected as a motion vector of a moving image object included in the first image.
【請求項5】 上記動きベクトル検出手段は、上記信頼
マーク付加手段により信頼マークが付加された動きベク
トルを有する領域を用いて求められたマッチング距離と
第2の閾値とを比較し、 マッチング距離が第2の閾値よりも小さいときには、第
2の画像又は第3の画像に含まれ信頼マークが付加され
た動きベクトルを、第1の画像に含まれ動画像オブジェ
クトを構成する領域の動きベクトルとし、 マッチング距離が第2の閾値よりも小さくないときに
は、第2の画像又は第3の画像に含まれ信頼マークが付
加された動きベクトルの近傍に位置しマッチング距離が
閾値よりも小さい領域における動きベクトルを、第1の
画像に含まれ動画像オブジェクトを構成する領域の動き
ベクトルとすることを特徴とする請求項4記載の動き検
出装置。
5. The motion vector detecting means compares a matching distance obtained by using a region having a motion vector to which a trust mark has been added by the trust mark adding means with a second threshold value, and determines that the matching distance is When it is smaller than the second threshold value, the motion vector included in the second image or the third image and to which the confidence mark is added is set as a motion vector of a region included in the first image and constituting a moving image object, When the matching distance is not smaller than the second threshold, a motion vector in an area where the matching distance is smaller than the threshold and located near the motion vector included in the second image or the third image to which the confidence mark is added is set. 5. The motion detection device according to claim 4, wherein the motion vector is a motion vector of a region included in the first image and constituting a moving image object.
【請求項6】 動画像を構成する第1の画像、該第1の
画像に対し時間的に後に位置する第2の画像及び第1の
画像に対し時間的に前に位置する第3の画像に含まれる
動画像オブジェクトの動きを検出する動き検出方法にお
いて、 第1の画像に含まれる動画像オブジェクトを第2の画像
に含まれる動画像オブジェクトにマッチングさせて順方
向マッチング距離を求め、順方向動きベクトルを検出す
るとともに、第1の画像に含まれる動画像オブジェクト
を第3の画像に含まれる動画像オブジェクトにマッチン
グさせて逆方向マッチング距離を求め、逆方向動きベク
トルを検出し、 順方向マッチング距離と逆方向マッチング距離とを比較
した比較結果に基づいて、上記順方向動きベクトル又は
逆方向動きベクトルを第1の画像に含まれる動画像オブ
ジェクトの動きベクトルとするように検出することを特
徴とする動き検出方法。
6. A first image constituting a moving image, a second image temporally located after the first image, and a third image temporally located before the first image. In the motion detection method for detecting the motion of a moving image object included in a moving image object, a moving image object included in a first image is matched with a moving image object included in a second image to determine a forward matching distance, Detecting a motion vector and matching a moving image object included in the first image with a moving image object included in the third image to obtain a backward matching distance; detecting a backward motion vector; A moving image including the forward motion vector or the backward motion vector in the first image based on a comparison result of comparing the distance and the backward matching distance; Motion detecting method characterized by detecting such a motion vector of the object.
【請求項7】 第1の画像、第2の画像及び第3の画像
を、画素値の変化量に基づいた複数の領域に分割し、 第1の画像に含まれる動画像オブジェクトを構成する領
域を、第2の画像に含まれる動画像オブジェクトを構成
する領域にマッチングさせて順方向マッチング距離を求
めて順方向動きベクトルを検出するとともに、第1の画
像に含まれる動画像オブジェクトを構成する領域を、第
3の画像に含まれる動画像オブジェクトを構成する領域
にマッチングさせて逆方向マッチング距離を求め逆方向
動きベクトルを検出することを特徴とする請求項6記載
の動き検出方法。
7. The first image, the second image, and the third image are divided into a plurality of regions based on a change amount of a pixel value, and regions forming a moving image object included in the first image To a region constituting a moving image object included in the second image, a forward matching distance is obtained to detect a forward motion vector, and a region constituting the moving image object included in the first image. 7. The motion detection method according to claim 6, further comprising: matching a region of the moving image object included in the third image with a region of the moving image object, calculating a backward matching distance, and detecting a backward motion vector.
【請求項8】 予め設定した第1の閾値と上記順方向マ
ッチング距離及び逆方向マッチング距離の値を比較し、
順方向マッチング距離及び逆方向マッチング距離が第1
の閾値よりも小さいときには、動きベクトルの信頼度が
高いことを示す信頼マークを、第1の画像に含まれる動
画像オブジェクトを構成する領域についての動きベクト
ルに付加し、 信頼マークが付加された動きベクトルを有し第2の画像
又は第3の画像に含まれる動画像オブジェクトを構成す
る領域を用いて、第1の画像に含まれ動画像オブジェク
トを構成する領域とマッチングを行ってマッチング距離
を求めることを特徴とする請求項7記載の動き検出方
法。
8. Comparing a first threshold value set in advance with the values of the forward matching distance and the backward matching distance,
The forward matching distance and the backward matching distance are the first
Is smaller than the threshold value, a confidence mark indicating that the reliability of the motion vector is high is added to the motion vector of the region constituting the moving image object included in the first image, and the motion with the confidence mark is added. Using a region having a vector and constituting a moving image object included in the second image or the third image, matching is performed with a region constituting the moving image object included in the first image to obtain a matching distance. 8. The motion detection method according to claim 7, wherein:
【請求項9】 信頼マークが付加された動きベクトルを
有する領域を用いて求められたマッチング距離と第2の
閾値とを比較した比較結果に基づいて順方向動きベクト
ル又は逆方向動きベクトルを第1の画像に含まれる動画
像オブジェクトの動きベクトルとするように検出するこ
とを特徴とする請求項8記載の動き検出方法。
9. A forward motion vector or a backward motion vector based on a comparison result obtained by comparing a matching distance obtained by using a region having a motion vector to which a confidence mark is added and a second threshold value, with a first threshold value. 9. The motion detection method according to claim 8, wherein the motion vector is detected as a motion vector of a moving image object included in the image.
【請求項10】 信頼マークが付加された動きベクトル
を有する領域を用いて求められたマッチング距離と第2
の閾値とを比較し、 マッチング距離が第2の閾値よりも小さいときには、第
2の画像又は第3の画像に含まれ信頼マークが付加され
た動きベクトルを、第1の画像に含まれ動画像オブジェ
クトを構成する領域の動きベクトルとし、 マッチング距離が第2の閾値よりも小さくないときに
は、第2の画像又は第3の画像に含まれ信頼マークが付
加された動きベクトルの近傍に位置しマッチング距離が
閾値よりも小さい領域における動きベクトルを、第1の
画像に含まれ動画像オブジェクトを構成する領域の動き
ベクトルとすることを特徴とする請求項9記載の動き検
出方法。
10. A matching distance obtained by using an area having a motion vector to which a confidence mark is added and a second
When the matching distance is smaller than the second threshold value, the motion vector included in the second image or the third image to which the confidence mark has been added is included in the first image. When the matching distance is not smaller than the second threshold, the matching distance is set near the motion vector included in the second image or the third image to which the confidence mark is added, and the matching distance The motion detection method according to claim 9, wherein a motion vector in a region where is smaller than a threshold value is set as a motion vector of a region included in the first image and constituting a moving image object.
JP7361099A 1999-03-18 1999-03-18 Device and method for motion detection Withdrawn JP2000270337A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7361099A JP2000270337A (en) 1999-03-18 1999-03-18 Device and method for motion detection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7361099A JP2000270337A (en) 1999-03-18 1999-03-18 Device and method for motion detection

Publications (1)

Publication Number Publication Date
JP2000270337A true JP2000270337A (en) 2000-09-29

Family

ID=13523287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7361099A Withdrawn JP2000270337A (en) 1999-03-18 1999-03-18 Device and method for motion detection

Country Status (1)

Country Link
JP (1) JP2000270337A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018591A (en) * 2001-07-03 2003-01-17 Nec Corp Motion picture coding system, motion picture coding method, and program
JP2009533887A (en) * 2005-11-30 2009-09-17 エヌエックスピー ビー ヴィ Motion vector field correction apparatus and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003018591A (en) * 2001-07-03 2003-01-17 Nec Corp Motion picture coding system, motion picture coding method, and program
JP4613453B2 (en) * 2001-07-03 2011-01-19 日本電気株式会社 Moving picture coding system, moving picture coding method and program
JP2009533887A (en) * 2005-11-30 2009-09-17 エヌエックスピー ビー ヴィ Motion vector field correction apparatus and method

Similar Documents

Publication Publication Date Title
US10109053B2 (en) Apparatus and method for detecting error in lesion contour, apparatus and method for correcting error in lesion contour, and apparatus for inspecting error in lesion contour
JP4845715B2 (en) Image processing method, image processing apparatus, program, and storage medium
JP5006304B2 (en) Method and apparatus for continuous map-ground separation in image sequences from dynamic visual scenes
KR101457313B1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
US20070013791A1 (en) Tracking apparatus
US20080187173A1 (en) Method and apparatus for tracking video image
JP3810943B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
KR20120130090A (en) Head recognition method
JP2014215735A (en) Nail image synthesizing device, nail image synthesizing method, and nail image synthesizing program
Sazbon et al. Finding the focus of expansion and estimating range using optical flow images and a matched filter
JP7444279B2 (en) Object tracking device, object tracking method, and program
JP2000270337A (en) Device and method for motion detection
Kerdvibulvech et al. Model-based hand tracking by chamfer distance and adaptive color learning using particle filter
JPH0921610A (en) Image-processing apparatus and image-processing method
KR102237131B1 (en) Appratus and method for processing image including at least one object
JP2000132692A (en) Method for extracting feature point of curve and recording medium recording the method
CN110163829B (en) Image generation method, device and computer readable storage medium
JP4622120B2 (en) Image processing apparatus and method, storage medium, and computer program
JP6981543B2 (en) Motion recognition device, motion recognition method, and program
JP3677253B2 (en) Video editing method and program
JPH07105362A (en) Generator for sampling point of curve
JP7444278B2 (en) Object tracking device, object tracking method, and program
JP2000259837A (en) Device and method for detecting motion
JP3887961B2 (en) Image association method, computer-readable storage medium for causing computer to execute image association method, and information processing apparatus
WO2023053364A1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040513

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20040517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050811

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050811

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606